Web-tanトップ | マーケティング | サイト管理 | システム | このサイトについて | メンバーについて | メンバー登録 | 記事を書いて5万円もらおう
Web担当者 現場のノウハウ vol.1

正しいアクセス解析は正しい用語の理解から

木, 2006-07-27 16:35
コメント(0)
トラックバック(0)
Webサイトの“見える化”&“カイゼン”講座

―何を解析すればいいのかわからないあなたに―

Webサイトの“見える化”&“カイゼン”講座

第0回:正しいアクセス解析は正しい用語の理解から

石井 研二(いなかどっとコム)

ウェブサイトはようやく「数字」を見ながら訪問者の動きをコントロールする時代に入った。正しい読み取りと判断でサイトを一歩も二歩もリードさせよう。

アクセス解析の仕組みをふまえれば何がわかるか見えてくる

2005年にブログやCMSが流行したが、アクセス解析結果を初めて目にしたウェブマスターも多いことだろう。今年は、ただ数字を見て「ヘェー、こんなキーワードが来てるのか」と感心するだけでなく、もっと解析結果を生かして次の一手を決める運営を目指してほしい。

アクセス解析というと難しいシステム的なものと思って尻込みするウェブマスターはまだ多い。しかし、アクセス解析とは、出てきた数字を使ってサイトをどう改善していくか、そこからユーザーのニーズをつかんでどうコントロールするかというマーケティング判断の問題なのだ。

この連載では、アクセス解析での数字の見方やサイトの改善方法をできるだけ具体的かつ実践的に解説する。とは言え、アクセス解析では、正しく理解しておかなければその後の判断に悪影響を与える可能性のある用語や概念がある。第一回となる今回は、具体的な解説に入る前に、アクセス解析を正しく理解するための知識を解説する。

アクセス解析の具体的な「分析」の簡単な例を挙げてみよう。サイトの「入り口」の把握に関する話だ。

今のウェブサイトは検索エンジンを通じてたくさんの訪問者が来ている。検索エンジンで検索すると、トップページ以外のさまざまなページが出てくる。となると、あなたのサイトでも、トップページから入るのではなく検索結果からトップページ以外のページに直接訪れる人がたくさんいることになる。実際、今のウェブサイトでは、トップページから訪れるのは3割弱のユーザーに過ぎない。7割はトップページ以外のさまざまなページを入り口にしてサイトを訪れているのだ。

顧客が何を求め、どのドアから入ってきているのか把握せずに、いつまでも正面玄関(トップページ)でだけ声を張り上げていても、顧客にはその声はまったく伝わらない。まずは実態を把握すること。それから問題点を改善してサイトを良くすること。この手順で進めれば、ウェブサイトは論理的に良くなっていくのだ。

アクセス解析の方式は3つ
方法によって長所も短所も

アクセス解析ツールがサイトのアクセス状況を取得する方法は3つに大別される(図1)。

1つはサーバーが内部に記録するサーバーログファイルを集計する“サーバーログ型”だ。画像やFlashのアクセスもすべて記録されるため、深い解析も可能となる。どのPDFやXLSがよくダウンロードされたのかといった解析は得意だ。伝統的な方式なので、オープンソースのものも含めて優秀な解析ソフトがそろっている。レンタルサーバーの管理画面から解析結果を見られるサービスもこのタイプが多い。しかし、ログファイルは月に何百MB~何GBといった重いデータになることもあり、サイトへのアクセス数が多ければ多いほど解析集計にも時間がかかる。

そこで第2の方法として、“ウェブビーコン型”が人気を集めている。ウェブサイトの各ページにJavaScriptなどを埋め込んでおいて、ページがブラウザーで表示されるたびに、アクセスを示すデータを解析サーバーに送信する仕組みだ。送られた情報はその場でデータベース化されるので、解析結果をほぼリアルタイムに見られる。あくまでもビーコンを埋め込んだページへのアクセスしか解析できないので、ビーコンの埋め込み作業が大変だったり、画像のカウントはできなかったりという導入の難しさもある。しかし、ブラウザーの[戻る]ボタンでのページ移動も把握できることや、ページごとにさまざまなデータを埋め込んでおいてアクセス情報と合わせて解析できるなどから、特にマーケティングを目的としたアクセス解析においては主流となっている。話題のGoogle Analyticsもビーコン型の解析サービスだ。

第3の方法は“パケットキャプチャー型”だ。これはウェブサーバーと同じネットワークに解析サーバーを設置して、ウェブサーバーに送られるすべてのネットワーク信号をコピーして解析するものだ。リアルタイムに結果が見られ、画像へのアクセスも把握できる。LAN内に複数のサーバーを抱えているサイトや、大きなキャンペーンを展開するサイトにはパフォーマンス的にも特におすすめの方法だと言える。

最近の解析ツールでは、複数の方法に対応したものも増えている。

表1 アクセス解析ツールのデータ取得方法は3種類。
短所
長所
サーバーログ型
  • 画像ファイルなどへのアクセスも解析できる。
  • ログファイルが残っていれば以前のアクセスも解析できる。
  • 404(存在しないファイルへのアクセス)などのエラーを把握できる。
  • リアルタイムな解析が難しい。
  • アクセス数が多いと解析処理に時間がかかる。
  • 複数のサーバーで運営している場合に処理が面倒になる。
  • ブラウザーのキャッシュや[戻る]ボタンでのアクセスも把握できない。
  • ログに記録されている情報しか解析されない。
ウェブビーコン型
  • リアルタイムに解析できる。
  • ブラウザーのキャッシュや[戻る]ボタンでのアクセスも把握できる。
  • 複数のサーバーで運営している場合でも特別な処理が必要ない。
  • ページごとに商品名や売り上げ価格などの情報を設定しておいてアクセス解析データと統合できる。
  • ページにビーコンを埋め込む必要がある。
  • ビーコンを埋め込んだ以後のアクセスしか解析できない。
  • JavaScriptをオフにしているユーザーのアクセスは把握できない場合がある。
  • 画像ファイルなどへのアクセスを把握できない。
  • 404(存在しないファイルへのアクセス)などのエラーを把握するには特別な処理が必要。
パケットキャプチャー型
  • リアルタイムに解析できる。
  • 画像ファイルなどへのアクセスも解析できる。
  • 複数のサーバーで運営している場合でも特別な処理が必要なく、処理パフォーマンスが高い。
  • ブラウザーのキャッシュや[戻る]ボタンでのアクセスも把握できない。
  • 同じネットワークに解析サーバーを設置する必要がある。
  • 解析サーバーを設置した以後のアクセスしか解析できない。
  • ネットワークを流れる情報しか解析されない。

そもそもアクセス解析ではどんな項目が記録されるのか

アクセス解析ではどのような情報を解析できるのだろうか。基本的なサーバーログ型で解析できる項目を見てみよう。

訪問者がブラウザーでページを表示しようとするたびに、ウェブサーバーは図2のような項目をログファイルに保存する。これがアクセス解析で利用できる情報だ。

この例では、訪問者はa.htmlというページを見たいと要求した(3)。また、このサイトのindex.htmlにあるリンクをクリックしてきたことがわかる(6)。時間は、日本時間の2006年2月15日、午前0時10分12秒だ(2)。このユーザーは、Windows XPでIEを使っているらしい(7)。

「200」の応答コードが示されているので、このリクエストは正常終了している(4)。もしこれが「404」なら、a.htmlへのアクセスがあったがa.htmlはサーバーに存在しなかったことがわかる。つまり、リンク切れが起こっているため、index.htmlに書かれているa.htmlへのリンクを修正する必要がある。

このユーザーは191.168.1.107というIPアドレスを使っている(1)。

解析時に訪問者のIPアドレスの情報をDNSサーバーに問い合わせれば、どの接続業者の会員か、どの会社のLANから見ているかを調べることもできる。高度なサービスならば、都道府県を割りだして日本地図上に描き出してくれる場合もある。「店舗があるのに広島県からのアクセスが少ないな、もっと“広島”というキーワードでSEOしなければ」といった判断ができるありがたい項目だ。

ページビュー、ヒット、リクエスト
その数値は何を表す?

ユーザーがウェブページを表示する際には、さまざまなアクセスが発生する。HTMLやCGIなどのコンテンツそのもの、GIF、JPG、Flashなどのビジュアル素材、PDFやEXEなどのダウンロードファイル、さらには訪問者が意識できないJavaScriptやCSSなどの舞台裏ファイルなど、アクセスの内容は多岐にわたるのだが、この「アクセス」は大きく3つに分けられる。

  • ユーザーが「このファイルのデータが欲しい」とサーバーに送った要求は(エラーであっても)すべて“リクエスト”と呼ばれる。
  • リクエストされたファイルがサーバーに存在した場合、そのファイルが画像であれページであれ何であれ、“ヒット”と呼ばれる。
  • ヒットのうち、HTMLやPHP、CGIなどのコンテンツとなる「ページ」に対するアクセスが“ページビュー(PV)”と呼ばれる。

画像が10個使われているページに1回アクセスがあれば11ヒット/1PVになり、画像が1つもない文字だけのページに5回アクセスがあれば5ヒット/5PVになるのだ。

ウェブビーコン方式では「ページ」以外にはビーコンを埋め込めない場合も多い。最近はPVが重視されているので通常は問題ないのだが、商品をクリックすると別ブラウザーが開いて拡大画像だけを表示するサイトなどでは、どの商品の拡大画像が多く見られているか、つまりどの商品への関心が高いかを調べるには画像へのアクセスを分析できるソフトが必要だ。

解析ツールの用語定義をしっかり把握
ツールによって異なる定義や表現

ヒットやPVの意味はわかっていても、初めてアクセス解析を行うときは、その他の用語にとまどう人も多いだろう。マーケティングの世界では耳慣れない言葉や固い翻訳語が混ざるために、難しい印象を受けがちだ。各ツールには、どんな情報を重視すればウェブマーケティングが成功しやすいか、という願いが含まれているので、それぞれの特色を反映した言葉づかいになっているだけである。

アクセスに関する数字は、PVやヒットを束ねる形で大きく次の3つに分かれる(ツールによって表現が異なる場合がある)。

  • “訪問”:サイトを訪れてから出ていくまでのアクセスを1つの訪問と考えたセット(図3
  • “訪問者”:IPアドレスとエージェント(OSなどの情報)から見た1人の人のアクセス
  • “ユニークブラウザー”:クッキーなどから同じマシンを使って訪れたと判断できる一連のアクセス

たとえば1200ヒット/550PVを解析すると100訪問あり、ユニークブラウザーは80となるが、同じ期間に何度も訪れている訪問者のうち何人かがダイアルアップで訪問ごとに違うIPアドレスだったので延べ人数としては90訪問者となる、といった具合で数字が変わってくる。

解析ツールによっては“新規訪問者”と“リピーター”を区別してカウントできるものもある。マーケターとしては、気になる数字だが、延べ人数だけで大丈夫と考えるウェブマスターもいる。どんなデータが必要なのかをよく考えて、解析ツールを選ぶようにしたい。

ロボット訪問の驚くべき数!
「訪問」には何が含まれるか

ウェブサイトを訪れるのは人間だとは限らない。たとえばインターネットマガジンのウェブサイトでは、40%程度のページビューが人間以外によるものだ。表2のように検索エンジンのロボットには頻繁に多くのページをクロールしていっているし、登録したサイトが更新されたかどうかをチェックする自動巡回プログラムも増えている。ページビューにしても訪問にしても、こうした人間以外のアクセスをどの程度除外/区別しているのかはアクセス解析ツールによって異なるが、多くの解析ツールでは設定によってある程度変更できる。初期設定のまま複数のソフトを使うと数字が大きく異なる場合があるが、正しく設定して、欲しい情報が適切に表示されるように調整しよう。

表2 あるサイトの1か月の例だが、Googleのロボット(Googlebot)は月に16万PV、Yahoo!のロボット(Yahoo! Slurp)は5万回もサイトを訪れている! GoogleとYahoo!のロボットがこんなに訪れるサイトも珍しくない。
エージェントに記録されたロボット名ページビュー数訪問回数
Googlebot/2.1(http://www.google.com/bot.html)164,2014,246
Mozilla/5.0(compatible; Yahoo! Slurp; http://help.yahoo.com/help/us/ysearch/slurp)105,17051,905

人間の訪問も、サイトによって大きく異なる。社員からのアクセスが大量に含まれているサイトでは、そのIPアドレスを除外しないと正確な顧客動向はつかめないだろう。営業部がみんなノートパソコンのブラウザーを立ち上げると自社サイトを表示するように設定している場合、たくさん来ていると思ったら社員ばかりだった、ということもある。

携帯サイトを含んでいると、IPアドレスが基地局に依存するため、アクセスの最中にIPアドレスが変わる場合もあり、人数が特定しづらいこともある。

集計できる項目にはどんなものが?
集計結果の組み合わせで深い分析を

前述のように、アクセス解析ではさまざまな情報を解析できる。つまり、情報を組み合わせれば、さらにたくさんの項目を分析できるわけだ。たとえば、ある人の2つの連続したリクエストが次のようになっていたとしよう。

12時5分10秒 index.htmlをリクエスト
12時5分22秒 a.htmlをリクエスト

この場合、index.htmlを12秒見てからa.htmlに移動したことになる。ここから各ページや訪問者の滞在時間を分析できる。じっくり見せたいページの平均滞在時間が長いと良いが、短いとちゃんと読まれていないので、ユーザーニーズとすれ違っていると考えなければならない。ただし、「じっくり見せたいページ」がどれかをウェブマスターが理解していなければ適切な分析はできないことに注意が必要だ。

つまり、アクセス解析ソフトは、どんな優秀なものでも、多く利用者が解析ニーズに合った「分析の素材」を提供するものに過ぎない。出た結果を読み取る段階では、使う側がいくつかの数字を組み合わせることが欠かせないのだ。

あるサイトが10万訪問、20万PVあるとしよう。アクセス解析ソフトの仕事はこうした項目をそれぞれ集計することだ。どちらの数字も大きくてすばらしいと言いたいところだが、2つの数字をつき合わせると、1訪問あたり2PVしか見られていない。同じページビュー数で2万訪問ならば、平均10PVで良く閲覧されるすばらしいサイトということになる。2万訪問よりも10万訪問が良い、とは限らないのだ。

4割が1ページしか見ずに帰るようではSEO対策も効果なし

訪問の最初のページを「エントリー(入り口)ページ」と呼ぶ。

たとえば、アクセス解析ソフトの表示では、index.htmlが1,000訪問の入り口となっていたとしよう。これだけ見れば、このページは集客力のあるすばらしいページに見える。ところが、「1ページしか見ないで帰った訪問」という項目を見ると、600訪問ではindex.htmlページだけを見て他のページは見ないで帰っていたとしたらどうだろう。このページは、集客力は大きいが、サイト内の他のページに人を導かない問題ページだとわかる。

実際に、多数の訪問を集めているのに1ページだけで帰る人が多い問題ページは意外に多い。多くのサイトでは、総訪問者数の4~6割が1ページしか見ていないのが実情である。これではウェブからの効果は期待できない。

この状況でSEO対策をやっても、効果は上がらないだろう。SEOで1万人増えても、うち6千人が1ページしか見ないで帰ってしまっているとしたら、「費用対効果」のはるか以前の話と言う他ない。

アクセス解析を行うのは、「数字を見て記録する」ことが目的ではない。こうした問題の所在をつきとめ、より効果が高まるようにサイトを改善するためだ。思わぬ長所が発見できる場合もある。

次回からは、どうやって問題を見つけて改善するか、長所を見つけてそれを伸ばすか、具体的な例を挙げて見ていくことにしよう。

※この記事は、『Web Master完全ガイド vol.2』掲載の記事です(掲載時タイトル「実践!アクセス解析道場」)。


石井 研二(いなかどっとコム)
有限会社いなかどっとコム 代表取締役。情報アーキテクト。
アクセス解析サービス「sitegram」。


この記事へのトラックバックURL:

http://web-tan.forum.impressrd.jp/trackback/77

この記事へのあなたの意見や感想をコメントしてください!

  • 使用できるHTMLタグ: <a> <em> <strong> <cite> <code> <ul> <ol> <li> <dl> <dt> <dd> <h2> <h3> <h4> <h5>
  • 改行と段落付けは自動的に行われます。
  • URLとメールアドレスは自動的にリンクします。
書式の詳細