• SEO
  • 検索上位表示のコツ
  • HOME
  • ブログ
  • SEO
  • SEOとは?検索上位表示をさせるには?Yahoo!対Googleの検索エンジン

SEOとは?検索上位表示をさせるには?Yahoo!対Googleの検索エンジン

検索エンジンが高度に発達した2018年現在SEOというキーワードは非常に身近なものになってきていますよね。
comScoreによると2016年のGoogle検索回数の推計は年間で2兆回とも言われています。
こうしている今も1秒間で約63,000回の検索活動が世界中で行われているという計算になります。
1999年の推計値が10億回の検索回数となっており、17年間で実に2000倍の利用回数に増加していることになります。
SEOとは
今や生活の一部となりつつある検索活動をめぐって日々膨大なデータ分析と複雑なアルゴリズムがその裏側で動いています。

多くの企業やスタートアップがこの巨大な市場に挑戦し、様々なマーケティング活動が試みられています。
ここでは今やウェブマーケティングを考えるときに必須項目の一つとして検討しなければならなくなったSEOについて検索エンジンの歴史と、その中核となっているアルゴリズムの本質を紐解いて紹介していきます。

2. SEO(Search Engine Optimization:検索エンジン最適化)とは

SEOとはSearch Engine Optimizationの略で日本語では「検索エンジン最適化」と訳される言葉です。Googleをはじめとする、各種検索エンジンのアルゴリズムに対してサイトのチューニングを行うウェブサイトにおける集客手法の一つであり、ウェブマーケティングにおける最重要の施策の一つでもあります。より多くの検索ユーザーに自社サイトの存在を広く知ってもらうための活動としてSEOが行われています。

上述したSEOを達成するために行う様々な手法のことを総称して「SEO対策」と言われることがあります。SEO対策には大きく①内部SEO(On-Page SEO)と②外部SEO(Off-Page SEO)の二つの手法に大別されます。

① 内部SEO(On-Page SEO)とは
サイト運営者が「コントロール可能」な領域における対策すべてのことを指します。具体的には内部リンクのコントロール、ディレクトリ構造の見直し、画像のaltテキストの記述の最適化、各ページの主要タグにおけるキーワードの配置戦略の実装、有益なコンテンツの追加等、サイトの企画や制作の領域にも大きく関わってくる部分の対策となります。

②外部SEO(Off-Page SEO)とは
基本的にはコントロール不可能な他サイトからのリンクやサイテーションなどに関する対策です。検索アルゴリズムの中核を担うPageRankアルゴリズムでは、サイト間のリンクの比重によってそれぞれのサイトの重要度を判定するため、「いかに外部サイトから良質なリンクを獲得するか」はSEO対策における重要でかつ難関の課題となっています。(※現在では、ツールバーのPageRankは廃止されております。ただし、ランキングアルゴルズムとしてのPageRankは依然存在すると考えられています。)

3. 検索エンジンとSEO~Googleは後発のスタートアップだった!?~

1990年代、検索エンジンはその黎明期を迎えました。昔のインターネット参考:インターネットの歴史 History of the Internet – Yahoo! JAPAN

検索エンジンの歴史と切っても切り離せないものがSEO対策と言っても過言ではありません。

インターネットにおける情報収集の手段として、「検索」をすることは初期の段階から多くの注目を集めており、一般ユーザーへの普及も早い段階から進んでいました。モノを買いたいと思った時に、「検索エンジンで商品を検索し、そこからサイトを選び、そのサイトに移動して買い物をする」という消費行動は検索エンジン初期の段階ですでに当たり前となっていたため、「いかに検索エンジン経由の流入を増やすか」という販売側ニーズは瞬く間に高まりました。

一方検索エンジンは、よりユーザーの求める情報と検索結果を近づけるためにアルゴリズムを改良し続けているため、検索エンジンアルゴリズムの改良に比例してSEO対策の手法も高度化してきていると言えます。「検索キーワード」という形でニーズの顕在化したユーザーに、ピンポイントにアプローチできるマーケティング手法として、現在も検索市場は拡大し続けています。

検索エンジンのミッションである「いかにユーザーニーズを満たす検索結果ページを提供するか」という課題は、ユーザー獲得のために必要な最重要項目の一つであることは間違いないと言えるかもしれません。

そのようにして欲しい情報を手に入れたい「検索ユーザー」と、より多くの集客をしたい「ウェブサイト運営者」の両者をつなぐプラットフォームである「検索エンジン」は、それぞれの目的達成のために様々に変遷し度重なる改良を続けることによって今日まで発展を続けてきていて、そのチューニングは2018年現在も「よりユーザーのニーズを満たす検索エンジン」を目指して続けられています。

度重なるアルゴリズムの改良とアルゴリズムに合わせたサイト運営側のチューニングを、検索エンジンとSEO対策のいたちごっこと言われることがありますが、それぞれの目的のためにしのぎを削ってきたからこそ現在の検索エンジン市場がありSEOが広く認識されています。

2018年現在において、最もシェアの高い検索エンジンであるGoogleは、Yahoo!やInfoseek, Exciteなどの有名な検索エンジンよりも数年遅れて1998年にサービスをスタートしました。まだGoogle検索がサービス開始から20年も経っていないということには新鮮な驚きがあります。それほどまでに「当たり前」の存在として普及しているということの裏返しとも言えると思います。

インターネットでのマーケティングにおいて「先行者利益」という言葉は非常に重要なキーワードとして使われます。「一度使ったことのあるサイトをユーザーは繰り返し使いたがる」ということから類似サービスであれば「より早く」リリースしたものにより多くのユーザーが集まりやすくなる傾向があるからです。

けれどもGoogleは圧倒的に後発のスタートアップであったにも関わらず他の検索エンジンを差し置いてユーザーからの支持を得ていきシェアを伸ばし続けてきました。その背景には「情報処理における圧倒的な技術的優位性」と、「サービス品質の向上へのあくなき企業努力」があるからかも知れません。

Google が掲げる 10 の事実の冒頭で、「ユーザーに焦点を絞れば、他のものはみな後からついてくる。」と高らかに謳っている通り、Google検索では「ユーザーファーストの姿勢」を一貫してサービス改善を行ってきました。

かつての脆弱なアルゴリズムしか持たない検索エンジンでは、「自動車」と検索したときにアダルトサイトが検索結果に出てきたリ、「ローン」と検索したときに悪質なスパムサイトが検索結果として出てくるようなことがありました。

Googleは、検索エンジンスパマーに対する徹底的な対応を行うと同時に、ウェブマスター向けガイドライン(品質に関するガイドライン)の公開など、「検索結果ページの品質を高め、よりユーザーニーズを満たす」検索結果ページを開発することに余念がありません。また、Googleとしても公式にSEO対策をするウェブマスターのためにGoogle検索エンジン最適化スターターガイドを提供しており、正しいSEO対策の手法についての啓蒙も積極的に行っています。悪質なコンテンツを上位表示させないようにすることと同時に、良質なコンテンツを上位表示させることも非常に重要なミッションだからです。

4.SEOの全ては検索エンジンの仕組みを知ることから始まる~検索エンジンの仕組みと成り立ち~

4-1. 「ググる(googling)」と言う新しい言葉を作った検索エンジンのGoogle

検索エンジンと言えば、真っ先に浮かぶものはGoogleという方も多いと思います。googleロゴ
Googleは1990年代のスタンフォード大学での研究をベースに開発された’ロボット型検索エンジン’です。 HTML (Hyper Text Markup Language) によって記述されたウェブ上のページ間の関連性を、「バックリンクの分析」によって独自にランキング化するアルゴリズムをベースとして進化を重ねてきました。

Googleアルゴリズムの変遷と、その動作プロセスについては後述しますが、Googleの検索エンジンは革新的なランキングアルゴリズムによって検索エンジンの可能性を拡大させた、最も優れた検索エンジンの一つであるということは疑いようもありません。

しかし、Googleは最初から絶対的王者であったわけではなく、また現在でもより良い検索結果を提供するために日夜アルゴリズムの改良を行っています。

「世界中の情報を整理し、世界中の人々がアクセスできて使えるようにすること」

これがGoogle創業当時から現在も変わらないGoogleのミッション・ステートメントです。

4-2. 世界で初めての検索エンジンの登場

ここでは、読者の中にはまだ生まれていない方もいるかもしれませんが、インターネット黎明期の時代(1990年代)について簡単にまとめさせていただきます。

なぜならば、Googleの誕生した背景について知り、Googleの目指す最終形はどのようなものなのかを知ることがSEO対策において非常に重要だからです。

Googleが誕生する前夜、アメリカではインターネットバブルの波が徐々にアメリカのシリコンバレーに寄せ始めていました。

世界で初めての検索エンジンは1990年に誕生したArchieと呼ばれるエンジンです。最初はFTPサーバに接続して、そこから文書を探してくるというだけのものでしたが、インターネット上に公開されるようになり、人気のウェブサービスとなっていきました。これは、Googleが誕生する8年も前の出来事です。

その後、様々な検索エンジンが勃興します。それらの検索エンジンは①サーバー処理速度の課題②データベース容量の課題を共通に持ちつつ、そのマネタイズと「いかにより品質のいい検索結果」をユーザーに返すかというミッションを達成するために開発競争を繰り広げることになります。

4-3. 検索エンジン開発ラッシュの90年代とSEO対策の登場

インターネットの登場により、世の中にウェブサイトの数が日に日に増えるようになってくると、インターネット上の情報を整理する必要が出てきました。検索エンジンロゴ各種
「最初にウェブ上の情報を網羅的に整理するのは誰か?」そこに巨大なビジネスチャンスがあり、多くのIT企業やシリコンバレーのベンチャー企業が躍起になって様々な検索エンジンを開発しました。

InfoseekやExcite等は聞いたことがある方も多いのではないでしょうか?

その他にもLycosやWebCrawlerなども非常に有名だった検索エンジンです。

そして、のちにOvertureに買収されることとなる「AltaVista」 という一世風靡した「全文型検索エンジン」が1995年に登場。超高速の検索結果をはじき出す驚愕の検索エンジンとして人気を博しました。

また、日本でも早稲田大学発の「千里眼」や東京大学発の「ODIN」や京都大学発の「mondou」等の大学発の検索エンジンに加え、NECの「NETPLAZA」、富士通の「InfoNavigator」、ソニーの「WAVE Search」、リクルートの「WebdeW」など、産学を問わず本当に多くの企業がその開発に身を乗り出していました。

検索エンジンが盛り上がりを見せると同時に、そのマーケティングメディアとしての価値の高さは認知を広げていきました。検索結果で上位表示をすることの価値が認識され、SEO対策をすることによる莫大なマーケティングメリットも認識されるようになりました。検索結果ページでの上位表示をするためのテクニックは、検索エンジンが登場して間もなく様々なウェブマスターやマーケッターによって研究・開発されることになります。

4-4. ディレクトリ型検索エンジンの雄、Yahoo!

検索エンジンには大きく二つの機能があります。

1つ目は情報を収集すること、2つ目は収集した情報を表示すること。

前述した多くのロボット型検索エンジンでは、あらたなウェブページの発見、収集のプロセスをロボットが自動的に行うことが特徴です。このプロセスは広く「クローリング」と呼ばれ、HTML上でのリンク発見とデータベース参照により、新たなウェブサイトの登場を検知し、データベースに格納します。

ロボット型検索エンジンに乗り越えられていなかった壁は「情報の精度」でした。主要な要因の一つとして、当時のSEO対策手法が大きく影響しています。

例えば「車」と検索するユーザーが多い、ということを知っているウェブマスターが、金融商品を宣伝する自社サイトにそれらのユーザーを呼び込みたいと考えたとき、自社サイトのフッター部分に「車車車車」と無数に記述する・・・

当時の検索エンジンはこのようなことをされるとそのサイトの中に含まれるコンテンツが金融商品に関することなのか、車に関することなのか判定がつかなくなってしまうほど脆弱でした。悪意あるサイト運営者がそのようなスパム行為を行い、その当時のロボット型検索エンジンはそのスパムに対して適切な対応が出来ていませんでした。隠しテキストやクローキング、自動生成コンテンツ、不正リダイレクト等、現在のSEO対策では明確に「スパム」として扱われる、タブーと呼ばれるような施策の多くはこの当時に考案されました。

スパマーによる悪質なSEO対策による検索結果ページの占有に対し、当時の検索エンジンは有効な対処をすることが出来ていたとは言えませんでした。その結果として、ユーザーニーズ(≒欲しい情報にたどりつくこと)を満たすことが出来ず、ユーザーが徐々に離れていくことにつながっていきました。

当時の検索エンジンにおいて悪質なスパムを行うサイトがアダルトサイトや、ギャンブルサイトなどの公序良俗に反するウェブマスターが多く関与していたことも、一般ユーザーを敬遠させる大きな要因として働いたようです。

そんな中、徐々に脚光を浴びていったのがYahoo!です。yahooロゴYahoo!では情報の収集とインデクシングの作業を「全て手動で」行い、それらをカテゴリー分けしていくことでポータルサイトを形成していきました。

これが、現在のウェブポータルの巨人、Yahoo!のスタートです。情報の精度の高さから、ロボット型検索エンジンより信ぴょう性が高く、ユーザーニーズ(≒欲しい情報にたどりつくこと)を満たすポータルサイトとして多くのユーザーに支持されるようになっていきました。当時のYahoo!のサービスをあえて一言で言うと、非常に価値の高いリンク集を提供するサービスです。

同時期にポータルサイトとして台頭してきたサイトとしては、MSNやExcite等が有名です。これらも情報ポータルとしての機能を持つと同時に、検索窓からはキーワード検索の機能も併せ持つことによってユーザーニーズを叶えるよう工夫していました。

Yahoo!の最初期の検索エンジンはAltaVistaというサービスです。Yahoo! JAPANではgoo検索エンジンを採用。2000年にはGoogleに切り代わり、2004年には自社サービスとしてのYahoo Search Technologyをリリース。さらに5年後にはYahoo! JAPANの検索エンジンは再度Googleに戻ります。

Yahoo!のサービスインは1994年で、ディレクトリ型検索を持つポータルサイトとしてオープン。90年代後半にはインターネットユーザーの多くが、ホーム画面として使用していたといわれていました。90年代後半のインターネットブラウザのホーム画面と言えばYahoo!というイメージが定着しているほど、その当時のYahoo!は圧倒的なユーザートラフィックを一心に抱えるビッグプレイヤーでした。

検索エンジンを開発する側も、検索エンジンでユーザーを集客するサイト運営側も、インターネット上でのマーケティング活動における「検索エンジン」での集客の価値の高さを十分に認識していたため、加速度的に市場が成長していったと言えるでしょう。たった数年で後発サービスが市場を塗り替えるというような開発争いを繰り広げていました。まさに、インターネットバブルの時代です。

4-5. 1998年、後発のロボット型検索エンジン~Google誕生

さて、ここまで来てやっとGoogleが登場します。昔のgoogleロゴ
Googleは1998年当時にスタンフォード大学博士課程に在籍していたラリー・ペイジとセルゲイ・ブリンの二人の技術者によって創業されました。

その検索エンジンの原型は、博士課程の研究としてバックリンクの分析をするエンジンである「Back Rub(バックラブ)」として開発されました。

その原点はThe Anatomy of a Large-Scale Hypertextual Web Search Engineという論文にまとめられています。
いわゆる、ページランク(PageRank)と呼ばれるバックリンクの研究に基づくHTML文書間における重要性の重みづけを研究した論文です。

参考:Google の秘密 – PageRank 徹底解説

「重要度の高い論説は、様々な論説から参照されることによって権威づけられる」という仮説に基づき、参照(つまり、リンク)される文書間で重要度を受け渡し合うということをまとめた論文です。

このアルゴリズムに基づき、Googleは一つ一つのURL(HTML文書)に0~10までの11段階のランキングスコアを付与していきました。これをSEOスコアと呼ぶこともあり、キーワードでの上位表示をするための重要なランキング要因となっていました。

「よりランクの高いページからのリンクは、低いランクのページからのリンクよりもより価値がある」という基本的なランキングアルゴリズムをベースに、ロボット型検索エンジンGoogleはスタートしました。

このPageRankというアルゴリズムは、現在もページ間のリンクによってサイトの重みづけを決めるGoogleのSEOランキングアルゴリズムの根幹として機能しています。(※2013年からランクの公開・更新は停止しているが、内部アルゴリズムとしては引き続き使われていると言われています)

このアルゴリズムによって、これまでの検索エンジンでは評価しきれていなかったページ間のつながりによる品質評価を行うことが可能となり、Googleの検索結果のランキングは他のロボット型検索エンジンに比べはるかに高品質な(すなわちユーザーニーズに応えた)検索結果を返すことが出来るようになりました。SEOでの上位表示を決めるランキングアルゴリズムを他エンジンと比べてより厳格に兼ね備えていたといいかえることが出来ます。

また、Googleではサーバ処理速度を速める分散サーバの開発によって安価で大量の情報を瞬時に処理できるエンジンを開発しており、精度と速度の両面において、他のロボット型検索エンジンを圧倒的に凌駕していたといっても過言ではありません。

4-6. Yahoo!とGoogleの攻防

yahooとgoogleロゴ90年代後半に最も多く使われていたポータルサイトはYahoo!と言って間違いないでしょう。前述した通り、「手動で」高品質なサービスをまとめていったYahoo!のポータルには高品質なサイトが多数インデックスされていて、多くのユーザーがYahoo!を起点にネットサーフィンを始め、また新たな情報を探すときにはYahoo!に戻り、ネットサーフィンを行っていました。

けれども、インターネット上に増えるサイトの数はもはや「手動で」全ての情報を整理しきれる数をはるかに超える情報量となりつつあり、「自動で」その情報を整理するエンジンは時代に必要とされていたように思えます。また、手動の管理には物理的なスピードの制限もあり、日夜更新され続けるインターネット上の情報への即時反映性の担保をすることも難しくなってきたことは事実でしょう。

インターネット上の情報が多様化すると同時に、インターネットユーザーが求める情報もより多様化(また、多言語化)するようになり、ユーザーニーズ(≒欲しい情報にたどりつくこと)を満たすサービスの提供をすることは、より難易度の高いものへと変わっていっています。

Googleが広くユーザーに支持されるようになってきていた2000年6月、Yahoo!の検索エンジンとしてGoogleが搭載されます(それ以前はインクトゥミがYahoo!のロボット型検索エンジンとなっていました)。当時のYahoo!とGoogleでは資金面でも抱えるユーザー数でも圧倒的にYahoo!に軍配がありました。Yahoo!のブランド力を利用してGoogle検索はユーザー数を飛躍的に伸ばしていき、徐々にYahoo!のユーザー数を上回るサービスへと進化していきます。この状況は、Yahoo!が(買収した)独自の検索エンジンアルゴリズムを導入する2004年まで続きます(この間の2社の水面下での開発競争は数多くの書籍にまとめられるほどものすごいものだったそうです)。

GoogleがYahoo!の検索エンジンとして機能提供を行っている間、GoogleはYahoo!から得られる大量のトラフィックデータを元に、検索エンジンのアルゴリズムをより強固なものへと進化させていきました。また、Internet Explorerに搭載されたGoogleツールバーは、Yahoo!にアクセスすることなく「検索」することが可能となり、次第にYahoo!のトラフィックをGoogleが上回るようになっていきました。

また、これも同時期にGoogleでは検索エンジン連動型広告であるAdwordsを搭載し、「検索結果に広告」を掲載するようになりました。ユーザーのニーズに応えることを追及していたGoogle創業者の二人はこの機能について懐疑的だったと言いますが、今も「ユーザーのためになる広告」への研究には余念がなく、ユーザーニーズと広告のマッチング精度を高めることでユーザー体験を損ねない広告露出を可能にしています。

2015年のGoogleのレポートによればGoogleの収益の69%が保有媒体からの広告収益という結果になっており、世界的大企業への礎を築いた最も重要な転換点と呼ぶべきでしょう。検索エンジン連動型広告はOvertureという会社が最初にサービス化したものですが、Overtureは後にYahoo!に買収され、Yahoo!スポンサードサーチとなります。これらの広告はそれまで「マネタイズ」に苦しんでいた検索エンジン運用会社に新たな兆しをもたらしました。

また、サイト運営者側も、これまでのSEOによる恩恵から「検索結果ページ経由での集客」の重要性を認識していたため、検索エンジン連動型広告は爆発的な市場の拡大を促しました。

4-7. SEOの二軸であったGoogleとYahoo Search Technology

2004年、Yahoo!はOvertureを吸収合併する形でGoogleの検索エンジンの搭載を停止しました。同時にYahoo Search Technologyとして独自の検索エンジンアルゴリズムを搭載。2005年にはYahoo!ジャパンの検索エンジンにもYST(Yahoo Search Technology)が搭載されます。

Yahoo!とGoogleの事実上の決別により、SEOはYahoo!対策とGoogle対策の2つのアプローチに分散することになります。この時点で、日本における主要な検索エンジンはYahoo!とGoogleの二大巨頭が約9割のシェアを占めていました(3番手としてのMSNサーチも度外視出来ませんが、この記事では割愛します)。

この状況は、Yahoo! JAPANの検索エンジンが再びGoogleのエンジンに統合される2009年まで続きます。そして、2009年には実質的に日本の検索エンジンの90%のシェアをGoogleが占めるようなります。(Yahoo! JAPANの検索結果のベースとなっているエンジンが再びGoogleとなったため)。

日本におけるSEO対策は、Yahoo!とGoogleのシェアが圧倒的に高かったことから、主にこの2つの検索エンジン対策を指すことがほとんどです。また、2009年以降にはYahoo! JAPANの検索エンジンをGoogleが担うことになったため、SEO対策≒Google対策と言ってしまっても過言ではない状況となっています。

非常に多くのプレイヤーを擁する検索エンジンの市場と成長は、2016年現在においてはGoogleの一人勝ち状態になっていると言えます。特に日本におけるSEOを語るうえで、注視すべき対象がGoogle検索エンジンに一本化されたということは特筆すべきことと考えていいでしょう。2009年以降、ウェブマスターが注意を払い、SEO対策のために動向を注視するエンジンがGoogleに一本化されたというところで本章を終え、いよいよGoogle対策(≒今日におけるSEO対策)の本質の話に移行していきます。

5. SEOの現在(検索エンジン最適化≒Google最適化)

5-1. 進化し続けるGoogleとSEO手法

検索エンジンとしてのサービスをGoogleが提供し始めてから、そのサービスの改善は日夜行われ続けています。今ではAI(人工知能)を用いることによって自動で機械学習を繰り返し、その精度を24時間365日体制で更新し続けるようになっていると言われております。最新テクノロジーしかしその一方で、その初期段階からGoogleの高度な検索エンジンアルゴリズムに対しても、そのアルゴリズムの検証・解析を行うことによって(リバースエンジニアリング)、検索結果での上位表示をするSEO手法は研究されてきました。Googleもその他の多くの検索エンジンと同様に、SEOによる検索結果の恣意的なコントロールに対する対処と、検索結果の品質コントロールの課題を残し続けてアルゴリズムの改良を続けています。

最も初期にリリースされたアルゴリズムは2003年2月に発表された「Boston」というアルゴリズムアップデートです。隠しテキストや、キーワードスタッフィング等の「小手先のテクニック」による上位表示を狙ったSEO手法としての検索エンジンへのスパム行為への対策は、公式の発表としても頻繁に行われるようになっていきます。

5-2. SEO対策への対策~複雑化するアルゴリズムとユーザーファーストという一貫性~

GoogleがスパミーなSEOに対する制裁的な措置をする理由はいくつも考えられますが、その最たるもので普遍的なポリシーとして掲げていることは「ユーザーファースト」の姿勢です。ユーザーが求めている情報を提供することがGoogle検索としての最大のミッションであり、「ユーザーニーズ」と検索結果に表示する情報(サイトURL)を出来るだけ近づけることがGoogleの収益に繋がることになります。Googleのサービスのアウトプットである検索結果ページは、前述の通り「マーケティングメディア」としての価値が非常に高いために、多くのマーケッターが恣意的なコントロールをしようと強く働きかけます。この「恣意的な」SEOスパムとの戦いが、スパム駆逐アルゴリズムの進化の歴史と言っても過言ではありません。

別の視点で見ると、Googleはそれらのスパマーの存在によって検索エンジンの脆弱性の発見をし、検索結果の品質をより高次元へと押し上げることに成功したとも言えます。

その他の著名なスパム駆逐アルゴリズムとしては「Panda Update(パンダ・アップデート)」と「Penguin Update(ペンギン・アップデート)」があり、検索結果に大きな影響をもたらしました。ユーザーのニーズを満たすことのない低品質なコンテンツは検索結果ページに表示させないようにしたり、実際は多くのユーザーからのリンクポピュラリティを集めているわけではないのに、自作自演でリンクを作成して自分のサイトに外部リンクとして貼っているサイトの評価を下げて検索結果に出にくくしたり・・・。これらのアルゴリズムアップデートは、一つ一つの内容を自分のサイトに当てはめて考えてみると決して複雑で難しいことを要求しているわけではありません。しかし、数兆以上の規模に上るGoogleのインデックスしているすべてのウェブサイトに対し、また、毎秒数万回以上繰り返される検索行動すべてのニーズに対応するためのアルゴリズムは、時に不具合を起こすこともあり、結果として複雑怪奇なアルゴリズム変動を起こします。それは、2016年現在においても、Mozcast等の検索エンジンの解析を行っている複数の調査によって明らかになっています。

■Panda Update(パンダ・アップデート)パンダアップデートPanda Update は、「コンテンツの品質」を判断するアルゴリズムの刷新で、主に低品質なコンテンツを量産するコンテンツファームを駆逐するためのアップデートとされています。そのことから「ファーム・アップデート」と呼ばれることもあります。このアップデートは複数回にわたり更新を繰り返していますが、最初にリリースされたタイミングは2011年の2月でした。このアップデートでは非常に多くのウェブマスターが検索流入を失った事例を報告していますが、その最大の要因は「パンダ・アップデートはサイト全体に適用されるアルゴリズム」であるということにあります。サイト内に低品質なコンテンツが大量に含有されていた場合、良質なコンテンツまでもその影響を受けてマイナス評価を受ける可能性があるということです。2016年9月現在、パンダ・アップデートは「コア ランキングアルゴリズム」に組み込まれており、「低品質なサイト」の上位表示をさせないように常にこのアルゴリズムによる監視が働いているということです。最初にリリースされた2011年時点では、手動で都度の更新を行っていた大規模なアップデートでした。

■Penguin Update(ペンギン・アップデート)ペンギンデートPenguin Updateは、ウェブスパムに対する制裁措置として非常に名高いアップデートです。2012年4月24日に全世界で同時にロールアウトされ、「Googleの定めるガイドライン」に違反するサイトの掲載順位を下げるということを目的にしたアルゴリズムです。ウェブマスター向け公式ブログでも即日中に翻訳記事が公開され、多くのスパムSEOがこのアップデートによって駆逐されました。現在もペンギンアップデートは更新を続けており、「ウェブスパムの駆逐」のための改良が続けられています。キーワードの詰め込みや、リンクプログラムへの参加、コンテンツの自動生成等のスパム行為を行うことは、このアルゴリズムに抵触する可能性が高く、検索順位が下がる大きな原因となり得ます。

5-3. ウェブスパムとしてのSEOに対するGoogleの対応とスパム対策チーム

前章で少し触れた「ウェブマスター向けガイドライン(品質に関するガイドライン)」を理解することは、現在のSEOを考えるうえで最も重要な要素の一つです。SEOを駆使して検索結果で上位表示させることは、多くのウェブサイトにとって重要な集客手法の一つであることは間違いのないことです。Googleにインデックスされないサイトはこの世に存在しないサイトと同じと言われるほどに、ユーザーに自分のサイトを発見してもらうために欠かせないアプローチが、SEOによって検索エンジンにサイトを見つけてもらうこと、であることは一般的になっているからです。ガイドライン違反品質に関するガイドラインに違反するサイトの評価をGoogleが下げるということのアンチテーゼとして、品質に関するガイドラインに準拠したサイトを構築することによって、SEOスコアを高め、サイトを発見してもらうことが出来る可能性を高めることが出来るようになっています。具体的にGoogleがスパムとして評価を下げるサイトの特徴として、下記の具体例を上げています。

• コンテンツの自動生成
• リンク プログラムへの参加
• オリジナルのコンテンツがほとんどまたはまったく存在しないページの作成
• クローキング
• 不正なリダイレクト
• 隠しテキストや隠しリンク
• 誘導ページ
• コンテンツの無断複製
• 十分な付加価値のないアフィリエイトサイト
• ページへのコンテンツに関係のないキーワードの詰め込み
• フィッシングや、ウイルス、トロイの木馬、その他のマルウェアのインストールといった悪意
のある動作を伴うページの作成
• リッチ スニペット マークアップの悪用
• Google への自動化されたクエリの送信

また、このガイドラインは大きく二つのパートに別れており、前半部分には一般的なガイドラインとして

① Google がページを検出できるよう手助けする
② Google がページを理解できるよう手助けする
③ 訪問者がページを利用しやすいよう手助けする

という3部立てで詳細なサイトの設定における推奨設定を明示しています。

これらのガイドラインを熟読し、Googleに好まれるサイトを作ることは、SEOの基本と言っても過言ではありません。

5-4. 直近のGoogleの主だったSEO関連のアップデートとその方向性

品質に関するガイドラインに違反するSEO対策を行うサイトには手動による対策が実施され、検索結果ページでの掲載順位を低下させられる措置を取られます。手動による対策を受けたサイトは、その内容を理解し、品質に関するガイドラインへの抵触箇所を修正し「再審査リクエスト」を行い、その審査に合格するまで掲載順位へのネガティブな影響を受けることになります。また、ペナルティには「キーワード単位、URL単位、ディレクトリ単位、サイト単位」でそれぞれ重度が分けられていると言われており、最悪の場合にはGoogleのインデックスから削除され、永遠に検索結果に表示されなくなってしまうようなサイトがあることも事例として報告されています。手動ペナルティーキャプチャここでは直近の検索エンジンのアップデートを整理し、SEOでの成功を手にするための具体的な方向性を模索します。

5-5. Rank Brainと良質なコンテンツへの優遇的な上位表示

Rank Brainが発表されたのは2015年の12月のことです。それ以前から徐々にロールアウトされていたアルゴリズムとなりますが、現在では検索結果を決める際の3番目に重要なアルゴリズムであるとGoogleが報告しています(その他の二つはリンクとコンテンツ)。そのアルゴリズムの具体的な詳細については、Googleから細かく提示されているわけではありませんが、このアルゴリズムは「コンテンツの品質」をこれまでより深く読み解くAIが中核にあり、そのアルゴリズムは日々増える新たな検索クエリによって育てられ、進化しています。人口知能コンテンツの深さを定量化する指標の一つとして「共起語」という考え方が重要と言われています。共起語とはあるキーワードを思い浮かべたときにともに連想されるようなキーワードのことを指します。例えば「ラーメン」と言うキーワードの場合なら「スープ、麺、チャーシュー」などの構成要素や、「醤油、塩、とんこつ、ミソ」と言った種類、「チャーハン、餃子」などの並列キーワード、「中野、高田馬場、渋谷、秋葉原、目黒、横浜、博多」と言ったエリア関連ワード、「すみれ、一風堂、鷹虎、光麺」などの固有名詞、「人気、ランキング、美味しい」などの一緒に検索されることの多い関連語etc. これらの共起語と呼ばれるキーワードがそのページのどのような頻度、順番、関連度で含有されているか(あるいはいないか)などのデータを解析し、コンテンツの内容の深さを見ているという風に言われています。

実際、直近の検索結果での上位表示化されているサイトのコンテンツを注意深く見ていくと、そのように「情報が網羅的に」記述されているサイトの評価が高まっているように感じることは多く有ります。確かに、情報が網羅的に記述されているコンテンツはユーザーの情報ニーズを満たした回答になる可能性が高いという判断をしやすいかもしれません(※必ずしもこれが検索エンジンの最終的な答えではないため、今後もこのアルゴリズムは大幅に変化する可能性が高いと思います)。

また、Rank Brainというアルゴリズムでは「未知の検索クエリ」の処理をする際に多く機能するアルゴリズムと言われており、上述したキーワードが単純に「入っているか」ではなく「どのような意味で使われているか」と言ったことまで類推し、未知の検索クエリが入力された際のユーザーの検索意図の類推と掛け合わせて検索結果をはじき出す機能を担っているとも言われています。近年増えてきている「音声検索」などではこれまでと違った検索ワードでの検索をされることが増えていると想定されるため、そのあたりの解析にも大きく貢献していると考えてよいのではないでしょうか。

ウェブマスターがこれを受けて出来る対策としては、「どのような検索意図を持ったユーザーをターゲットとしてコンテンツを提供するのか」を改めて具体的に考えたうえで、その検索意図に応えるサイト構成や、コンテンツ配置を行うといったことになってくるかと考えています。

5-6. コンテンツSEOと言う手法の台頭とその背景

ここ数年、SEO対策の手法として脚光を浴びているものの一つが「コンテンツSEO」と呼ばれる手法です。広義には「コンテンツマーケティング」と呼ばれる施策を検索エンジンに向けて最適化したものですが、主に「テキストコンテンツ」の量と質をサイト内で高めることによって、検索エンジンからの集客を向上させる施策を指すことが多いようです。コンテンツSEOまた、日本においてはクラウドソーシング業界の発展と、ウェブライターの増加によってこれらのSEO施策がマーケティング予算内で容易に行うことが可能になってきたという背景も手伝って市場として急拡大しているとも言えるかと思います。

コンテンツSEOの手法については、Googleが目下改善しているコンテンツの品質評価のアルゴリズムが日々変動していることからも、確立した手法が存在するわけではありませんが、今までサイト内に入っていなかったが入れておくべきコンテンツの再発見を行い、そのような記事を執筆し、オリジナルのコンテンツとして配信していくという手法が一般的です。

5-7. 検索エンジンのパーソナライズ化

検索エンジンのパーソナライズ化(個人向けに調整されるということ)については、ここ数年で急に出てきたアルゴリズムではありませんが、長年にわたり、Googleが力を入れて開発をしている箇所と見られていますのでここに記載します。googleロゴGoogleアカウントでログインした状態での検索結果や、以前に他のキーワードで検索をしたことのある同じブラウザ(クッキーの残っているブラウザ)での検索を行った際に「そのユーザーがどのようなサイトを過去に見たか、検索したか、離脱したか」等のデータに基づき、よりそのユーザーにとっての最適な検索結果を抽出して表示をする、と言った類のアルゴリズムになります(昔はそれがなかった、と言うほうが早いかもしれませんね)。例えば「恵比寿 レストラン」と検索したときに、過去に訪問履歴のあったページを優先的に上位表示させることで、ユーザーが再度同じ店を探すための手助けをする、というような機能です。

この機能は、モバイルデバイスの普及とともにより拡張性を増して行っています。例えば「天気」とモバイルデバイスで調べた際に、そのユーザーが普段生活している場所の天気を検索結果に表示したり、「株価」と検索したときにいつもチェックする銘柄のその日のレートを表示したりするように設計されています。今までの検索エンジンでは「天気 渋谷区」や「アップル 株価」のように調べる必要があったことからするとかなり大きな変化をもたらしていることは想像できますでしょうか?また、似たようなアップデートとしてローカル検索の高度化もパーソナライズ検索に準じて押さえておかなければならない検索トレンドです。

このような検索エンジンのトレンドに対してウェブマスターの出来る対策としては、「より潜在的なニーズ」を抱えたユーザー層に対するアプローチも視野に入れておく必要が出てきたということで言い換えられます。これまでのSEO対策で注目されてきたのは購買意欲の高まっている顕在層のユーザーへの集客がメインでした。「スニーカー 通販」などのすぐに購買に繋がりそうなユーザー層への訴求です。しかし、ニーズが顕在したユーザーの検索結果でサイトを上位表示させるためには、それより以前にユーザーと接触を持つようにすることが重要になってきます。このケースでは「アウトドア 準備」や、「秋物 コーデ」などこれまでのSEOでは対象領域として見てこなかったような検索をするユーザーにも視点を広げて対策を行っていく必要が出てきていると想定されます。

5-8. モバイルフレンドリーアップデートとSSL通信サイトの優遇とAMP

2015年4月に、Googleは「モバイルフレンドリーアップデート」と呼ばれるアップデートを行いました。数ヶ月以上前から告知してロールアウトした大規模なアップデートであり、モバイルデバイスに対応していないサイトの、モバイル検索結果での掲載順位を下げるという内容のアップデートでした。また、その第二弾を2016年5月に実施し、モバイル検索の品質向上のための改善を推し進めています。モバイルフレンドリーこれは、ここ数年で急増しているモバイルデバイスからの検索を改善する目的でGoogleが推し進めている対応となります。PCからの検索回数はこれまでに比べて若干の減少傾向にあり、反比例するようにモバイルデバイスからの検索ボリュームが急増しています(デバイス合計では引き続き検索回数は増加)。モバイルフレンドリー対応を出来ているかのテストはGoogleの提供するページスピードとモバイルフレンドリー実装状況を同時に分析してくれるこちらのモバイルフレンドリーテストツールを活用して判断することが出来ます。viewportの設定とサイズ指定、文字サイズ、ボタンサイズとパディング、プラグインの使用状況などが主な判定項目となっています。また、モバイルフレンドリーアップデートの注意点としては、ページ単位で評価がされる点にあります。サイトのTOPページだけモバイル対応していても、下層ページでは対応していなかった場合、SEOでは不利に働きますので全ページのモバイルフレンドリー化をすることが推奨されるでしょう。

また、2014年8月にはSSL通信をランキングアルゴリズムとして活用することを発表しました。これはサイトのハッキングや、プライバシーへの配慮、インターネット全体の安全性を高めるための取り組みとして導入されたと考えられます。サイトがSSL対応しているかどうかでの検索結果における掲載順位の大規模な変動は現在までに確証的に確認されたデータは出てきていませんが、この発表以来多くのサイトが全ページSSL 実装を行うようになってきており、検索結果ページにおけるSSLサイトの数も相対的に増えてきていることは確かなようです。

加えて、2015年10月にはAMP(Accelerated Mobile Pages)プロジェクトを発表しました。こちらもモバイルに特化した新たなアルゴリズムになります。現在はニュース記事や、グルメレシピ情報などに限定されて徐々にリリースをしているようです。これは、モバイルデバイスでの検索結果ページから、実際のコンテンツを閲覧するまでの表示速度を高速化するためのプロジェクトです。Googleのキャッシュ技術と、モバイルフレンドリーサイト間での簡易化されたHTMLファイルを組み合わせることにより、これまで行っていたページ転送による通信負荷を軽減し、劇的にモバイル環境でのページ表示速度を向上させる技術となっています。

 

この章では、これまでに見てきたような先進技術と、ユーザーへのよりよい検索環境の整備・構築のためにGoogleが主導するような形でウェブサイトのあり方そのものを再定義していくような動きも見てみました。検索エンジン市場のシェアの圧倒的No.1に君臨し、「ガイドライン」によって世界中のウェブマスターに向けてアプローチ可能なGoogleならではの取り組みとも言えますが、基本的にその方針に「ユーザーファースト」の姿勢が一貫していることに変化はありません。結果として、Googleはモバイル版検索のシェアにおいて90%以上の市場規模を保持しているとも言われています。モバイルSEO対策を考えるとき、Googleのアナウンスやアップデートに対する対応をすることは最重要項目となってくることは疑いようもなく、今後も様々なアップデートが予測され、ユーザー数の伸びもまだまだ続くであろうモバイル版Google検索のSEOは今後重要度が増していくことは間違いありません。

5-9. SEOの品質評価ガイドライン~Y-M-Y-LとE-A-T

ここでは少し毛色の違う2つのアルゴリズムを検討します。この二つについては2015年11月に初めて公式に公開された検索品質評価ガイドラインにて強調し、詳細に解説されている重要な指標となっています。SEOの品質評価Y-M-Y-Lとは、Your-Money-Your-Lifeの頭文字を取ってつけられた呼称で、「お金や生活」に関わるPQ(Page Quality:ページ内コンテンツの品質)が特に重要なジャンルのサイトでのコンテンツの品質を判断される際に重要となってくるガイドラインの一つと言われています。現在、あるいは将来の生活や健康、経済面や安全面での重要な情報について記述するページでは、より確かな情報を検索結果に表示する必要があるため、より厳格な判定基準を持って検索結果のランキング付けをすると言うことです。そのようなYMYLに関するページは、より信頼のおけるサイトに掲載されるべきで、権威性のある文章であるべきだとしています。

この考え方は特に病気の症状や対策についての記事や、ローンや税金に関する記事などの検索結果ページに適用されていますが、これに類似したその他のワードでも似た傾向が垣間見られます。

E-A-Tは特定のクエリではなく、広く一般的に適用されているガイドラインでExpertise- Authoritativeness- Trustworthinessの頭文字を取った呼称です。専門的知識、権威性、信頼性の3つの軸からサイトやコンテンツの評価を行うことを明確に定義しています。品質の高いサイトとしてGoogleに認められ、SEOスコアを高めるために近年ますます重要性を増してきている観点であると捉えてよいでしょう。

このガイドラインでは、公的な資格や証明の有無を有するサイトや著者のみを評価するとしているわけではなく、あらゆるトピックスにおいて権威性と信頼性を認められるために専門的知識が必要になってくると定義されています。E-A-Tの先頭の単語だけ動詞のExpertiseという単語が使われていることに注目しましょう。サイトの品質を高めるためには「権威性と信頼性」を評価されることが必要で、その評価をされるために「専門的知識」を有していることが必要になってくるということが読み取れるかと思います。

品質評価ガイドラインの中では「ゴシップ、ファッション、ユーモア、フォーラム、Q&A」のサイトにおいても同じように、そのトピックスの中で権威性と信頼性を得るために専門的知識が必要であるとしています。また、単一の記事内での専門性だけではなく、その著者、あるいはサイトが過去のコンテンツやその他のページ、フォーラムなどでもその分野での専門的知識を発信し、権威性と信頼性を獲得していることが重要であると書いています。

このE-A-Tと言うガイドラインがより厳格に適用されるジャンルがY-M-Y-Lであると解釈して大方問題なさそうですが、ウェブマスターに出来るSEO対策としてはどのような指標が導き出せるでしょうか?権威性と信頼性を獲得するためには、「知名度」や「他サイトでの言及」、「他ユーザーからの支持」などを獲得していること、また「継続的」な発信や、「情報のアップデート」とその「信憑性」なども重要な要素になってくるものと推察されます。このような評価は、一朝一夕のSEO対策で獲得できるものではなく、日々のサイト運営の中でのユーザーからの信頼獲得によってサイトを徐々に育てていくことで評価獲得していくことが出来るといえるのではないでしょうか。その意味で、Googleはより本質的なサイトの品質評価をする高度なエンジンになりつつあると考えられます。小手先のテクニックに頼ったSEO対策がますます検索エンジンからの評価を落とし、その権威性や信頼性を失う行為にあたるかが理解できるかと思います。

5-10. SEOにおいて重要度の高い検索品質評価ガイドラインとランキングファクター

本記事の冒頭で、SEO 対策は大きく①内部SEO(On-Page SEO)と②外部SEO(Off-Page SEO)の二つの手法に大別されると書きましたが、それぞれのランキングファクターについて、以下に記載します。前述した通り、現在の検索エンジンにおいて「タグの設定を変えたら上位表示された」や「内部リンクのアンカーを変えたら上位表示された」などの小手先のテクニックははっきり言ってほとんど通用しません。

弊社では、日々お客様のサイトの内部SEOのチューニングについてご相談をいただきますが「即効性のあるテクニック」を欲しがるお客様は多いですが、そのような内部SEOは存在しませんし、それが今のGoogleに対して上位表示に有利であったとしても、テクニックに終始するスパミーなSEO対策である限り、ほぼ間違いなくGoogleに検知され、掲載順位を落とす結果に繋がると考えたほうが自然です。

多くのSEO業者が「内部SEOだけで成果が●●%改善!」というようなキャッチフレーズでSEOをセールスしていますが、それは業者のノウハウによって上がったのではなく、サイトの潜在的に持っているパワーを適切にGoogleに伝えたことによってGoogle評価が適切な状態になったにすぎません。

しかし、多くのウェブマスターにとってGoogleのガイドラインを適切に理解した上で自社サイトの設計にその要素を実装することは難易度が高いことも多いようです。SEOに特別な魔法のような効果を求めるお客様が依然として多いこともまた事実ではありますが、その点も踏まえつつ「まずは当たり前のことを当たり前の水準にする」ということを基本として、内部SEOのランキングファクターをおさらいすると同時に、内部SEOを行うときの基本的な実装事項を記載します。

5-11. 品質ガイドラインに準拠した内部SEOを実装する

まず、基本に立ち返りウェブマスター向けガイドライン(品質に関するガイドライン)を思い出してみてください。スパム対策に対する詳細な記載もありますが、「一般的なガイドライン」で3つの重要な指針を示しています。

A, Google がページを検出できるよう手助けする
B, Google がページを理解できるよう手助けする
C, 訪問者がページを利用しやすいよう手助けする

Aでは、主にSEO対策用語で言うところの「クローラビリティ」に関する説明をしています。
ガイドラインの中では以下に対する設定に関して詳細が記述されています。

• サーバ設定の確認
• xmlの整備
• txtの整備
• Google Search Consoleの設定
• 画像ファイルに対するaltテキストの設定

Bでは、主にSEO対策用語で言うところの「マークアップの最適化」に関する説明をしています。
ガイドラインの中では以下に対する設定に関して詳細が記述されています。

• キーワードの記述について
• 主要タグのマークアップについて
• 内部リンクの接続とページ階層
• テキスト以外のコンテンツのマークアップについて
• HTML外部ファイルのレンダリングについて
• URLの正規化について
• コンテンツの配置と広告リンクへのnofollow付与について

Cでは、主にSEO対策用語で言うところの「ファインダビリティとユーザービリティ」に関する
説明をしています。
ガイドラインの中では以下に対する設定に関して詳細が記述されています。

• テキストコンテンツの重要性について
• HTMLの適切なマークアップについて
• ページスピードについて
• モバイルフレンドリー対応について
• クロスブラウザ対応について
• SSL化について
• セマンティックなマークアップについて

5-12. 詳細なチューニングのハウツーも公開されている

検索エンジン最適化スターターガイドについてはすでに前述しましたが、注意して読んでおくべき事項をまとめておきます。本当に基本的な事項ばかりが書いてあるようですが、このスターターガイドに記載されているような基本的事項すら実装されていないサイトを非常に多く見かけます。まずは、以下に列挙するような項目を一つ一つ着実に対処していくことが肝要です。

• Titleタグを適切に整備し、狙ったキーワードを含める
• Descriptionをページごとに固有の説明文としてまとめる
• URL構造と内部リンクの最適化
• パンくずなどのナビゲーションタグの整備
• コンテンツの整備(アノテーションや内部リンクアンカーの選び方)
• 見出しタグのマークアップ
• クローラ制御について
• モバイルフレンドリー対策
• プロモーションとリンク獲得戦略

5-13. 外部リンクの獲得戦略~最重要のSEOスコア~

他サイトから、自分のサイトを紹介してもらうことは自分のサイトがいいサイトであることの根拠となり得ます。Page Rankをコアアルゴリズムに持つGoogleの、ランキング要因の最重要項目の一つが外部リンクによる評価項目となります。外部リンクでは、「良いリンク」とはどのようなリンクでしょうか?Page Rankが公開・更新されていたころには「Page Rankの高いサイトからのリンク=良いリンク」とひとまとめに考えられることが多く、この要素についてあまり深く記述されている記事は少ないように感じます。Page Rankという明確な指標がない現在において、どのような指標と戦略をもって外部リンクの獲得戦略を取るべきでしょうか?

• 関連性の高いサイトからのリンクであること
• 専門性の高いコンテンツからのリンクであること
• リンク元ページ内でも重要度の高い位置からのリンクであること
• より権威性が高く、信頼度の高いサイトからのリンクであること
• 意図的に獲得したスパミーなリンクではないこと

上記は、これまでに記述してきたGoogleの品質評価ガイドラインなどから容易に推察できる良質なリンクの一例です。いいリンクとそうでないリンクの判断基準にはE-A-Tの判断基準を類推して適用することが出来るはずです。現在のGoogleのアルゴリズムは以前に比べてサイト内のコンテンツを高い精度で判定することが可能になっています。他サイトの被リンクの獲得状況を確認することは出来ませんが、リンク元ページやサイトの「コンテンツの質」をチェックすることで外部リンクの価値を一定の基準で評価することが出来るはずです。

また、現在のアルゴリズムでは「不自然に貼られたリンクに対するペナルティ」が存在することも忘れてはいけません。自社サイト以外からのリンクが基本的にコントロールできないことを踏まえると、「マイナスに働く可能性のあるリンク」を意図せずに貼られてしまう可能性もあるということです。

外部リンクの獲得戦略において重要なことはまず一番に、獲得したリンクがいいものなのか、良くないものなのかを判別すること。そしていいリンクを獲得できたのであればそのリンクが有効に貼られているかを常に確認することと、なぜリンクを獲得できたのかを分析し次期のリンク獲得戦略に活かすことが重要です。また、良くないリンクを獲得してしまっている場合、そのリンクをいかにして解除し減点を減らすかが重要になってきます。

いずれにしても、重要SEOランキングスコアである外部サイトからのリンクに関しては、定期的なチェックを行い、加点・減点ともに適切に対処していくことが肝要と言えそうです。

6. Google Search Consoleの活用とSEO対策~これからのSEO~

本章ではGoogleが公式にウェブマスターとのコミュニケーションを行うために提供しているSEOのためのツールであるGoogle Search Consoleの紹介をします。2015年5月20日にこれまでのウェブマスターツールという呼称から”Search Console”と言う呼称にツールの名称変更を行いました。Search Consoleこの名称変更自体は、ツールの名前の変更だけを捉えると重要なことではないように感じますが、Googleの意図をくみ取ると非常に大きな意思の表れであると捉えることも出来ます。「コンソール」とはIT用語でシステムの制御インターフェイスの総称であり、Search Consoleの意味するところは「検索エンジンの制御を担うインターフェイス」へ機能を進化させていくことを意図しているものと考えられます。

発表の中にもあるように、「ウェブマスター」だけではなく、「小規模事業主から、SEO の専門家、マーケティング担当者、プログラマー、デザイナー、アプリ デベロッパー、個人のサイト運営者、そしてもちろんウェブマスターまで、さまざまな方々」を対象とした、総合的なツールとしての活用を目指しています。

これまで同様に、Googleが検出したサイト個々のエラーの検出レポートや、検索品質改善のためのメッセージの通知、外部リンクを獲得しているサイトの被リンク元URLのサンプルデータの抽出や、インデックスステータスの確認が行えるほか、クローラの制御を行うためのsitemap.xmlの送信や、fetch as googleによって、クローラをサイト運営側から意図的に呼ぶ機能や、検索エンジン経由のアクセスを解析可能にした検索アナリティクスの搭載なども新しい機能として非常に重要度の高い機能です。

検索アナリティクスの登場により、これまで自然検索領域では計測が出来なかった「インプレッション数」や「CTR」のデータを確認することが出来るようになりました。これにより、検索結果ページでのCTRの改善を行うための分析を行うことが可能になりました。また、意図せず獲得してしまったスパムリンクへの対応として、サイトのへマイナス評価を軽減するためのツールとしての否認ツール(disavow tool)もSearch Consoleから利用可能です。その他にも、Googleが注力して開発するリッチスニペットを制御する機能として「サイトリンク」の設定や、「構造化データのマークアップ支援ツール」「リッチカード」の制御など次々に機能刷新されています。

また、App Indexingの実装に合わせてSearch Consoleでは「アプリ」を登録することも出来るようになり、検索エンジン経由からのアプリへのアクセス解析を行うことも出来るようになりました。スマートフォンの普及に合わせてユーザーの検索行動もまた大きく変動しており、Googleはアプリ内のクローリングやアプリと検索結果ページの連携にも非常に力を入れて開発を行っています。

これからのSEOを考えていくときにまず始めるべきことはSearch Consoleの機能を理解し、活用していくことなのではないかと考えています。

まとめ

検索エンジンの歴史と、Google検索エンジンアルゴリズムの方向性について俯瞰的に記載してきました。検索エンジンというビジネスがいかに巨大なビジョンを見据えて発展を続けているかということに改めて武者震いを感じるとともに、共通資産であるあらゆる情報の整理、という未完のミッションの達成の一助となるため、今後もより多くのアプローチを開発・提供していく必要性を再認識しました。

関連記事一覧

  1. この記事へのコメントはありません。

%d人のブロガーが「いいね」をつけました。