第八夜 Google技術者とSPAMまがいのSEMサイトの果てしなき闘い

緊急告知 「検索を推理する」第ニ回以降は筆者都合により、不定期に再開させていただきます 拝

・・・いや決してネタ切れというわけではなく、一回目にして飽きたというわけでもありませんよ。
ただどうにも真面目ネタばかり続けるのは、私の精神的にも読者にもきつかろうという考えの元に、小出しにさせていただきい・・・と。
・・・
・・・・
・・・・・
ああっ軽蔑の視線がモニター越しに刺さってきます。
だ、大丈夫ですよネタは10個くらいあるんで・・・。
一応「検索を推理する」第ニ回、は文系的検索・検索語を推理する、という予告をしておきます。
(休載しといて予告もなんですが)

で、今回は前話で少し触れた「google検索結果の偏り問題」についてのお話です。
googleが登場するまでは検索エンジンといえばYahooを頂点とした登録型ディレクトリ検索がメインだったのですが、いまやどのサイトでもgoogleのロボット検索エンジンかそれに類似したものが主力となっています。
これは社会的なサブカルチャーの台頭とか、検索サイト側によって取捨選択された登録結果に満足しない反体制的な思想が根底にある、と私は睨んでます。
まあ、最大の理由はgoogle速くて軽くて使いやすいということもあるんですが。
で、googleがロボット検索型といっても???な方もいらっしゃると思いますのでざっくり説明すると、

googleは自分で目次を作る本

ということです。
で、さらに言うと、

★目次の順番はgoogleが決める

とも言えます。
ついでに言うと、

googleは広告主には逆らえない
(いまのところ)

で、ロボット検索と呼ばれる所以は、この作業をgoogleは人の手に拠らず、クロールと呼ばれる自動作業で行うからです。

そのため自分のサイト、自分のスポンサーのサイトを「いかに上位に表示させるか(特にgoogle)」という作業が昔から行われてきました。
いかに検索に引っかかりやすいサイトをつくるか、という命題です。
一般的なものでは、
 フレームで作成するのは避けるべし
 flashやgifアニメーションを多用するのは避けるべし
 出来るだけ本文の上の方にキーワードとなる言葉を明示すべし
といったものが挙げられます。これはロボット検索用の構成でもあり、普通にサイトを訪れる方への配慮にもなり、今でも十分賛同が得られるやりかたです。

これとは逆に機械的にページ情報を収集するgoogleを逆手にとる手法も一時期流行りました。
 ページとは関係の無いキーワードを通常では見えない透明文字で埋め込む
 metaタグと呼ばれるこれも通常ではページ上に表示されない個所にページとは関係の無いキーワードを埋め込む
 画像の代替表示用として使用されるaltタグに無関係のキーワードを埋め込む
これらはページスパムとして現在ではロボット検索からも警戒され、こういう作りをしているサイトは道義上、優良サイトとは評価されません。それでも当初はこれらの手法が「SEO」(search engine optimazation 検索エンジンへの最適化)という名の元に公然と行われていました。

実は上段の「省略英単語」(その省略しない場合の英語綴り &日本語表記) とい
う書き方もSEOを意識して作られた文章です。ただこれはスマートなやり方なので
(今のところ)後ろ指さされるようなもんでもありませんが。


で、各サイトがこんなことをやると、当然googleの検索結果にも影響が出てきます。
特定キーワードで検索結果の誘導が起きるわけです。
こうなってはgoogleはおまんまの食いあげです。

適切な検索結果が得られない→サイトの利用者が減る→アクセス数が減少→広告収入の減少

悪循環になるのは目に見えてます。
そこでgoogleは「SEO対策」対策に乗り出しました。まずは無関係なキーワードを埋め込んでいるサイトの締め出しです。さらには2ちゃんねるを検索結果の上位から下げはじめたようです。これも理由は簡単です。2チャンネルは掲示板の集合体なので確信犯ではないですが、言葉のやり取りの中で同一のキーワードが頻繁に現れる可能性が自然に高くなるためです。
googleのすごいところはこういうことを自動化作業の中に組み込んだ点です。人間による取捨選択という手段はとりませんでした。

こうしてgoogleによる「SEO対策」対策が行われた、が、それでも営利目的でのなりふりかまわぬpageSPAMは無くなりません。ゴキブリは死なず・・・です。

今度は・・・・《googleによる「SEO対策」対策》のための対策です。(括弧の種類がなくなる前に、この回おわらせないと・・・)

googleは参照リンクが多いサイトほど上位に表示する、という法則があります。
その他太字や大きな文字で書かれたキーワードは得点2倍!!(2倍はウソです。でも効果はあると言われています)
そういうページを人為的に作成することによってページの表示順位を上げようというものです。
中には同一の製作者が複数のドメイン(ホームページのアドレス:microsoft.comみたいな)を取得してそれぞれにリンクを跨らせてさも、人気のあるサイトのように見せかける、という高等かつ低脳な手段を使っているところも出てきていると言われます。

その上昨今のウエブログの隆盛によって、キーワードによっては検索結果がブログに占領される場合も出てきました。ブログが上位に食い込むことはそれ自体は悪いとはいいませんが占領してしまうのは正常な状態とは言えません。一時期の2ちゃんねるのような状態です。
・・・
・・・・
・・・・・
こうしてgoogleは〔《googleによる「SEO対策」対策》のための対策〕に対抗する対策を日夜開発していることでしょう。
このインフルエンザウイルスとワクチンの関係にも似た長く永い闘いは、おそらくロボット検索のプログラムが人間の視認と大差ないくらい高度なAIにまで発達するまで続くでしょう。

でもそれって、
「一番、注意深くサイトの隅々まで見てくれるのは実はAI!!」
というネット社会です。
非効率極まりないですね。

そのページに配された検索エンジン向けの対策が、ネット上の
SPAM(無駄なゴミ)として認識されるか、有効なページ作りの
ためのテクニック、として認識されるかの境目は今のところす
ごく曖昧です。でも、一つ有望な区分けがあります。それは
「ロボット検索が行われなかったとしても同じページ作りを
するか、どうか」というもので、ロボット検索を想定しな
ければ行うはずのないページ・サイトの改造はSPAMとする、
というものです。いろいろ例外はありそうですが、皆さんが
ページ作りをする際の指針にでもなれば・・・。