Welqを生み出したのはGoogleのクソ・アルゴリズムである
絶賛DeNAのキュレーション「Welq」が炎上中であるが、DeNAのパクリ・キュレーションは「Welq」だけではなく、ほとんどがパクリライトである。
キュレーションを生み出したのはGoogleのクソ・アルゴリズムなのだが、その点についてツッコミんでいるサイトは少ないので、ちょっとツッコんでみよう。
2014年のGoogleのアルゴリズ変更からキュレーションサイト、SEO業者によるコンテンツマーケティングのパクリページが粗製乱造され、検索上位を占領してしまった。
Googleは「DMCA」を用意しているが、かなり消極的で手間もかかる。
検索結果のクオリティとしては、バックリンク重視の以前より精度が落ちていると感じるし、ユーザービリティの面でも良くない事になっている。
パクリライト、まとめを上位表示させているクソ・アルゴリズム
Googleの現在のクソ・アルゴリズムは以下のような特徴ががある。
- 1ページの文字数が多い方が評価される
- 専門サイトより、ごった煮サイトが評価される
とにかく文字数が多い方が有利である。「語呂」が増えるので、類似ページとして認識されづらくなり、ページの評価も高くなる。
キーワードプランナーなどで関連キーワードを調べ、情報を網羅した(パクってまとめた)文字数の多い1ページは評価が高い。
この文字数が多く長いページを粗製乱造。さらに類似ページに認識されないように「風邪」なら「風邪と人間関係」「風邪と恋愛」「風邪と妊娠」「風邪と受験」などの記事も乱造するのがキュレーションの手法である。
最近は、文字数を増やすために前置き文章が長く、1ページに多くの情報が詰め込んでいるので、検索後に長いページ内から知りたい情報を探さなければならない。
これは、ユーザービリティの低下である。
検索結果にサイトトップを表示したYahoo!に対し、該当ページを表示したGoogleではあるが、これでは該当ページではなく、検索箇所をピンポイントで表示しないといけない。(MSNが特許を取得していたはず)
そもそも、コンテンツ重視のアルゴリズムに変更する際に、オリジナルとコピー、パクリまとめページを判断できる精度だったのだろうか?
世界トップクラスの知識集団でありながら、キュレーションサイト、SEO業者によるパクリまとめページは想定できなかったのであろうか?
現在のGoogleのアルゴリズムは、文字数が多い、類似ページが少ない。たったこれだけで判断しているクソ・アルゴリズムである。
特定の分野の専門サイトは、類似ページだらけであるから、圏外に吹っ飛んでいるのが現状だ。
これを良い検索アルゴリズムと言えるだろうか・・・。
パクられた人が、パクっているページを見れば、すぐに「パクっている」「底本にしている」「文章前後に変えて、てにをは変えてるだけやん」と分かるのだが、Googleのクソ・アルゴリズムは分からないようだ。