この記事は運営堂様のメールマガジン(毎日堂)で紹介されました!
これがGoogleが言いたかったことなのかなと、最近やっと実感が出てきたといいますか。
いわゆるSEO対策として語られる作業が検索結果に及ぼす効果は年々下がっています。ただし、依然として重要ではありますが。
忌憚のない表現を用いるならば、SEO対策が必要なのは検索エンジンがバカだからです。これだけだと語弊があるので補足すると、検索エンジンのアルゴリズムはまだ人間の頭脳に及びませんし、何より人間の感情を理解できません。
文字は読めるけど意味は理解しない、そこから一歩進んで意味を理解できるようになったけど意図ははかりかねる。というふうに、日進月歩で進化し続けていますがまだ”完成”には至っていません。
だから人の手による調整が必要なんです。
目次
今後SEO対策は不要になるのか?
内部対策や回遊導線、被リンク、キーワードプランニングなどによる影響はかなり落ちている、ぶっちゃけ以前の半分ほどではないかと個人的には考えています。
どのタイミングをもって「以前」と定義するかにもよりますけどね。
その理由として、じゃあ別の何が順位に影響を与えるようになったのかというと、たとえばコアアルゴリズムアップデートやQDFなどによる「ページ評価と直接関係のない要素」による順位の変動があります。
これが発生する頻度がかなり高まっており、そうしたイレギュラーが発生していない「凪」状態のSERPを維持できる期間・間隔が短くなっていると思うんですよね。
身も蓋もない言い方をするなら、ページ評価に注力して評価をもらって順位が上がっても、外的要因によって簡単に、頻繁に、あっさりと順位を抜かれてしまうことが多くなってきています。
特にQDFの場合、自然検索では対抗しようがないものです。そのかわりあくまで「一時的」なのですぐ順位が戻るんですけどね。
もちろんこうしたことは全てのクエリに平等に起こっているわけではなく、KnowとDoだったりECとメディアだったり種類によって影響はまちまちですが、より多くの種類のクエリを巻き込むかたちでこれまでの評価を一切無視したかのような急上昇・急降下を引き起こした「YMYLアップデート」や「コアアルゴリズムアップデート」によって頭を抱えた方も少なくないんじゃないかと思います。
ただ、少なくとも自分が今まで見てきたサイト・ページでは、大規模なアルゴリズムアップデートによって順位が大きく変動した要因は2つに絞り込めます。
「内容に全く問題がないのに急に動いた」か、あるいは「どこかにボトルネックがあった」かのどちらかです。
こう書くと白か黒かみたいな、ぶっちゃけ全部そのどちらかになるじゃんみたいに思えるかもしれませんが違います。
具体的には、このどちらの場合であっても「コンテンツそのものには落ち度がなかった」ことがその違いです。
要するにページ評価が急にゼロになって順位が急落とか、対象クエリのインテントが大きく変化して急上昇とか、少なくとも「アルゴリズムアップデート」ではそうした変動は観測していないということです。
内容に問題がないのに順位が急落なんて本当に起こる?
これは若干の推測も含みます。僕はGoogleじゃないので、判断基準(アルゴリズムの中身)を知りませんから、「本当にページ内容に問題がなかったのか」については正直なところわかりません。
ではなぜこのようなケースがあると考えるのかというと、「次のアルゴリズムアップデートで順位が戻った」ケースを複数知っているからです。
単純に次回のというわけでなく、長期間おいた後に戻ることもあるので、本当にそれがアルゴリズム変動と直接の相関関係があるのかについても疑問が残るのですが、それについては「タイミングが一致した」ことを根拠としています。
そしてもっと重要なのが、この期間、つまり順位が変動してから戻るまでの間にコンテンツに手を加えなかったことです。
少なくともこれだけで、この順位変動(急落・急上昇)の要因がキーワード/インテントの影響ではないだろうことが説明できると思います。
キーワードやインテントが変わったならそもそも「戻る」わけがないからです。特に検索インテント(ニーズ)はそんな短期間で180度ガラッと変わる…ことはまぁあるとしても、更に「もとのインテントと全く同じに」戻ることなんてありえないと思いますし。
などなどを色々考えて、たどり着いた自分なりの答えが「外的要因」、つまりページ評価とは異なるベクトルで順位がつけられている可能性があるということです。
突然の順位大変動への対処法は?
こうした外的要因による変動が疑われる時、対処法を考える場合、自分は過去の経験を参考に「なぜあの時コンテンツに手を加えなかったか?」を見直すことにしています。
前述した通り僕はGoogleではないので「本当にコンテンツに問題がないのか」を判断できません。
であればこそ、もうひとつの要因としてあげた「どこかにボトルネックがあった」可能性を重視します。
ただしコンテンツ(ここでは主にページ内のプライマリテキスト)は最後に見ます。なぜ最後にするかというと、前述の通り「外的要因」であった場合、コンテンツに問題がないのであれば、そこを無理にいじくってしまうと却って悪化してしまう恐れがあるからです。
大規模サイトの場合、ページ数が膨大なため必然的に追いかけるキーワード数も膨大になります。そこでツールを使って包括的に見ていることが多くなりますが、変動が起きた場合、どこかにパターンがあるはずです。
まず最初に調べるのはGoogle Friendlyです。
簡単に列挙すると以下のようになります。
- 変動したクエリの、
-
- 掛け合わせにパターンがないか?(特定の意図を持つキーワードとの掛け合わせなど)
- LPにパターンがないか?(主にディレクトリ)
- 競合サイトの動きにパターンがないか?(上がり方、落ち方、影響範囲、全く別のサイトが上がってきていないか等)
- 変動したクエリに登場していたLPは、
-
- まだインデックスされているか?
- クローリング時に問題が起きていないか?
- ページは正常に存在しているか?
この時点で特定できる場合も少なくありません。
特定クエリとの掛け合わせで急落した場合、かわりにあがってきたサイトは自身と同じジャンルかどうか(例えばポータルサイトの順位が急落し、かわりにメディアサイトが上がったとか)を見て変化を調べたり、特定ディレクトリに影響が出ているのであれば、そのディレクトリ内で使われているページテンプレートに要因がある可能性が高まります。
また、同じジャンルの競合サイトは同じ動きをしたかどうか(キーワード/インテントが原因なら同じジャンルは全て影響があるはず)でもある程度推し量れます。
次に調べるのはLPのクローラビリティです。
ページ内コンテンツが残っていたとしても、サーバー側でクロールを拒否していたり、設定ミスでリダイレクトループが発生していたり、マークアップがテキトーでページの評価が低い可能性があったり、スパム的なマークアップが見つかったりと、ここでも様々な要因があります。
CMSの設定ミスやRobots.txt/.htaccessの記述ミスによって急にNoindex、Disallow状態になっていたり、リバースプロキシの副作用でリダイレクトループが発生してしまっていたり、Noscriptのつけ忘れで肝心の部分がクロールできていなかったり、本来使用してはいけない構造化データが入っていたり、テクニカルな要因でページ評価が落ちていることも多々あります。
となるとこれまではなんであんな高順位にいたんだという疑問も浮かんでくるのですがそこは一旦無視します。ドメインパワーやE-A-Tの影響もあるので答えは出ませんし、出てもどうしようもないことも多いので。
高い順位を取ったのは悪いことじゃない、むしろかつて取ったのだから、そのページにはそれだけの価値がある。ボトルネックを解消すれば再び高順位に表示できる可能性は高い。と考えます。
少なくともコンテンツをいじらなければ元の順位までは戻せるはず。これが「手を加えない」一番大きな根拠です。ページ評価で競合に追い抜かれたのとは違いますからね。
順位変動要因がページの評価ではなくなってきている。ただ、それも長くは続かないでしょう。検索エンジンが賢くなれば、わざわざマークアップしてあげなくてもページ内の情報を正確に読み取り、検索インテントの親和性も正しく判断できるでしょうから。
今後Web製作者、サイト管理者がすべきことは?
というと、コンテンツの質を上げる、これに尽きます。
数年前からGoogleがいろんなところで「これからのWebマスターはコンテンツの質を上げることに注力してください」と繰り返し発信してきたのも、こういう状況を見据えてのことだったのかと思うと、自分としては納得できてしまいました。
また、パーソナライズド検索により、検索者の現在地によって順位が変わるなど、Google検索が見た目以上に複雑かつ有意義に進化してきたことも関係しています。
さらに「順位」の定義も複雑化しており、単純な数字としての順位がほとんど意味をもたなくなっていることも要因としてあげられます。表示位置とCTRに相関を見出す場合、順番よりも間に差し込まれるエンリッチリザルト(しごと検索など)のほうが影響度が大きい場合もありますからね。(これについては後日)
だからこそ今後の検索エンジンはどんどんシビアになっていくと予測する
多くのリソースを「コンテンツ制作」に割けるようになることは、ユーザーにとっても良いことです。それだけ良質で有益なコンテンツが数多く生み出される機会が増えるわけですからね。
だからこそ、検索エンジンが進化すればするほど、「コンテンツの”質”」は非常に重要かつ大きな評価基準となります。
だからこそ、検索エンジンが進化すればするほど、「他よりも優れたコンテンツ」でなければ高順位を取れないようになるでしょう。
質を高めるってそういうことです。
SEO屋の仕事はなくなるのか?
自分も一介のSEO屋(コンサルタント)なので心配しなくもなくもなくもないところですが、少なくともすぐになくなることは絶対ないと思っています。
理由として前述したようなテクニカルSEO分野の存在が大きいです。Webサイトをゼロから作れるコーダー、デザイナー、デベロッパーを抱えた会社でも、テクニカルSEOを知らないところってものすごく多いんですよ。
h1~h6の書き方は知っているけどその中にどんな文言を入れたらいいかは知らないとか、画像にaltをつける必要性はわかるけど何を書いたらいいかわからないとか、URLの命名規則(ディレクトリマップ)が引けないとか、内部リンクの繋げ方とか、Canonicalの必要性とか、作ったページがGoogleにどう見えているとか、ページネーションの作り方とか(next/prevは廃止、ならばどうする?)、viewportのベストプラクティスとか、メタタグとか、絶対パス/相対パスの使い分け方法とか、ページ内要素に絞ってもかなりの部分で「検索評価のもらい方」を知らないんですよね。
さらに範囲を広げて、このJSはクローラに読まれているのかとか、このページの構造化データはこれでいいのかとか、画像の軽量化方法とか、サーバーレスポンスの高速化とか、sitemap.xml/Robots.txt/.htaccessの書き方とか、解析ツールの使い方を知らないとか、そこらへんまでいくともうWebサイト制作会社の範疇外です。クライアントと相談しないといけない、でもクライアント側も知らないので詰まっちゃう、とかね。
また同じSEO屋でも、評価の上げ方にばかり目が行ってしまって「もらい方」を知らないって人も多いです。
他の人ができないことをやるから仕事になるんです。である限り、テクニカルSEOの需要はそう簡単には尽きないと自分は思います。
ただし、その存在意義というか必要性は変化していると思います。
冒頭で触れたように、内部対策や回遊導線、被リンク、キーワードプランニングなどによる影響はかなり落ちている、ぶっちゃけ以前の半分ほどではないかと個人的には考えています。
しかしテクニカルSEOの需要は高いままです。では、テクニカルSEOの目的は?
ここがこれまでのSEOと違い、「順位を上げること」ではなくなっています。むしろ「順位を下げない、下がったものを戻すこと」を目的とするケースが増えていると感じています。
なので自分はSEO作業を「メンテナンス」と表現しています。ボトルネックを見つけること(解消作業はエンジニアさんへ)、健康状態を観察することなど、他の人ができない役目を負うことで生き残っていけるのではないかと思います。
コメント