2014.12.26コンテンツマーケティング記事一覧

【MOZ和訳記事】コンテンツ監査の方法 ~ステップbyステップガイド

  • このエントリーをはてなブックマークに追加

content-audit-tutorial

この記事は、The Moz Blogに掲載された以下の記事を日本語訳したものです。
原文:「How To Do a Content Audit – Step-by-Step」by Everett Sizemore

これからご紹介する方法は、Inflow社が利用しているコンテンツ監査のプロセスです。これが必ずしもベストな方法という訳ではありませんが、データの分析、解釈、処理の提案に、どんな方法を選択しても、スピードが保証されるよう努めてまいりました。このプロセスの基本部分は、ビジネスの目的を問わず、あらゆる種類のWebサイトに共通します。具体的には、まずサイトのコンテンツURLを全て集め、各URLについて必要なデータを取り出します。次に、そのデータを分析し、各コンテンツURLに対する処理を提案します。理論的にはシンプルですが、いざ実行するとなると、プロセスをしっかり理解し、計画的に行わなければ非常に手ごわい作業になることもあります。このポストを読み終えるころ、皆さんが良いスタートを切れることを願っています。
 

コンテンツ監査のさまざまな目的

コンテンツ監査にはさまざまな方法があり、与えられた「シナリオ」に合わせてアプローチをカスタマイズすることができます。ここでは、想定される「シナリオ」と、それらに対するアプローチをご紹介します。まず、コンテンツ監査によって以下のようなことが可能となります。

  1. パンダペナルティを回避する最も効果的な方法を究明する
  2. コピーライティングや編集が必要なページを見つけ出す
  3. アップデートが必要なページを見つけ出し、優先的に実行する
  4. 重複トピックがあり、統合が必要なページを見つけ出す
  5. さまざまなメトリクス(訪問者数、会話数、PA、Copyscapeのリスクスコアなど)に沿ってコンテンツの優先順位を決定する。
  6. サイトからのプルーニング(削除)が必要なページと、そのためのアプローチ方法を究明する
  7. コンテンツのアイディエーションやエディトリアルカレンダーをドライブするコンテンツギャップの機会を発見する
  8. どのページがどのキーワードをランク付けているかを特定する
  9. どのページがどのキーワードをランク付けるべきかを決定する
  10. ドメインで最も強力なページを発見し、それらを活用するためのストラテジーを考案する
  11. コンテンツのマーケティング機会を明らかにする
  12. Webサイトの売買にあたってコンテンツアセットの目録を作成し、監査を行う
  13. 新たなクライアントのコンテンツアセット(取り組むべき課題)を把握する
  14. その他

コンテンツ監査の具体例

content-audit-tutorial_01
Inflow社でテクニカルSEOを専門に取り扱っているRick Ramos氏は、昨年Phases Design Studioに対して行った、旧バージョンでのコンテンツ監査の実践例をここで紹介することに快く応じてくれました。Rick氏は、まずドメイン上の全コンテンツURLの目録を作成し、”noindex/follow”など、プランのアウトラインを作成し、サイトマップからもはや関連性がなく、更新する必要もない古いブログポストの多くを削除しました。サイトには、一連のキャンペーン用ランディングページが2006年から残されていました。これらのページのライフサイクルは一般的に数ヵ月であるにも関わらず、サイトおよびGoogleのindexから削除されていませんでした。Rick氏はこれらのページについて、新たなキャンペーンの開始に伴ってアップデートされるEvergreen(エバーグリーン;いつまでも新鮮)なランディングページに301リダイレクトをする方法を提案しました。この方法は特に、ECサイトの季節限定ページ(例えば、「2014年初売り」など)に活用できます。この他にも、サイトにはアップデートやリフレッシュ、また別の方法による改善が必要とされるページが多く残っていました。

結果

Rick氏の提案した処理を実行してからまもなく、このクライアントから「前月と比べて訪問者数が8倍になった。その理由が知りたい。」という問い合わせがありました。

content-audit-tutorial_02

なぜ上手くいったのか

このクライアントに対する今回のアプローチが成功した理由はいくつか思い当たります。例えば、以下のようなことです。

  1. 内容が希薄で関連性も低く、重複したコンテンツに対して、便利で関連性が高くユニークなコンテンツの割合が多くなり、サイトが改善された
  2. 期限切れになった多数のキャンペーンページで成り立っていたPageRank(ページランク)が、比較的少数のエバーグリーンページに統合された(301リダイレクトおよび社内のリンクシグナルの統合による)
  3. クロールバジェットがより効果的に使用されるようになった

このように、このサイトの全体的なカスタマーエクスペリエンスが改善するとともに、重要なトピックエリアへの統合によって、オーガニック検索のランキングが上昇したのです。

これ以降、弊社は本プロセスをさらに改善し、さまざまなサイトで実行することに成功しました。特に、大規模コンテンツを持つWebサイトのパンダ・リカバリーや、ECサイトで宣伝コピーを最初にリライトする必要がある商品の優先順位付けに関して、本プロセスが大いなる効果を発揮しました。

本プロセスの全体像

Inflow社のコンテンツ監査プロセスはクライアントの目指す目的やニーズ、予算に応じて変わりますが、一般的には以下に示すようなアプローチを行います。

  1. サイト内の利用可能なURLを全て集める
    • Screaming Frog(または別のクロールツール)、CMS Exports、Google Analytics、Webmaster Toolsを使用する
  2. 各URL におけるKPIやその他のデータを集めるためのツールにURLをインポートする
    • URL Profiler、カスタム社内ツール、その他のデータ収集リソースを使用する
      • 収集するもの:Mozメトリクス、Google AnalyticsのKPI、GWMTデータ、Magestic SEO
  3. コンテンツを分析する
    • Keep As-Is(現状維持)、Improve(改善)、Remove(削除)、Consolidate(統合)から選択する
      • それぞれについての詳しいストラテジーを記入する
  4. キーワードリサーチを実行する
    • 任意:それぞれのキーワードに対する関連性スコア、トピックバケッティング、購買ステージを提供する
    • キーワードマトリックス内に既にランク付けされているキーワードとページをマッチングさせる
    • ランク付けされていないキーワードを、ページ上の変更を行うのに最適なページにマッチングさせる
  5. コンテンツギャップのアイディエーションを行う
    • マッチングさせる適当なページがないキーワードを使用し、Content Gapタブを埋める
      • 任意:購買サイクルをコンテンツギャップのアイディエーションに組み込む
  6. コンテンツストラテジーを記述する
    • 発見した事項の要約や、ストラテジーの提案(既存のページの最適化、ギャップを埋める新たなページの作成、ページの削除およびリダイレクトなどを行う場合のページ数の説明など)を記述する

本プロセスの各部分はWebサイトごとに異なるニーズに応じてカスタマイズできます。

例えば、統合が必要、内容が希薄、重複している…などといったコンテンツ問題が多く含まれる、大規模コンテンツを持つサイトの監査を行う場合、本プロセスにおけるキーワードリサーチやコンテンツギャップ分析の部分を丸ごと省略し、そのようなページをサイトから切り取り、残りのページを改善することに重点を置くことができます。逆に、コンテンツの少ないサイトでは、キーワードリサーチとコンテンツギャップに重点を置くことができます。また、その他のサイトでは、コンテンツを改善することや、新たな方法で利用を繰り返すこと、あるいはさらに新しいコンテンツに活用できそうなコンテンツアセットを探すことも可能です。また、非常に特殊な例として、強力な古いページと、信頼できる新しいページを相互にリンクさせる機会を特定するという目的もあります。プロセスのどの部分に時間を費やすか、あるいはどのステップを丸ごと省略するか、といったことに劇的に影響するさまざまな方法がありますが、今のところは、必要に応じてフレームワークが変えられるということを知っていれば、それで十分です。

社内ドキュメント

コンテンツ監査のプロセスにはいくつかの重要なステップがあり、さまざまなドキュメントが必要となります。ここでは、社内SOPドキュメントへのリンクを掲載することはできませんが(ただいま開発中のため)、各ドキュメントに関する説明と画像、例やテンプレートへのリンクを掲載し、皆さんがニーズに合わせてカスタマイズできるような基盤を提供します。

コンテンツ監査のシナリオ

コンテンツ監査へのアプローチとして推奨する共通のシナリオを一覧にしました。一つ一つの状況は異なりますが、この表のおかげで、クライアントは適切なストラテジーの90%をより速く理解できているようです。この表については後ほど詳しく説明します。

コンテンツ監査ダッシュボードのスプレッドシート

弊社は初めGoogle Docsで作業をしていましたが、より多くのソースからの引き出しや、より多くのVLookupの実行を開始したため、大規模サイトをロードする場合などに、従来のスプレッドシートでは遅すぎて、監査を完了することが不可能な状態になりました。このような理由から、最近では全てのプロセスをExcelに移行しました。ただし、こちらのテンプレートはGoogle Docsのフォーマットです。次にご紹介するのは、このスプレッドシートで必要となるタブの数々です。

“Content Audit”(コンテンツ監査)タブ

このタブで、ダッシュボード内のほとんどの作業が行われます。このタブから、VLookupによって、他のタブへとデータが引き出されます。データをAPIによって取り出し、一つのツール(URL Profilerなど)でコンパイルする場合も、データを多くのツールから手動でエクスポートし、手動(VLookup)でコンパイルする場合も、結果的には、各URLに対して必要なメトリクスを全て一カ所に集めることになります。その後、パターンの認識や、機会の発見、各コンテンツの扱い方に関する決定に必要なさまざまなメトリクスや、サイト全体のコンテンツストラテジーのソートを開始することができます。

content-audit-tutorial_03
利用したいメトリクスに応じて、プロセスをカスタマイズすることができます。ここでは、弊社が研究によって導き出したメトリクス、ならびにデータソースをご紹介します。

  • Action(internal)(アクション;社内)
    • Leave As-Is(現状維持)
    • Improve(改善)
    • Consolidate(統合)
    • Remove(削除)
  • Strategy(internal)(ストラテジー;社内)
    • “Action”のより詳細なバージョン
      例:Remove and 301 redirect to /another-page/(削除および/another-page/への301リダイレクト)
  • ページタイプ(社内、URLパターンまたはCMSエクスポートを利用)
    • 特定の状況で行われる任意のステップ。例:記事、商品、カテゴリーなど
  • ソース(URLのオリジナルソース。例:Google Analytics、Screaming Frog)
  • CopyScapeリスクスコア(CopyScape API)
  • タイトルタグ(Screaming Frog)
  • タイトルの長さ(Screaming Frog)
  • メタ記述(Screaming Frog)
  • 単語数(Screaming Frog)
  • GA入口数(Google Analytics API)
  • GAオーガニック入口数(Google Analytics API)
  • Mozリンク(Moz API)
  • Mozページオーソリティ(Moz API)
  • Mozランク(Moz API)
  • Moz External Equity Links (Moz API)
  • Stumbleupon (Social Count API)
  • Facebookリンク(Social Count API)
  • Facebookシェア(Social Count API)
  • Google Plus One (Social Count API)
  • Tweets (Social Count API)
  • Pinterest (Social Count API)

content-audit-tutorial_04
ここでは、4つの”Action”カテゴリー(”Keep As-Is”、”Remove”、”Improve”、”Consolidate”)のうち1つを選択します。そして、詳細(”Remove”および404、”Remove”および301、301の場合はどこにすべきか?など)については、”Strategy”欄に記述します。URL(重要なもの)は、高度にカスタマイズされたストラテジーを持つ場合もあれば、共通したストラテジーで何千通りものURLを大量に処理できる場合(重複した商品コピーのリライトなど)もあります。“Action”欄の選択肢は限られているため、データを効率よくソートすることができます(例:”Removed”マークのページを一度に全て見る、など)。一方、”Strategy”欄は自由記述式であり、URLごとにカスタマイズできます(例:同トピックの重複を解消するため、/buy-blue-widgets/のコンテンツを/buying-blue-widgets/に統合し、前者を後者に301リダイレクトする、など)。

“Keyword Research”(キーワードリサーチ)タブ

このタブには、シードキーワードのブレインストーミングや、Google Webmaster Tools(GWMT)、PPC キャンペーン、AdWords Keyword Planner、その他さまざまなツールによるマイニングなど、さまざまなソースから集められたキーワードが含まれます。Search Volume(検索ボリューム)やAd Competition(広告競争;この画像にはありません)はGoogleのKeyword Plannerから引き出したものです。Avg. Position(平均ランキングポジション)も、Top Ranking Page(トップランキングページ)も、GWMTに由来します。Relevancy(関連性)スコアについては、明らかに不必要と思われるキーワードを弊社が一旦整理した後、クライアントに出してもらうことが多いです。

content-audit-tutorial_05

“Keyword Matrix”タブ

このタブには、重要なページのURL、すなわち重要なトピックをランク付けている、またはランク付けるのに適したページのURLが集められています。そして、基本的には、弊社がコピーライティングやページの最適化をするのに最も適したページと、キーワードをマッチングします。

content-audit-tutorial_06
サイトが比較的新しい場合や、最適化されていない場合にも、KWMタブは本プロセスにおいて重要な役割を果たします。このタブは、ストラテジーとしての重要性を持つため、大抵は他のタブの後ろに置かれています。

“Content Gaps”(コンテンツギャップ)タブ

ここには、適切なページを見つけることが困難な、関連性の高い大量のキーワードに対するコンテンツのアイデアが置かれています。ここには、企業が見落としている、購買サイクルやAwareness ladder(認知度のはしご構造)の中に含まれている段階を示すキーワードが置かれることもあります。新しいサイトや小規模サイトにおいても重要な役割を果たすこのタブも、大抵は”Prune”(プルーニング)などの重要なタブの後ろに置かれています。

“Prune”(プルーニング)タブ

“Remove”や”Consolodate”とマークされたものは、このタブで扱われます。ここには、削除および301リダイレクトをする、どこかでカノニカル化する、別のページに統合する、上部にそのまま置く(ただしロボットの”noindex”メタタグを付ける)、削除および404/410リダイレクトする…など、思いつく限りのストラテジーがあり、それらの指示が実行されると、そのページはもはや存在しないものとなります。また、このタブは非常に便利なものです。例えば、このタブをエクスポートし、開発者(WP Curveなどの企業)に送れば、全部または大部分の処理を先に開始してもらうことができます。パンダ関連のトラフィック障害を持つ可能性があるサイトに含まれる、低品質で低パフォーマンスのコンテンツに対する弊社のモットーは”Improve it or remove it”(改善するか削除する)なのです。

“Imported Data”(インポート・データ)タブ

上で述べたタブに加え、スプレッドシートにはさまざまなソースからエクスポートしたデータを収納するためのデータタブがあり、URLを基にVlookupを行い、他のタブにデータを追加することができます。データには以下のようなものが含まれます。

  • GWMTトップクエリ
  • GWMTトップページ
  • CopyScapeスコア(最大1,000件のURLが対象)
  • キーワードデータ

URL Profilerのようなツールによってコンパイルできるデータが増えれば、必要とされるデータタブが減り、本プロセス全体がスピードアップします。社内ツールを構築し、プロセスを部分的に自動化する以前には、GAデータ、Mozデータ、および初期のScreaming Frogエクスポートのタブも存在していました。

content-audit-tutorial_07Vlookupの方法が分からない場合は、ExcelやGoogleDocsスプレッドシートの豊富なオンラインチュートリアルを利用できます。Excelに役立つものはこちらです。また、別の方法としては、タブに全てのデータをインポートしておき、スプレッドシートに詳しい同僚などにVlookupを頼んでもよいでしょう。ちなみに、我がチームのスプレッドシートの天才はこちら、素敵な髪型をした Caesar Barba氏です。そして、以下に示す式は、全ての”Action”を”Content Audit”タブから”Keyword Matrix”タブのURL欄に移行させるための簡単なVlookupの使用例です。

=VLOOKUP(A2,’Content Audit’!A:C,3,FALSE)

コンテンツストラテジー

コンテンツ監査ダッシュボードは、社内で扱うものにすぎません。しかし、このスプレッドシートには、弊社が観察力とアイデアを持って常に考えているあらゆる効率的方法を用いて、さまざまに加工できるデータが詰め込まれているのです。中には、それだけで満足してくれるクライアントもいますが、多くのクライアントは、監査によって推奨される処理のハイレベルな全体像が明らかになり、最終的なコンテンツストラテジーによって大いなる効果が得られることを期待しています。

content-audit-tutorial_08

推奨されるエクスポートおよびデータソース

必要なデータを一カ所に集めるためのさまざまなオプションを用いれば、コンテンツ状態の全体的な確認と、各URLに対する詳しいメトリクスの確認を同時に行うことができます。URLの収集には、 Screaming FrogとGoogle Analyticsを使用します。データの収集には、Google Webmaster Tools(GWMT)、Google Analytics(GA)、Social Count(SC)、Copyscape(CS)、Moz、CMSエクスポート、その他必要に応じて数種類のデータソースを使用します。

しかし、弊社は社内ツールの代わりにURL Profilerを使用し、これらのデータソースをより速く集める研究をしてきました。URL Profilerは数百ドルで入手でき、非常にパワフルなツールです。ただし、初回のセットアップが少し厄介なため、必要なデータを集める前に数時間かけてAPIキーを集めておきましょう。

どの方法でデータを集めるにしても、最初の数回はExcelを使って手動で集める方法が常に一つの選択肢となります。

本プロセスの実践例~ステップbyステップガイド

ここでは、一般的なクライアントに対するプロセスをステップbyステップでご紹介します。クライアントは中規模のECサイトで、カテゴリー、商品、ブログポスト、その他のページなど、約800~900ページがGoogleのindexに含まれています。弊社が知る限り、ペナルティは存在しませんが、サイトには、内容が希薄、重複している、期限切れ、関連性が低い、などの問題を持つコンテンツが見られ、パンダによって影響を受ける可能性があります。

ステップ1:状況を調査し、シナリオを選択する

さまざまな状況が考えられますが、2つの主要な要素、すなわちサイトのサイズとコンテンツのペナルティリスクに基づいて共通点を見出しました。以下の画像は一般的なコンテンツ監査のシナリオとして、弊社が推奨するストラテジーのリストです。

content-audit-tutorial_09

色付けしたボックスがそれぞれのストラテジーを表し、
シナリオは下に向かってより詳しくなります。
デザインについてはIan Lurie’s Marketing Stackからヒントを得ました。

上で述べたようなサイトの場合、むらさき色の2番目のボックス(Focus:Content Audit with an eye to Improve and/or Prune, followed by KWM for key pages[重点:Improve およびPruneを目的とし、KWMのキーページに対するコンテンツ監査を行う])に該当します。その理由は以下の通りです。

このサイトにはペナルティの危険があるため(まだ確認されてはいないが)、パンダのモットーである”Improve it or Remove it”(改善するか削除する)に従います。サイトのサイズによって、この2つ(ImproveまたはRemove)のどちらに重点を置くか決定します。小規模サイトでは、小規模なプルーニング(scalpelアプローチ)、大規模サイトでは大規模なプルーニング(hatchetアプローチ)が必要です。小規模サイトでは、顧客の購買サイクルのさまざまな段階がトピックエリアを全てカバーしているかどうかを見極めるため、キーワードリサーチが必要となりますが、反対に大規模サイトでは、低品質(内容が希薄、重複している、関連性が低い、期限切れ、表現が乏しい、自動化しているなど…)のコンテンツを持つ多くのページが、重複したトピックエリアをカバーしているという問題が多く見られます。このようなサイトの場合、キーワードリサーチを行う必要はなく、キーワードマトリックスまたはコンテンツギャップの分析を行い、サイトのプルーニングに重点を置く必要があります。

この例の場合には、ホームページ、カテゴリー、ブログホーム、キー商品ページといった主要なページや、その他のトピックのランディングページに対するキーワードリサーチやキーワードマトリックスに基づき、パフォーマンスの低いページを改善・削除することに重点を置いたコンテンツ監査を行います。

この仮設Webサイトには、メーカーによる商品説明が多く含まれていることが分かっています。クライアントには、それらの書き直しを一斉に行えるキャッシュフローがないため、どれを最初に書き直すべきか、優先順位をつける必要があります。予算や時間を考慮に入れる際、弊社がよく用いるのは80/20ルールというものです。これは、まずページの上部20%のコンテンツに取り組み、残りの80%は時間と予算が許す限り、6~12ヵ月かけて書き直すというものです。

このサイトにはペナルティが存在しないため、全ページのindexを維持することが推奨されます。既にペナルティがある場合には、indexを解消し、下部80%のページの書き直しに従って、徐々にindexを戻していく方法が推奨されます。これと同様の状況にある場合、皆さんは別の方法を選択するかもしれませんが、とにかく、数種類のメトリクスによってページを効率的にソートし、優先順位を決定することが重要となります。サイトの規模が大きく、予算が厳しくなればなるほど、最初に取り組むべき作業の優先順位付けは重要となります。

コンテンツ関連ペナルティの原因
コンテンツ監査の目的として、コンテンツ関連ペナルティのみについて考えます(リンクやページ外の問題とは逆)。これらは通常、3つの主要なカテゴリー(品質、重複、関連性)に分かれます。そして、さらに以下のような問題(ただし、この限りではない)へと分化します。

  • 典型的な低品質コンテンツ
    • 文法が不正確、主に検索エンジン対策として書かれている(キーワードの詰め込み)、役に立たない、正確ではない、など
  • 全く関連性のないコンテンツ
    • 少しであれば問題ないが、ブログ全体に溢れている
    • 典型的な例は、2010年頃から見られる”linkbait”(リンクベイティング)
  • 内容が薄く、短いコンテンツ
    • トピックのごまかし、説明不足、画像ばかりのコンテンツ、など
  • 付加価値のないコンテンツ
    • どこにでもあるようなコンテンツばかりで成り立っているもの
  • 誤った最適化が行われたコンテンツ
    • クエリの対象となるタイトルやキーワードが、コンテンツに合致していない、あるいはランクに該当していない
    • 全体的に見て、閲覧者が期待するような情報が与えられていない
  • 重複したコンテンツ
    • 別の社内ページと重複している(例:カテゴリー、商品の種類、アーカイブ、技術問題など)
    • 外部のページと重複している(例:メーカーによる商品説明、Amazonや比較サイト、eBayなど別のチャンネルで使用されるフィードと重複した商品説明、盗用されたコンテンツ、など)
  • スタブ・ページ(例:「ここにはまだコンテンツはありませんが、あなたがサインインしてユーザー発信コンテンツを追加すれば、他のメンバーがそれを活用できます」というもの。)
  • Index付けできる社内の検索結果
  • Index付けできる過剰な数のブログタグまたはブログカテゴリーページ
  • その他

サイトのコンテンツ問題の規模が分からない場合は、シナリオを決める前にステップ2に進んでください。

ステップ2:サイトをスキャンする

このステップでは Screaming Frogを使用しますが、本プロセスにはどのクローラーを使用しても構いません。ここでは、Spiderの”Basic”タブと”Advanced”タブの設定方法をご紹介します。

content-audit-tutorial_10
content-audit-tutorial_11
“Crawl All Subdomains”(全てのサブドメインをクロールする)にチェックが入っています。これは任意であり、監査の種類によって異なります。今回は”meta robots noindex”、”rel = canonical”、およびrobots.txt.が対象です。また、弊社は画像やCSS、JS、flash、外部リンクなどのクロールは行いません。この種のクロールはテクニカルSEO監査で行われるものですが、コンテンツ監査を必要以上に複雑にする恐れがあります。ここでは、Index付けできるHTMLページで、技術的問題の発見につながる可能性が高いが閲覧者をSERPからサイトに引き込みやすいものを探していきます。

URLの全リストおよび関連データをScreaming FrogからCSVファイルにエクスポートします。

ステップ3:URLをインポートし、ツールを開始する

弊社は独自の社内コンテンツ監査ツールを持っており、URLおよびデータをScreaming FrogからGoogle Analyticsに取り込み、重複を解消し、Google Webmaster Tools、Moz、Social CountおよびCopyscapeからそれぞれのURLへデータを引き込んでいます。このツールでは、たまにバグも発生します。そこで、URL Profilerを試験的に使ってみたところ、少ないステップと維持費で、本来と同じ目標を達成することができました。”Agency”バージョンが必要となりますが、年間400ドル程度(税抜)で使用できます。Gareth Brown氏がURL Profilerを発売するまで、弊社は社内ツールに数千ドルも投じていたことを考えれば、悪い話ではありません。

下の画像はツールをダウンロードすると表示される画面です。四角で囲まれた項目にチェックを入れます。ただし、ここでチェックする項目は、あなたが既に使用しているツールやAPIによって、またユーザーによって異なります。弊社では、ページのトピックバケッティングを半自動化するため、uClassifyを使い始めましたが、そのプロセスについてはまだ共有できません(アドバイスなどのコメントを気軽に書き込んでください)。

content-audit-tutorial_12
URLリストボックスを右クリックし、”Import From File”(ファイルからインポートする)を選択します。その後、ScreamingFrogエクスポートまたはその他のURLリストを選択します。さらに、クリップボードやXMLサイトマップからインポートする選択肢もあります。URL Profilerの全てのドキュメンテーションはこちらからご覧になれます。以下の画像は、2種類のアウトプットです。どんな結果が得られるのか、参考までにご覧ください。

content-audit-tutorial_13
アウトプットは、チェックを入れた項目やAPIアクセスの種類によって変わってきます。

content-audit-tutorial_14

ステップ4:ツールのアウトプットをダッシュボードにインポートする

先ほど「本プロセスの全体像」で述べた通り、弊社が使用しているスプレッドシートのテンプレートには複数のタブが付いており、その一つに”Content Audit”タブがあります。ツールのアウトプットは、ダッシュボードのContent Auditタブへと移行されます。弊社の社内ツールでは、URLのAction、Strategy、Page Type、およびSourceを示す欄が自動的に追加されるようになっています。また、これらの欄はURL Profilerのアウトプットをインポートした後、タブに追加することもできます。Page TypeおよびURL Sourceは任意ですが、ActionとStrategyは本プロセスにおける重要な要素となります。

content-audit-tutorial_15
弊社の仮クライアントはキーワードマトリックスを必要としています。しかし、シナリオにキーワードリサーチが含まれていない場合(例えば、コンテンツ・ペナルティのリスクがある大規模サイトの場合など)は、ステップ5~7を省略し、ステップ8の「分析と決断」に進んでも構いません。

ステップ5:GWMTデータのインポート

コンテンツ監査の対象となる既存のURLを、Google Webmaster Toolsに既にランク付けされているキーワードとマッチングさせます。

こちらもURL Profilerで行っても構いませんが、その場合の方法については、まだここではご紹介できません。ここでは、ランディングページ、関連キーワードおよびクエリデータをGoogle Webmaster Toolsから引き出し、それらを2つのタブ(GWMT Top QueriesタブおよびGWMT Top Pagesタブ)にインポートする方法をご紹介します。この2つのタブから、既にGoogleの各ランキングキーワードに関連付けられているページが分かるため、キーワードマトリックスを作成する際に役立ちます。なお、主要なコンテンツ問題を持つ大規模サイトの場合は、”Focus”(重点)がキーワードリサーチやコンテンツギャップ分析ではなく、低品質コンテンツを持つサイトのプルーニングに置かれるため、このステップは完全に省略して構いません。

GWMTからトップページをインポートする方法

    • ChromeブラウザからGWMTにログインします
    • Search Traffic → Search Queriesの順に進みます
    • 表示画面を”Top pages”に切り替えます(デフォルトは”Top queries”)
    • 開始時期をなるべく過去にさかのぼって設定します(例:3ヵ月など)
    • 列数を最大500列まで拡大します
      • URLにs=500パラメータを追加します。利用可能なデータの列数に応じて、s=500をs=10000などに変更します
      • GWMTページの最下部を確認します(例:####の1~500など)。
    • Chromeメニューから、View → Developer → Javascript Consoleの順に進みます
    • 以下のスクリプトをコピーし、コンソールウィンドウに貼り付け、Enterを押します
    • このアクションを、全てのドロップダウンに拡大し、”Page”欄の各URLの下にキーワードを表示させます。すると、「CSVファイルを保存しますか?」というダイアログウィンドウが開きます
    • このスクリプトはLunametrics.com.のJavascript bookmarkletでも使用できます
(function(){eval(function(p,a,c,k,e,r){e=function(c){return(c<a?”:e(parseInt(c/a)))+((c=c%a)>35?String.fromCharCode(c+29):c.toString(36))};if(!”.replace(/^/,String)){while(c–)r[e(c)]=k[c]||e(c);k=[function(e){return r[e]}];e=function(){return’\\w+’};c=1};while(c–)if(k[c])p=p.replace(new RegExp(‘\\b’+e(c)+’\\b’,’g’),k[c]);return p}(‘C=M;k=0;v=e.q(\’1g-1a-18 o-y\’);z=16(m(){H(v[k]);k++;f(k>=v.c){15(z);A()}},C);m H(a){a.h(\’D\’,\’#\’);a.h(\’11\’,\’\’);a.F()}m A(){d=e.10(\’Z\’).4[1].4;2=X B();u=B.W.R.Q(d);7=e.q(\’o-G-O\’);p(i=0;i<7.c;i++){d=u.J(7[i]);2.K([d,7[i].4[0].4[0].j])}7=e.q(\’o-G-14\’);p(i=0;i<7.c;i++){d=u.J(7[i]);2.K([d,7[i].4[0].4[0].j])}2.N(m(a,b){P a[0]-b[0]});p(i=2.c-1;i>0;i–){r=2[i][0]-2[i-1][0];f(r===1){2[i-1][1]=2[i][1];2[i][0]++}}5=”S\\T\\U\\V\\n”;9=e.q(“o-y-Y”);6=0;I:p(i=0;i<9.c;i++){f(2[6][0]===i){E=2[6][1];12{6++;f(6>=2.c){13 I}r=2[6][0]-2[6-1][0]}L(r===1);2[6][0]-=(6)}5+=E+”\\t”;l=9[i].4[0].4.c;f(l>0)5+=9[i].4[0].4[0].j+”\\t”;17 5+=9[i].4[0].w+”\\t”;5+=9[i].4[1].4[0].w+”\\t”;5+=9[i].4[3].4[0].w+”\\n”;5=5
.19(/”|\’/g,\’\’)}x=”1b:j/1c;1d=1e8,”+1f(5);s=e.1h(“a”);s.h(“D”,x);s.h(“1i”,”1j.1
k”);s.F()}’,62,83,’||indices||children|thisCSV|count|pageTds||queries|||leng
th|temp|document|if||setAttribute||text|||function||url|for|getElementsBy
ClassName|test|link||tableEntries|pages|innerHTML|encodedUri|detail|cur
rInterval|downloadReport|Array|timeout1|href|thisPage|click|expand|exp
andPageListing|buildCSV|indexOf|push|while|25|sort|open|return|call|
slice|page|tkeyword|timpressions|tclicks|prototype|new|row|grid|getElem
entById|target|do|break|closed|clearInterval|setInterval|else|block|rep
lace|inline|data|csv|charset|utf|encodeURI|goog|createElement|download|
GWT_data|tsv’.split(‘|’),0,{}))})();

ポップアップされるダイアログウィンドウは無視してください。
“Prevent this page from creating additional dialogs”(ダイアログをこれ以上追加しない)にチェックを入れ、無効にすることができます。

content-audit-tutorial_16

    • 結果のdownload.csvファイルを、GWMTからコンテンツ監査ダッシュボード内の”GWMT Top Pages”タブにインポートします

GWMTからトップクエリをインポートする方法

  1. GWMT内でトップクエリに切り替えます
  2. 日付をなるべく過去までさかのぼって設定します
  3. 最大500列まで表示できるよう、
    • URLにs=500パラメータを追加します。利用可能なデータの列数に応じて、s=500をs=10000などに変更します
      • GWMTページの最下部を確認します(例:####の1~500など)
  4. CSVファイルに対して”Download this table”(この表をダウンロードする)を選択します
  5. 結果のTopSearchQueries.csvファイルを、GXTからコンテンツ監査ダッシュボード内の”GWMT Top Queries”タブにインポートします

content-audit-tutorial_17

ステップ6:キーワードリサーチを実行する

このステップも任意であり、監査の重点や目的によって異なります。また、このステップは、自身のKWRプロセスに合わせて高度にカスタマイズできます。好きな方法を用いて、キーワードのリストを集めてください(例えば、ブレインストーミング、SEMRush、Google Trends、Uber Suggest、GWMT、GAなど)。ジャンクな、すなわち関連性の低いキーワードはリストから必ず削除し、残りに対しては必ず単一のツールでサーチボリュームや競合メトリクスの収集を行ってください。弊社ではGoogle Adwords Keyword Plannerを使用します。以下はアウトラインです。

  1. AdWordsに関連するGoogleメールアカウントにログインし、www.google.com/sktool/ に進みます
  2. “Get search volume for a list of keywords or group them into ad groups”(キーワードの検索ボリュームを取得、またはキーワードを広告グループに分類)を選択し、あなたのキーワードリストを貼り付け、”Get search volume”(検索ボリュームを取得)をクリックします
    注1:ここではデータを収集し、整理することだけに集中できるよう、この時点までにリストを必要な分だけ拡大しておきましょう。
    注2:コピー&ペーストができるキーワードは1,000個までとなっています。単純な.txtファイルをアップロードすれば、3,000個まで増やすことができます。
  3. 次の画面で”Keyword Ideas”タブへ進み、”Add All keywords to the plan”(全てのキーワードをプランに追加)を選択します
  4. “Ad Group Ideas”(広告グループアイデア)タブへと進み、”Add All of the ad groups to the plan”(全ての広告グループをプランに追加)を選択します
  5. プランをダウンロードします(下の画像を参照)
  6. データをコンテンツ監査ダッシュボードのAdWords Dataタブにインポートします

content-audit-tutorial_18
プランをダウンロードする場合は、以下のような設定を行います。

content-audit-tutorial_19

ステップ7:キーワードデータを一つにまとめる

このステップに関しても、大規模なサイトの場合や、低品質なコンテンツのプルーニングに重点を置く場合は省略して構いません。GWMTクエリやKWRステップでは”Keyword Matrix”(キーワードマトリックス、以下KWM)を作成するために必要なデータが提供されますが、こちらも監査の重点がページの最適化およびキーページのコピーライティングに置かれていなければ、省略して構いません。ただし、クライアントをペナルティから救い出したり、そのリスクを回避したりすることが必要な場合もあります。KWMは、Content Auditタブ内で”Improve”とマークされた重要なページにおいて役立ちます。KWMを用いれば、コピーライターはそのページにとって重要なキーワードを把握することができるからです。KWMはSEOの基本であり、どんなツールを用いても、どんな方法でも行うことができます。

Google Adwordsでは、キーワード、検索ボリューム、競合についての情報が提供されます。Google Webmaster Toolsでは、各キーワードに関するランキングページ、平均掲載順位、インプレッション、クリック数、およびCTRが提供されます。Vlookupを用いて、それらを”Keyword Research”タブにまとめると、下の表のような結果が出るはずです。

content-audit-tutorial_20
ここまでにご紹介したいくつかのステップは、下の表のようなKWMの作成に役立ちます。

content-audit-tutorial_21

ステップ8:分析と決断の時!

全てのデータが手元に揃い、処理の手順も Content Audit Scenarios toolを用いて提案されています。ここからは、あなた自身の解釈や経験・直感によって無限に展開させることができるステップbyステップのプロセスとなります。したがって、こちらの指示に次々に従って実行するものだとは考えないでください。方法を少し変えても構いません。Webサイトの各コンテンツに対して、あなたが決めた目標に向かって作業をしている限り、必要に応じて方法を変えることは大いに結構です。

  • Copyscapeのリスクスコアに従ってソートする
    • これらのうち、どのページをリライトすべきでしょうか?
      • カテゴリー、ホームページ、トップ商品など、キーとなる重要なページ
      • 良好なリンクおよびソーシャルメトリクスを持つページ
      • 良好なトラフィックを持つページ
      • Action欄から”Improve”を選択し、Strategy欄に詳細を記述します
        • Improve these pages by writing unique, useful content to improve the Copyscape risk score.”(Copyscapeリスクスコアを向上させるユニークなコンテンツを書き、これらのページを改善してください。)など
    • これらのうち、どのページを削除・プルーニングすべきでしょうか?
      • 他の場所にも公開されている訪問客の投稿
      • クライアントが盗作したもの
      • リライトする必要のないコンテンツ
        • 外部リンクもソーシャルの共有もなく、閲覧者が少ない(全くない)もの
      • Action欄から“Remove”を選択し、Strategy欄に詳細を記述します
        例:「重複コンテンツを削除するため、サイトからプルーニングしてください。このURLにはリンクもシェアもなく、トラフィックも少ないため、このURLについては、404または410のレスポンスコードを返却することをお勧めします。」など
    • これらのどのページを他のページと統合すべきでしょうか?
      • コンテンツが既に外部ページと重複しているため、おそらく統合はできません
    • どのページに”Leave As-Is”(現状維持)とマークすべきでしょうか?
      • コンテンツを盗用された重要なページ
        • Strategy欄に、CopyScapeの報告と、DMCA(Digital Millennium Copyright Act;デジタルミレニアム著作権法)およびGoogleに対する著作権侵害の申し立てについての指示を提示します
  • 入口数または訪問者数によってソート(既に完了しているものを抽出)します
    • どのページに”Improve”(改善)とマークすべきでしょうか?
      • 訪問者数/入口数が多いが、セッションごとのコンバージョン、滞在時間、ページビュー数が低いページ
      • 手動でのページレビュー後、改善の必要があると認められたキーページ
    • どのページに”Consolidate”(統合)とマークすべきでしょうか?
      • 重複したトピックがあり、それら自身にはユニークな価値はないが、統合すれば良い情報になるもの
        • “Improve”として最適なメトリクスを設定し、Strategy欄にどのページと統合するかを概説します。これをcanonical(カノニカル)ページとします
        • canonicalページに統合するページに”Consolidate”とマークし、Strategy欄に詳しい指示を提示します。
          例:「このコンテンツを部分的に使用して/canonicalpage/を完成させ、このページを/canonicalpage/に301リダイレクトしてください。社内リンクを全て更新してください。」など
      • 単一の”Evergreen”ランディングページに統合できるキャンペーンページや季節限定ページ(”ベストセラー2012”と”ベストセラー2013”→”ベストセラー”に統合)
    • どのページに”Remove”とマークすべきでしょうか?
      • リンク、トラフィック、ソーシャルメトリクスが乏しく、更新の必要がない低品質のコンテンツに関連するページ
        • 主に404または410を許可する
      • 関連性のないコンテンツ
        • ストラテジーはリンクの正当性やトラフィックによって異なりますが、リダイレクトするか単純に削除します
    • どのページに”Leave As-Is”とマークすべきでしょうか?
      • トラフィック、コンバージョン、滞在時間などが良好で、コンテンツも良好なページ
        • これらには適切な外部リンクがあることもないこともあります

別の考え方…

content-audit-tutorial_22
大規模サイトでは、可能な限りhatchetアプローチを使い、scalpelアプローチは最後の手段とすることが最善策と考えられます。そうしないと、プロジェクトに莫大な時間がかかり、ROIが蝕まれることになります。

こちらのプロセスはステップbyステップで表すことはできませんが、hatchetアプローチを用いるべき場合と、いくつかの例をご紹介します。

  • indexにすべきではないパラメータベースのURL
    • 該当する場合はテクニカル監査に従います。それ以外の場合は、最適な判断に従います。
      (例)/?sort=color、 &size=small

      • テクニカル監査に該当しないと仮定した場合、これらのページは全て一挙に扱うことができます。このようなページに対するActionとStrategyの例は以下の通りです
        • Action=Consolodate(統合)
        • Strategy = Rel canonical to the base page without the parameter(パラメータなしでベースページにRel canonicalを追加してください。)
  • 社内の検索結果
    • 該当する場合はテクニカル監査に従います。それ以外の場合は、最適な判断に従います。
      (例)/search/keyword-phrase/

      • テクニカル監査に該当しないと仮定した場合
        • Action = Remove(削除)
        • Strategy = Apply a noindex meta tag. Once they are removed from the index, disallow /search/ in the robots.txt file.(noindexメタタグを適用してください。Indexから一旦削除したらrobots.txt fileにおける/search/を無効にしてください。)
  • ブログ・タグ・ページ
    • 該当する場合はテクニカル監査に従います。そうでない場合は…
      (例)/blog/tag/green-widgets/ 、blog/tag/blue-widgets/

      • テクニカル監査に該当しないと仮定した場合
        • Action = Remove(削除)
        • Strategy = Apply a noindex meta tag. Once they are removed from the index, disallow /search/ in the robots.txt file. (noindexメタタグを適用してください。Indexから一旦削除したらrobots.txt fileにおける/search/を無効にしてください。)
  • メーカーによる説明のあるEC商品ページ
    • “Page Type”(ページタイプ;URL内やCMSエクスポート時に提供される)が分かっている場合、および重複を示すリスクスコアがある場合
      (例)/product/product-name/

      • テクニカル監査に該当しないと仮定した場合
        • Action = Remove(削除)
        • Strategy = Apply a noindex meta tag. Once they are removed from the index, disallow /search/ in the robots.txt file. (noindexメタタグを適用してください。Indexから一旦削除したらrobots.txt fileにおける/search/を無効にしてください。)
  • 静的コンテンツのないECカテゴリーページ
    • “Page Type”が分かっている場合
      (例)/category/category-name/ または category/cat1/cat2/

      • どのカテゴリーページもコンテンツを持たないと仮定した場合
        • Action = Improve(改善)
        • trategy = Write 2-3 sentences of unique, useful content that explains choices, next steps or benefits to the visitor looking to choose a product from the category.(カテゴリーから商品を調べようとする訪問者に対し、選択肢や次のステップ、ためになる情報などのユニークで便利な内容文を2~3文追加してください。)
  • 期限切れのブログポスト、記事、およびその他のランディングページ
    • 日付を含むタイトルタグがある場合
    • URLに発行日が含まれている場合
      • Action = Improve(改善)
      • Strategy = Update the post to make it more current if applicable. Otherwise, change Action to “Remove” and customize the Strategy based on links and traffic (i.e. 301 or 404)(該当する場合はポストをアップデートしてください。そうでない場合は、Actionを”Remove”(削除)に変更し、リンクやトラフィック(301、404など)に基づいてStrategyをカスタマイズしてください。)

ステップ9:コンテンツのギャップ分析およびその他の価値の追加

キーワードリサーチのプロセスにおいて、以下の項目の多くは任意となりますが、私はこれらを最後までセーブしておくことをお勧めします。なぜなら、急を要する問題の対処に追われた場合、その後どれくらいの時間が残るかは予測できないからです。

コンテンツのギャップ
キーワードを特定するという厄介な作業が済み、それらが既にページにランク付けされていれば、ここからのステップはそれほど難しいものではありません。ここからは、どんなキーワードが、コンテンツのギャップを埋めるためのアイデアに繋がるのか解明していきます。

content-audit-tutorial_23
Inflow社では、Ben Hunt氏が開発し、 彼の著書『Convert!』でも取り上げている”Awareness Ladder”を好んで使用しています。詳しくはこちらをご覧ください。

コンテンツのレベル
時間に余裕がある場合、または状況に応じて、キーワードスペースにおいてそのページが競合する必要のあるコンテンツレベルを特定するため、Keyword MatrixタブやContent Auditタブに欄を追加することもあります。弊社では一般的にBasic、Standard、Premiumから選択しています。こちらは、クライアントにとって最も必要なコピーライティングのリソースを割り当てる作業に、今後もずっと活用できるものです。

ランディングページまたはキーワードのトピックバケッティング
時間に余裕がある場合、または状況に応じて、ランディングページやキーワードに対するトピックバケッティングを行うこともあります。弊社は過去に数回、既存のタクソノミーへの追加または変更を提案し、良い結果を得ることができました。最も頻繁に行われたのは、適所に”How To”または”Resources”スペースを追加するというものでした。

キーワード関連性スコア
こちらは、特に専門用語ばかりの複雑な箇所において、クライアントへの手助けを一覧にする最適な場所です。ストラテジストがコンテンツ監査を行っている間、クライアントがこちらを実行することもあります。

ステップ10:コンテンツ監査のストラテジー文書を書きあげる

コンテンツストラテジー、または呼び方は何であれ、これらは監査と同時に提供されるべきものであり、発見したもの、推奨する処理、および次のステップについて要約したものです。Executive Summary(役員による要約)から始まり、各セクションによるアウトラインへと深化していきます。

以下の例は、実際に行われたInflow社のコンテンツ監査ストラテジー内のExecutive Summaryです。

包括的なコンテンツ監査の結果として、弊社が推奨する処理の詳細を以下に示します。

  • 以下に示す合計約624ページをGoogle indexから削除または統合してください
    • 計203ページは、404エラーがあるためRemovalとマーク(リダイレクトの必要なし)
    • 計110ページは、別ページへの301リダイレクトをするため、Removalとマーク
    • 計311ページは、コンテンツを他ページへ統合するため、Consolidationとマーク
      • 統合されたページへのリダイレクトを続けてください
  • 以下の計668ページをリライトまたは改善してください
    • メーカーによる商品説明(重複コンテンツ)があり、コンテンツ監査において優先付けされているため、計605ページの商品ページをリライトしてください
    • 低品質で重複コンテンツを含むため、計63ページの”Other”(その他)ページをリライトしてください
  • リライトや改善が必要ない計26ページに関しては、キーワードマトリックスに存在し、ページ上での最適化が必要とされ、最適な処理がレビュー・適用されない限り、現状維持としてください
  • Keyword Matrixタブにキーワードがアウトラインされている計25ページについては、ページ上で最適化を行ってください

これらの変更は、コンテンツの”improve or remove”を即座に行う必要性に影響します。コンテンツの”improve or remove”は、Styleページからリスクが追加されたRepresentativeおよび Dealersページにおいて、内容が希薄かつ低品質で重複したコンテンツを持つことによるGoogleの明白なコンテンツ・ペナルティ(パンダなど)を回避するために必要となります。

コンテンツストラテジーの最後には次のステップの提案(コンサルタントやクライアントに対するActionの項目など)を記述する必要があります。以下の例は、実際の弊社のドキュメントです。

本サイトにおける緊急性や潜在的なROIに応じて、以下のようなアクションを推奨します。

  • コンテンツ監査ダッシュボードにある”Prune”タブ内の全ページを削除または統合する
    • 各ページに対する詳細指示は、”Prune”タブの”Strategy”欄を参照すること
  • コピーライティングプロジェクトを開始し、Styleページのコンテンツの改善・リライトを行い、ユニークでしっかりとしたコンテンツおよび適切なキーワードターゲッティングを保証する
    • Inflow社は、予算その他の状況に応じて貴社のコピーライターのサポートや、弊社の社内コピーライターの使用を提供する。また、本プロセスの一部として、これらの項目についても述べる
      • ページ上の最適化を含む(タイトル、記述、alt attributes、keyword useなど)
        • 各ページに対する詳細指示については、”Strategy”欄を参照すること
    • “Content Audit”タブに残っているページで、”Improve”マークのあるものを全て改善・リライトする

リソース、リンク、ポスト・スクリプトなど

Example Content Auditing Dashboard(コンテンツ監査ダッシュボードの例)
こちらのGoogle Docsスプレッドシートをコピーしてご使用ください。これは、Inflow社でフォーマットする方法の基本バージョンです。

Content Audit Strategies for Common Scenarios(共通のシナリオに対するコンテンツ監査ストラテジー)
こちらのページ(ツール)では、包括的なコンテンツ監査を行っている際に直面するさまざまな状況において、どこからスタートすべきか、何に集中すべきかを見極めるのに役立てることができます。

How to Conduct a Content Audit on Your Site(あなたのサイトでコンテンツ監査を実施する方法;著者はQuickSprout 社のNeil Patel氏)
お待ちください。皆さんにこのページをご紹介することはできません。このページのコンテンツを見ようとすると、ポップアップ広告が表示されてしまいます。一度消えてもまたすぐに現れますから、こちらのページについては気にしないでください。

How to Perform a Content Audit (コンテンツ監査の実施方法;著者はDistilled社のKristina Kledzik氏)
こちらは、購買サイクルのステージによってページを分類することに重点を置いています。

Expanding the Horizons of eCommerce Content Strategy (Eコマースのコンテンツストラテジーの視野を広げる;著者はInflow社のDan Kern氏)
Dan氏はEコマースビジネスにおけるコンテンツストラテジーに関する壮大なポストを投稿し、その中には購買サイクルにおけるさまざまなステージをターゲットにした数種類のコンテンツの例が含まれています。

Distilled’s Epic Content Guide(Distilled社の大規模コンテンツガイド)
Content Inventory and Audit(コンテンツの目録と監査)のセクションをぜひご覧ください。

The Content Inventory is Your Friend(コンテンツ目録は友達;著者はBrainTraffic社のKristina Halvorson氏)
コンテンツ監査目録がもたらした劇的なパワーを高く評価しています。

How to Perform a Content Marketing Audit (コンテンツマーケティング監査の実施方法;著者はVertical Measures社のTemple Stark氏)
Temple氏はコンテンツ目録化や、パフォーマンスの評価、次に行うべき処理の決定といったプロセスのハイレベルな全体像を「How to」の形で上手に表現しています。

Why Traditional Content Audits Aren’t Enough (なぜトラディショナルなコンテンツ監査では不十分なのか;Content Marketing Instituteのブログより、著者はAhava Leibtag氏)
このポストのようにステップbyステップの「How to」形式ではありませんが、Ahava氏がこれらのプロジェクトに対して量的(コンテンツ目録)および質的(コンテンツ品質監査)にアプローチするマーケティング分析には、読んだ私自身も共感し、このポストで述べたプロセスに対する私のアプローチ方法にも部分的に関与しています。

著者:Everett Sizemore
父親であり、夫であり、地方農家であり、Mozアソシエイトであり、そしてInflow社のR&Dディレクターでもある。未来と過去を股にかけて活動しているが、現在の世界に住んでいる。

この記事は、The Moz Blogに掲載された以下の記事を日本語訳したものです。
画像についても、以下の記事から引用しています。
原文:「How To Do a Content Audit – Step-by-Step」by Everett Sizemore (2014/8/13)

 

【コンテンツディレクター監修】
ウェブ集客を10倍にする! コンテンツマーケティング 虎の巻 無料プレゼント!

弊社では、今までに1000社以上のWebマーケティングをお手伝いしてきました。
そのノウハウを生かしたコンテンツ制作・設計によって、「自然検索からの流入を増やす」 「CVにつなげる」「サイト内の回遊率を上げる」など様々な企業の課題解決に成功しています。

まずは本書を読んで、ご自身でコンテンツマーケティングを始めてみましょう!

  • このエントリーをはてなブックマークに追加
The following two tabs change content below.
digital-marketing

digital-marketing

デジタルマーケティング研究所では、デジタルマーケティングの施策・広告・技術を、分析・実装・検証して、WEB担当者・マーケティング担当者の方の役立つ情報を発信していきます。