Tools

AIO(LLMO) Whitepaper

2026-03-05

AI Overview / LLM Optimization

AIO(LLMO)白書

LANY社 LLMO白書(2026-02-27、72p)のサマリー + ピンク研究所への適用ルール

Level 2: 攻略フェーズ 全記事必須適用

1. 白書の全体像

LANY社が2026年2月に公開した72ページの白書。AIが回答を生成する仕組みを解明し、「AIに推奨される記事」を設計するためのフレームワークを提案している。

テーマ 関連度
第1部 AI検索で変わる購買とマーケティング
第2部 国内企業のLLMO推進の壁(調査データ)
第3部 AI回答は「設計」できる(構造理解+実証)
第4部 LANY式4ステップフレームワーク
第5部 投資判断とリスク管理

2. 検索行動の変化

🔍

Search → Obtain

「探す」から「得る」への移行。ユーザーはサイトを巡回せず、AIから直接答えを得る。

💰

デルフォイ的コスト

認知・操作・時間のコストがAIで劇的に低下。情報取得のハードルがほぼゼロに。

🏆

ゴールの転換

「サイト流入」→「AIからの推奨」が新しい勝ち筋。AIの推奨 = 新時代のブランド。

ブランドの意味変容

「人間の第一想起」→「AIの推奨」がブランドの意味に。AIが比較で使える「強いファクト」を持つことがブランド力になる。

  • • レイクの「365日無利息」= AIが比較で使える強いファクトを商品に実装した事例
  • • 星野リゾート = ファクトをAIに渡すためのデータ基盤投資

3. AI回答の生成プロセス

AIは検索結果を「要約」しているのではない。3ステップで「推奨」を組み立てている。

1

推論

問いを分解し「良い答えの設計図」を作る。比較軸・候補リストを内部的に構築する。

→ 記事側の対策: CEP・KBFの設計

2

調査

事前学習(parametric memory)+ RAG(外部検索)で情報収集。裏で複数の検索を走らせる(クエリファンアウト)。

→ 記事側の対策: RAG参照面の確保

3

生成

集めた情報を統合し、推奨付きで回答を生成。根拠が揃っていれば「言い切って」推奨する。

→ 記事側の対策: RTB(言い切れる根拠)の配置

AIの3段階フィルター

採用される(参照される) 候補に入る 選ばれる(推奨される)

4. LANY式4ステップ

記事の企画段階で、以下の4つを順番に設計する。これが白書のコア。

STEP 1

CEP(入口)の設計

読者がAIに投げる「相談」= 記事の入口を定義する。

  • • 「この記事はどんなAI相談で推奨されたいか」を1行で書く
  • • AIがその相談を受けたとき、どんな比較軸で候補を整理するか考える
STEP 2

KBF(比較軸)の特定

AIが比較・推奨に使う判断軸を記事内に明確に配置する。

  • • 条件(給料、時給、勤務時間等)を比較表で提示
  • • 「○○ vs △△」の比較を明示的にセクション化
  • • 「人による」ではなく条件分岐で答える
STEP 3

RAG参照面の確保

AIが裏で走らせる関連検索(クエリファンアウト)に対応する。

  • • メインKW + AIが裏で検索しそうな関連クエリもカバー
  • • Island Test: 各H2が単独で引用されても意味が通じる
  • • FAQで フォローアップ質問に先回り
STEP 4

RTB(根拠)の配置

AIが「言い切る」ために必要な根拠を、拾える形で配置する。

  • • 数値化された実績(統計、相場、割合 + 出典)
  • • 条件が明確な情報(料金、要件、制約)
  • • 第三者の裏付け(法令条文、官公庁データ)
  • • 具体的な事例(課題→行動→結果)

クエリファンアウトとは

AIは1つの質問に対して裏で複数の検索を走らせる。

ユーザー: 「ラウンジ嬢 始め方」

↓ AIが裏で生成する検索クエリ

• 「ラウンジ 給料」

• 「ラウンジ キャバクラ 違い」

• 「ラウンジ 面接」

• 「ラウンジ 服装」…

対策: FAQセクション・H3小見出し・内部リンクで関連クエリの受け皿を用意する

5. AI別 信頼性シグナル

各AIが記事を優先引用する基準は異なる。AIOリサーチ(2026年実施)から得た知見。

# Gemini Pro ChatGPT Pro Claude
1 安全性とリスク喚起の網羅性 客観的で専門家が監修 法的正確性(条文引用)
2 著者・監修者の専門性 最新データ・法的根拠 データの出典明記
3 非アフィリエイト性 公的相談窓口の案内 更新日の明記
4 情報源の信頼性 バランスのとれた内容 中立的トーン
5 情報の具体性と現実性 著者・情報源の明確さ 相談窓口リンク

「信頼できない」と判断される要素

  • 全AI共通: 著者匿名、出典不明、情報が古い、アフィリエイト過剰
  • Gemini: 記事の収益構造が安全性より優先されている
  • ChatGPT: 感情的表現・偏見、誤字脱字
  • Claude: グレーゾーンを断定する記事

参照ソース傾向

  • 優先: 警察庁・官公庁、弁護士ドットコム、NHK・大手報道、支援団体
  • 排除: パパ活アプリ公式、アフィリエイトサイト、個人ブログ
  • 新傾向: ChatGPTがモデルプレス・マイナビウーマン等を参照し始めた

6. 記事の必須チェックリスト

構造面

  • 冒頭50-70字で検索意図への直接回答
  • 各H2がIsland Test通過(単独引用可能)
  • FAQセクション(3-5問)
  • JSON-LD(Article + FAQ + HowTo)
  • 更新日を明記

信頼性面

  • 数値には必ず出典(e-Stat、官公庁、条文番号)
  • 法令テーマでは具体的条文番号を記載
  • 専門家監修を明記(該当する場合)
  • 非アフィリエイト

LLMO最適化面

  • CEPを定義したか
  • KBFを配置したか(比較表・条件分岐)
  • RTBを配置したか(数値・条件・条文・事例)
  • 関連クエリ対応(FAQやサブセクション)

センシティブテーマ特有

  • 冒頭にスタンス明記(特定の行動を推奨しない旨)
  • 「出口」セクション必須(代替案・相談窓口)
  • 男女別セクション(該当テーマの場合)
  • 公的相談窓口リンク

7. 投資3段階とピンク研究所の立ち位置

Level 1

統制: モニタリング

AIでの言及・推奨状況を定期的に監視する(全企業向け)

ピンク研究所はここ
Level 2

攻略: オウンドメディア最適化

主戦場はpink-labo.comの記事最適化。既存記事のリライト + 新規記事でのLLMO設計。

  • 1. 記事をAIが比較・推奨に使いやすい構造に整える(KBF + RTBの明確化)
  • 2. 狙うCEPに対して、AIのRAGで拾われるコンテンツを用意する
  • 3. FAQ・条件比較表・数値データを充実させる(AIが「言い切れる材料」を増やす)
Level 3

覇権: トリプルメディア総力戦

PR・第三者メディアへの露出まで含めた全面展開(エンタープライズ向け。今はやらなくてよい)

実証データ(白書第3部)

  • • 美容クリニック領域 x 2 + BtoB SaaS領域の3事例で介入効果を検証
  • • CEP→KBF→RAG→RTBの順で整備すると、AI推奨が動くことを確認
  • • LANYの実績: 問い合わせの17%が生成AI経由(2026年時点)

8. AIが「足りない」と言っている情報

全AI(Gemini / ChatGPT / Claude)が「情報が不足している」と回答した領域。ピンク研究所にとっての記事化チャンス。

1

客観的な統計データ

参加者数、年齢分布、月収中央値

2

法的グレーゾーンの具体的判例

実際の判例・処分事例

3

長期的な追跡調査

経験者の「その後」

4

贈与税 vs 所得税の線引き

国税庁の公式見解がない

5

「出口戦略」記事

卒業後のキャリアプラン

6

国際比較

海外の法的・社会的比較

7

プラットフォーム運営者視点

アプリ運営側の安全対策

Source: LANY LLMO白書(2026-02-27、72p)+ AIOリサーチレポート

Last updated: 2026-03-05