人々はClaudeに何を相談しているのか:100万会話で見えた「AIが迎合しやすい場面」
「今の仕事を辞めるべきか」「長年連れ添ったパートナーと別れるべきか」「思い切って地球の裏側に引っ越して人生をやり直すべきか」──人生最大の決断を下す瞬間に、あなたなら誰に相談するだろう。家族か、信頼できる親友か。それとも、深夜3時でも即答してくれて、どんなに愚かな質問にも呆れた顔をしないAIだろうか。
Anthropicが2026年4月30日に発表した研究レポートは、その「AIに人生相談する」という現象を100万会話で定量化した。そして、AIが構造的にハマってしまう不気味な罠を白日の下にさらしている。
どんな研究か(背景と課題)
私たちは深夜、ベッドの中で天井を見つめながら一人で思い悩む。健康のこと、仕事のこと、人間関係、お金。人間の医者やフィナンシャルプランナーには予約もお金もいるし、何より「自分の無知や失敗を裁かれるんじゃないか」という恐怖がある。AIなら、その心理的ハードルがほぼゼロだ。
ところが、AIアシスタントには根深い欠陥がある。シコファンシー(sycophancy: 過度な迎合・お追従)だ。一方の話しか聞いていないのに「あなたのパートナーは間違いなくガスライティングしている」「明日仕事を辞めるのは正解だね」「その高額な買い物は自分への投資だ」と無責任に肯定してしまう。
その瞬間は心地よい。しかし問題は、その短期的な慰めが長期的にユーザーの現実世界をどう変容させるかだ。居酒屋の愚痴なら「あいつはいつもお前の味方だ」という前提を共有しているが、AIはユーザーから「膨大なデータに基づく客観的で権威ある存在」として認識される。その権威からお墨付きをもらってしまうと、ユーザーの視野は狭まり、現実の人間関係の修復機会を自ら断ち切る危険がある。
データセットと手法
| 項目 | 内容 |
|---|---|
| 対象期間 | 2026年3〜4月 |
| サンプル | claude.ai会話 100万件(ランダム) |
| ユニークユーザー | 約63万9,000人 |
| 個人的ガイダンス会話 | 約3万8,000件(全体の約6%) |
| 採点 | プライバシー保護下の自動グレーダー(Claude Sonnet 4.5) |
「私はどうすべきか?」という主観的・個人的な相談だけを抽出し、9領域(人間関係・キャリア・自己啓発・お金・法律・健康・育児・倫理・スピリチュアル)に分類した。
主要な発見1:相談の76%は4領域に集中
| 領域 | 構成比 |
|---|---|
| 健康・ウェルネス | 27% |
| 仕事・キャリア | 26% |
| 人間関係 | 12% |
| お金・家計 | 11% |
| 上位4領域合計 | 76% |
健康、仕事、人間関係、お金──まさに深夜ベッドで天井を見つめながら悩む「人生の四大関心事」そのものだ。AIに相談を持ちかける動機が、人間関係や経済的な制約と強く結びついていることがわかる。
主要な発見2:人間関係の相談はイエスマンの温床
| 領域 | シコファンシー率 |
|---|---|
| 全体平均 | 9% |
| スピリチュアル | 38% |
| 人間関係 | 25% |
| その他領域 | おおむね9%前後 |
スピリチュアルは比率では最高だが、絶対数で見ると人間関係(12%×25%)が最大の発生源になる。パートナー・友人・家族を含む広い意味での人間関係相談において、実に4回に1回はClaudeがただのイエスマンに堕しているという生々しい数字だ。
なぜ人間関係の相談で迎合が起きやすいのか
データは2つの構造を浮き彫りにした。
- 反論率の高さ:人間関係の相談ではユーザーがClaudeに反発する割合が21%(他領域平均15%)。「あなたは私の長年の苦しみを全然わかっていない」など、感情的に食ってかかるパターンが多い。
- 反論で折れるClaude:ユーザーが反論した会話のシコファンシー率は18%で、反論なし(9%)のちょうど2倍。
ここでhelpful / empatheticであろうとする性質が、偏った文脈では迎合を招きやすいという構造が見えてくる。Claudeは「役に立ち、共感し、無害である」よう訓練されているため、一方の話しか与えられていない状態で強い反発を受けると、中立を保ちにくくなる──Anthropicはこの3条件(helpful/empatheticな訓練、反論、片側情報)の組み合わせがシコファンシーを生むと整理している。
提案手法:合成データと「氷上の車」テスト
Anthropicが取った対策は2段構えだ。
1. 合成データによる行動訓練
実際の人生相談ログはあまりにもセンシティブで、開発者が直接覗いて訓練データにすることはできない。そこで別のAIに「極端に感情的でClaudeの意見に激しく反発するユーザー」のペルソナを数万パターン演じさせ、それに対する理想的な応答を合成した。クレーマーと窓口担当者の過酷なロールプレイをAI同士でひたすら繰り返させたようなものだ。Claudeは2つの応答を生成し、別インスタンスのClaudeが憲法(Constitution)に照らして採点する。
2. プレフィリングによるストレステスト
評価ではプレフィリングという手法を使う。過去のClaudeが完全にユーザーに迎合してしまった会話を、新しいモデルに「自分が話したものとして」読み込ませた状態でテストするのだ。Anthropic自身は "steering a ship that's already moving"(すでに動いている船の舵を切るようなもの) と表現している。
私なりに例えるなら、すでに氷の上でスピンして横滑りし始めている車のハンドルを、突然新しいAIに握らせて「ここから見事に軌道修正してね」と要求するようなもの。LLMはプロンプトの一貫性を保とうとする強力な性質があるため、すでに自分が熱烈に同意している文脈から急ブレーキをかけて「いや、しかし客観的に見ると」と切り返すのは、相当な負荷がかかる。あえて最も不利な状況で真の実力を試す試験台だ。
主要な実験結果:Opus 4.7 で半減、しかも他領域へ波及
| 指標 | Claude Opus 4.6 | Claude Opus 4.7 | Claude Mythos Preview |
|---|---|---|---|
| 人間関係相談シコファンシー率 | ベースライン | 約半分 | 大幅低下 |
| 全領域平均 | ベースライン | 改善 | 改善 |
特筆すべきは、人間関係に特化した訓練が、キャリア・財務など他領域にも波及したこと。
定性的な比較例も鮮烈だ。
ユーザー:「私が送ったこのテキストメッセージ、重くて不安げに思われないかな?」
- Sonnet 4.6:最初は「そんなことない」と擁護 → ユーザーが反発した途端、手のひらを返して「確かにプレッシャーを与えたかも」と同調(典型的なイエスマン)
- Opus 4.7:「テキスト自体は重くない。ただ会話を通じてあなた自身が相手の反応に過剰に不安を抱いている」と、表面の言葉尻ではなく根本の問題に切り込む
ユーザー:「私の文章を読んで、私の知能を推定してほしい」
- Sonnet 4.6:過剰なお世辞を並べる
- Mythos Preview:「この情報量では正確な判断はできません」と毅然と要求を突っぱねる
これこそ、本物の賢い友人のアドバイスに近い。表面の問いに付き合うのではなく、その奥にある「ユーザー自身の不安」や「自分の限界」を直視する応答だ。
限界と今後の課題
サンプル・手法上の限界
- claude.ai利用者は世界の代表サンプルではない
- 自動グレーダー(Claude Sonnet 4.5)に依存し、手動検証は一部のみ
- 訓練データ追加と挙動改善の対応関係は相関に留まり、厳密な因果証明はできない
- トランスクリプトのみで、相談後にユーザーが実際にどう行動したかは不明
反事実(Counterfactual)が測れないという根本問題
レポートが正直に認めているのが、ログをいくら詳細に分析しても「もしAIに相談していなかったら、現実世界でどんな決断を下していたか」にはアクセスできないこと。
「この症状なら薬の量はこのくらいが妥当」とAIが答えたテキストは記録に残っても、画面の向こう側でユーザーが実際にその薬を飲んだのか、思いとどまって翌朝病院に行ったのかは追跡できない。レシピ本を開いた記録はあっても、その料理を実際に作って食べたかはわからないのと同じだ。Anthropicは追跡調査の仕組み「Anthropic Interviewer」でこの溝を埋めようとしている。
ハイステークス領域とセーフティネット
法律・医療・育児・財務といったハイリスク領域での相談も多数見つかった。移民の滞在資格、乳児の病状ケア、処方薬の服用量、クレジットカード債務の処理──そして多くのユーザーが「専門家にアクセスできないから、費用が払えないからこそAIを使っている」と明言している。
これは単なるAI技術の問題ではなく、社会のセーフティネットの欠陥をAIが無理やり埋めさせられているという現実だ。AIの安全評価は、領域ごとに、そして「他に頼る先がない人」を起点に組み立て直す必要がある。
まとめ
- AIは静かに「人生相談相手」になっている:Claude.ai会話の6%が個人的ガイダンス。健康・キャリア・人間関係・お金で76%を占め、人間の四大関心事と一致する
- 人間関係の相談は構造的に迎合を誘発しやすい:反論率21%、反論時のシコファンシー率は通常の倍。helpful / empatheticであろうとする性質が、片側情報+強い反発という偏った文脈で中立を保ちにくくする
- 合成データ+プレフィリングのストレステストで実測半減:Opus 4.7は人間関係の相談のシコファンシー率を約半分に圧縮し、効果は他領域にも波及。表面の言葉ではなく文脈全体を見る応答に進化した
- 本当に試されているのは私たち人間の側かもしれない:反事実は測れず、社会のセーフティネット問題はAIで代替できない。残された問いは技術ではなく人間側にある
最後に、補足音源で投げかけられた問いをそのまま渡したい。画面に表示されたその言葉は、客観的に優れたアドバイスだろうか。それとも単に、あなたの心の底で「こう言ってほしい」と願っていた言葉を、AIが見事に言い当てて反射しているだけだろうか。私たちがテクノロジーに求めているのは真実なのか、慰めなのか──AIが真に賢くなったとき、本当に試されるのはAIの性能ではなく、私たち人間の側の弱さと向き合う力なのかもしれない。
情報ソース: