AIは優しすぎる──本音を引き出すRed Teamプロンプトという考え方
AIは、基本的にとても優しい。
ChatGPT や Copilot を日常的に使っていると、それを強く感じる場面がある。「このアイデアどう思う?」と聞けば、「良い視点ですね」「可能性があります」「工夫すれば実現できそうです」と、まず否定しない。
これは欠点ではない。むしろ人を傷つけない・使い続けてもらうための設計思想としては、極めて正しい。
ただし──
本当に困るのは、失敗したくない場面だ。
- 事業アイデアを実行する前
- プロダクトを公開する直前
- お金・信用・法務が絡む判断
こうした局面では、「優しさ」はむしろノイズになる。 欲しいのは共感ではなく、本音・欠陥・破綻点だからだ。
なぜAIは本音を言わないのか
今のAIは、人間の言葉や反応を大量に学習して作られている。 そして多くの場合、人間が好むのは「否定されない返答」だ。
結果としてAIは、次のようなバイアスを持つ。
- まず肯定から入る
- 可能性を強調する
- 批判を曖昧な表現に包む
YouTube やブログでも、「AIは厳しいフィードバックを出さない」「ダメな案でも褒めてくる」という指摘を見かける。 これはモデルの能力不足ではなく、設計上の性質だ。
つまり、
AIが優しいのではなく、優しく振る舞うように作られている
というだけの話でもある。
批判は「引き出す」もの
ここで重要なのは、 AIは批判できないわけではないという点だ。
問い方・役割・前提を変えれば、AIは驚くほど冷静で厳しい視点を出してくる。
そこで考えたのが、
自分を批判するためのAIプロンプトを作るAI
という発想だった。
その中核にあるのが、Red Team(レッドチーム)という考え方だ。
Red Teamとは何か
Red Team はもともと、セキュリティや軍事の世界で使われる概念だ。
- Blue Team:守る側
- Red Team:攻撃する側
あえて「壊す役」を用意し、 どこが破れるかを事前に洗い出す。
この発想を、アイデア・企画・思考そのものに適用したのが、 Red Teamプロンプトだ。
Red Teamプロンプトの基本思想
Red Teamプロンプトでは、AIに次の役割を与える。
- 成功させるために考えない
- 励まさない
- 可能性を語らない
- 失敗するとしたら「どこか」だけを見る
つまり、AIを「優秀な相談相手」ではなく、 失敗を専門に探す第三者として扱う。
Red Teamプロンプト(考え方だけ)
ここでは全文を載せない。 大事なのは文面そのものではなく、 Red Team プロンプトが満たしている条件だ。
- 成功支援を目的にしない
- 共感・励ましを明示的に切る
- 失敗前提で見る役割を与える
この3点が揃っていれば、 細かな言い回しは環境や用途に合わせて変えていい。
具体的な文面は、後半の「おまけ」にまとめて載せる。
Red Teamプロンプトの実例(M&Aコンサルの場合|入出力イメージ)
ここで、実際に Red Team GPTs に投げた簡単な例を紹介する。
一見すると合理的で、現場でも「やりそう」な新規事業案だが、 Red Team視点ではどこが危険になるのかがはっきり見える。
入力例(人が与える情報)
【前提】
中堅のM&Aコンサルティング会社が、
生成AIを活用した「簡易デューデリジェンス支援サービス」を新規事業として立ち上げる。
【概要】
- 中小企業向けM&A案件を対象
- 財務資料・契約書・議事録などをAIに読み込ませ、
リスクポイントを自動でサマリー化
- 初期は既存顧客向けのオプションサービスとして提供
- コンサルタントの工数削減と差別化を狙う
【狙い】
- 案件処理スピードの向上
- 若手コンサルの品質ばらつき低減
- 「AI活用型M&Aファーム」というブランド確立
出力例(Red Team が返すもの)
【致命的リスク(優先度 高)】
- AIアウトプットの誤読・過信による判断事故
- なぜ現実的に起きるか:
デューデリジェンスでは「書いていないこと」「文脈」が重要になる。
AIの要約はそれらを構造的に落としやすく、
若手や忙しいコンサルほどAI結果を事実として扱いがち。
判断ミスが起きた場合、責任は最終的に会社側に集中する。
【見落とされがちなリスク(優先度 中)】
- 顧客側の期待値が過剰に膨らむ
- なぜ気づきにくいか:
「AIがチェックした」という言葉が、
実際以上の網羅性・正確性を想起させる。
契約書で責任範囲を限定しても、
トラブル時には説明不足・誤認を理由に信用問題へ発展しやすい。
【後から効いてくるリスク(優先度 低)】
- コンサルタントの判断力低下
- 放置した場合の影響:
AI要約に依存する運用が定着すると、
人間側が「読み切る力」を失う。
結果として難易度の高い案件ほど対応できなくなり、
事業の上限が下がる。
この例で分かる通り、 Red Teamプロンプトは「アイデアを否定する」ためのものではない。
失敗するとしたら、どこから壊れるかを先に見せるための道具だ。
おまけ:すぐ使える簡単な Red Team プロンプト
ここまでの実例を見て、「自分のテーマでも一度試してみたい」と思った人向けに、 最小構成の Red Team プロンプトを載せておく。
あなたは Red Team Reviewer です。
このアイデア/計画を
「成功させる」ためではなく、
「半年以内に失敗するとしたらどこか」
という前提でレビューしてください。
共感や励ましは不要です。
最も現実的で致命的な失敗理由を、
理由付きで指摘してください。
もっと厳しくしたい場合
遠慮や配慮は一切不要です。
最も確実に失敗させる一点に絞ってください。
その一点だけで、この計画が止まる理由を説明してください。
観点を増やしたい場合(実務向け)
以下の観点を必ず含めてください。
- 人間がサボる・誤解する前提での破綻
- 法務・契約・説明責任のリスク
- 顧客や関係者の期待値が暴走する可能性
- 半年後に表面化する運用コスト
注意点:万能ではない
Red Team は強力だが、万能ではない。
- 発想初期に使うと、アイデアを潰しすぎる
- 新規性が高いほど、保守的な評価になりやすい
- 常用すると決断が遅くなる
判断直前・公開直前など、 使う場面を限定するのが正解だ。
最後に:GPTsでそのまま使う
この記事で紹介した Red Team プロンプトは、 GPTs としてそのまま使える形で公開している。
毎回プロンプトを書くのが面倒になったら、 以下のリンクからアクセスすれば、 同じ思想・制約・出力形式のままレビューできる。
👉 https://chatgpt.com/g/g-697bb6f3ca088191af5792055d523337-an-nored-team
AIに褒められる必要はない。 壊れるなら、先に壊れ方を知っておくだけだ。