Back to index

AIは優しすぎる──本音を引き出すRed Teamプロンプトという考え方

AIは、基本的にとても優しい。

ChatGPT や Copilot を日常的に使っていると、それを強く感じる場面がある。「このアイデアどう思う?」と聞けば、「良い視点ですね」「可能性があります」「工夫すれば実現できそうです」と、まず否定しない。

これは欠点ではない。むしろ人を傷つけない・使い続けてもらうための設計思想としては、極めて正しい。

ただし──

本当に困るのは、失敗したくない場面だ。

こうした局面では、「優しさ」はむしろノイズになる。 欲しいのは共感ではなく、本音・欠陥・破綻点だからだ。


なぜAIは本音を言わないのか

今のAIは、人間の言葉や反応を大量に学習して作られている。 そして多くの場合、人間が好むのは「否定されない返答」だ。

結果としてAIは、次のようなバイアスを持つ。

YouTube やブログでも、「AIは厳しいフィードバックを出さない」「ダメな案でも褒めてくる」という指摘を見かける。 これはモデルの能力不足ではなく、設計上の性質だ。

つまり、

AIが優しいのではなく、優しく振る舞うように作られている

というだけの話でもある。


批判は「引き出す」もの

ここで重要なのは、 AIは批判できないわけではないという点だ。

問い方・役割・前提を変えれば、AIは驚くほど冷静で厳しい視点を出してくる。

そこで考えたのが、

自分を批判するためのAIプロンプトを作るAI

という発想だった。

その中核にあるのが、Red Team(レッドチーム)という考え方だ。


Red Teamとは何か

Red Team はもともと、セキュリティや軍事の世界で使われる概念だ。

あえて「壊す役」を用意し、 どこが破れるかを事前に洗い出す

この発想を、アイデア・企画・思考そのものに適用したのが、 Red Teamプロンプトだ。


Red Teamプロンプトの基本思想

Red Teamプロンプトでは、AIに次の役割を与える。

つまり、AIを「優秀な相談相手」ではなく、 失敗を専門に探す第三者として扱う。


Red Teamプロンプト(考え方だけ)

ここでは全文を載せない。 大事なのは文面そのものではなく、 Red Team プロンプトが満たしている条件だ。

この3点が揃っていれば、 細かな言い回しは環境や用途に合わせて変えていい。

具体的な文面は、後半の「おまけ」にまとめて載せる。


Red Teamプロンプトの実例(M&Aコンサルの場合|入出力イメージ)

ここで、実際に Red Team GPTs に投げた簡単な例を紹介する。

一見すると合理的で、現場でも「やりそう」な新規事業案だが、 Red Team視点ではどこが危険になるのかがはっきり見える。

入力例(人が与える情報)

【前提】
中堅のM&Aコンサルティング会社が、
生成AIを活用した「簡易デューデリジェンス支援サービス」を新規事業として立ち上げる。

【概要】
- 中小企業向けM&A案件を対象
- 財務資料・契約書・議事録などをAIに読み込ませ、
  リスクポイントを自動でサマリー化
- 初期は既存顧客向けのオプションサービスとして提供
- コンサルタントの工数削減と差別化を狙う

【狙い】
- 案件処理スピードの向上
- 若手コンサルの品質ばらつき低減
- 「AI活用型M&Aファーム」というブランド確立

出力例(Red Team が返すもの)

【致命的リスク(優先度 高)】
- AIアウトプットの誤読・過信による判断事故
- なぜ現実的に起きるか:
  デューデリジェンスでは「書いていないこと」「文脈」が重要になる。
  AIの要約はそれらを構造的に落としやすく、
  若手や忙しいコンサルほどAI結果を事実として扱いがち。
  判断ミスが起きた場合、責任は最終的に会社側に集中する。

【見落とされがちなリスク(優先度 中)】
- 顧客側の期待値が過剰に膨らむ
- なぜ気づきにくいか:
  「AIがチェックした」という言葉が、
  実際以上の網羅性・正確性を想起させる。
  契約書で責任範囲を限定しても、
  トラブル時には説明不足・誤認を理由に信用問題へ発展しやすい。

【後から効いてくるリスク(優先度 低)】
- コンサルタントの判断力低下
- 放置した場合の影響:
  AI要約に依存する運用が定着すると、
  人間側が「読み切る力」を失う。
  結果として難易度の高い案件ほど対応できなくなり、
  事業の上限が下がる。

この例で分かる通り、 Red Teamプロンプトは「アイデアを否定する」ためのものではない。

失敗するとしたら、どこから壊れるかを先に見せるための道具だ。


おまけ:すぐ使える簡単な Red Team プロンプト

ここまでの実例を見て、「自分のテーマでも一度試してみたい」と思った人向けに、 最小構成の Red Team プロンプトを載せておく。

あなたは Red Team Reviewer です。

このアイデア/計画を
「成功させる」ためではなく、
「半年以内に失敗するとしたらどこか」
という前提でレビューしてください。

共感や励ましは不要です。
最も現実的で致命的な失敗理由を、
理由付きで指摘してください。

もっと厳しくしたい場合

遠慮や配慮は一切不要です。
最も確実に失敗させる一点に絞ってください。
その一点だけで、この計画が止まる理由を説明してください。

観点を増やしたい場合(実務向け)

以下の観点を必ず含めてください。
- 人間がサボる・誤解する前提での破綻
- 法務・契約・説明責任のリスク
- 顧客や関係者の期待値が暴走する可能性
- 半年後に表面化する運用コスト

注意点:万能ではない

Red Team は強力だが、万能ではない。

判断直前・公開直前など、 使う場面を限定するのが正解だ。


最後に:GPTsでそのまま使う

この記事で紹介した Red Team プロンプトは、 GPTs としてそのまま使える形で公開している。

毎回プロンプトを書くのが面倒になったら、 以下のリンクからアクセスすれば、 同じ思想・制約・出力形式のままレビューできる。

👉 https://chatgpt.com/g/g-697bb6f3ca088191af5792055d523337-an-nored-team

AIに褒められる必要はない。 壊れるなら、先に壊れ方を知っておくだけだ。