- 投稿日:2025/11/16
- 更新日:2025/11/16
「あなたは一流のマーケターです」「あなたは優秀な編集者として振る舞ってください」
AI、特にChatGPTを使い始めた頃、このような「役割を与える」プロンプト(指示文)を、誰もが一度は目にしたことでしょう。
実際、AIに役割を与えて思考を補正する方法は、ChatGPTが登場した初期、特にGPT-3.5の時代には非常に有効なテクニックでした。今でもSNSや多くの解説本で、この「お決まりの書き出し」がテンプレートとして広く使われています。
しかし、です。 AIの進化は想像を絶する速さで進んでいます。GPT-4、そしてそれ以降の最新モデルを日常的に使っている方の中には、こう感じている人も多いのではないでしょうか。
「最近、この“役割指定”が、むしろAIの性能にブレーキをかけている気がする…」
なぜ、かつての最適解が、今や思考の“足かせ”になりつつあるのか。 その決定的な「ズレ」こそが、この記事のテーマです。
■1. 過去:GPT-3.5時代のAIは“初日バイトさん”だった

私たちが「AIすげえ!」と熱狂したGPT-3.5の時代。
今振り返ると、当時のAIは
「飲み込みは早いが、現場経験ゼロの初日バイトさん」
のようなものでした。
彼(彼女?)は、膨大な知識は持っていても、
それを「いつ」「どの文脈で」使えばいいのかが分かりませんでした。
手順を細かく書かないと混乱しやすい:「良い感じにお願い」では固まってしまい、「まずA、次にB、最後にCを確認」というマニュアルが必要でした。
役割を固定すると安定した:「友人として」「上司として」と役割を決めないと、言葉遣いや論理の一貫性が保てませんでした。
細かい条件指定は、安全な戦い方だった:暴走させないため、期待から外れないために、私たちはAIの思考を「制限」することで、なんとか実用レベルに導いていたのです。
この時代の最適解が、まさしく「あなたは一流の◯◯です」という、役割とマニュアルをきっちり定義する「命令型プロンプト」だったわけです。
■2. 現在:GPT-4〜5世代は「優秀な大学生アシスタント」レベルに進化

状況は一変しました。
GPT-4→つい最近登場したGPT-5.1などのAIは、
あの「初日バイトさん」とは比べ物になりません。
彼らはもはや、「複数の専門分野でトップクラスの成績を修める“優秀な大学生アシスタント”」と呼ぶべき存在です。
基礎学力が桁違い:MMLU(大規模マルチタスク言語理解)のような主要な学力ベンチマークで、人間の平均を遥かに超え、専門家レベルの正答率を叩き出しています。
専門性も向上:米国の司法試験や医師国家試験に合格するレベルに達しており、専門科目でも人間の上位層に匹敵する知識を持っています。
文脈把握・構造化・再定義の能力が飛躍:ここが最も重要です。与えられた情報の断片から、「あなたが本当に聞きたいことは、こういうことですよね?」と、問題の本質を再定義する能力が明らかに向上しました。
ただし、ここで絶対に誤解してはいけないことがあります。
彼らは人間のような「性格」「経験」「価値観」を持っているわけではない、ということです。
あくまで「自律的に情報を処理し、構造化し、推論する能力」が、
比喩として「優秀な大学生レベル」に達した、という扱いが最も適切です。
■3. だから“命令型プロンプト”は時代遅れになりつつある

さて、ここまでの話でピンと来た方も多いでしょう。
あなたがもし、前述の「優秀な大学生アシスタント」に仕事を頼むとしたら、どうしますか?
「君は一流のインターンだ。今から言う手順で、
1. 〇〇を調べ、
2. ××を分析し、
3. 以下のフォーマットで報告しろ」
……こんな指示をしますか? もし本当に相手が優秀なら、これは最悪の指示です。
相手は「(言われた通りにはやるけど、もっと良いやり方があるのに…)」と、能力の10%も発揮してくれないでしょう。
最新AIは、細かい「指示」や「手順」を押し付けられるよりも、考えるための「材料」を渡されるほうが、圧倒的に高いパフォーマンスを発揮します。
企画・調査・戦略など、答えが1つでない仕事は、まずアイデアを広げる“発散”フェーズが重要です。
従来の命令型プロンプト(「あなたは一流の〜」)は、AIの思考を最初から狭める“収束”フェーズ向きです。
つまり、私たちがAIの力を借りたい「企画」や「戦略」といった
創造的な作業において、旧来の命令型プロンプトは、
AIが持つ本来の発想の幅を“殺してしまう”危険性があるのです。
■4. AIの進化で必要になった“共同思考型”のアプローチ

では、どうすればいいのか。 OpenAIの公式ドキュメントでも推奨されているのは、AIに命令するのではなく、「対話を重ねるスタイル」です。
これは、心理学で「外在化(Externalization)」と呼ばれるアプローチと非常に似ています。
人間は、頭の中だけで物事を考えていると混乱します。
それを誰かに話したり、紙に書き出したり(=外在化する)ことで、
初めて「あ、自分はこんなことを考えていたのか」と客観的に認識できます。
まさにこれです。
AIが賢くなったことで、私たちはAIを「指示する対象」から、
「思考を外在化する壁打ち相手」として使えるようになりました。
デザイン思考でいうところの
「発散(アイデアを広げる)→収束(まとめる)」
というプロセスを、AIが強力に補助できるようになったのです。
結論はシンプルです。
「やり方」や「手順」を命令するのではなく、
「材料」や「断片」を渡して、一緒に考えてもらう。
これが、AIの進化によって必要になった「共同思考型」のアプローチです。
■5. 実例:旧時代 vs 新時代のプロンプト

ここで、具体的な例を見てみましょう。
テーマは「社内の若手(入社3年目まで)の離職率が高い問題」の対策を考える、とします。
悪い例(旧時代:命令型)
あなたは日本トップクラスの人事コンサルタントです。 以下の条件に基づき、若手の離職率を低下させるための施策を3つ提案してください。【手順】1.問題の背景を分析する2.具体的な施策を立案する3.期待される効果を記述する【条件】・ターゲット:入社3年目までの若手社員・施策:研修制度の改善に関すること・コスト:1人あたり年間5万円以内
→ 出てくる答え: AIは指示に忠実に、
「メンター制度の強化」
「オンライン学習プラットフォームの導入」
「1on1ミーティングの定期化」
といった、どこかで聞いたような無難な答えを返してきます。
あなたの指示の延長線にある、想定内の答えしか出てきません。
良い例(新時代:共同思考型)
ちょっと壁打ち相手になってほしい。今、社内のことで悩んでいる。【事実の断片】・ここ数年、3年目までの若手の離職率が20%を超えている。・人事評価はむしろ甘くしているつもり。・リモートワークが定着し、部署間の交流が激減した。【私の気づき・違和感】・どうも部署間のコミュニケーション不足が根本にある気がする。・従来の「ビジネスマナー研修」や「スキルアップ研修」は、今の時代の満足度(エンゲージメント)に合っていないかもしれない。【目的の揺れ・仮説】・単にスキルを教えるより、帰属意識や「横のつながり」を高める方が先決なのでは?・いっそ、業務と関係ないゲーム感覚の交流イベントの方が効果的だったりしないか?上記の断片的な情報と考えを読んで、ここから一緒に「真の課題は何か」「どんな対策の方向性がありそうか」を考えてほしい。
→ 出てくる答え: AIは、あなたが提示した「断片」をフルに活用します。「離職率」
「コミュニケーション不足」
「研修のミスマッチ」
「帰属意識」
といったキーワードを拾い上げ、それらの関係性を分析し始めます。
「ご提示いただいた情報から察するに、真の課題は『スキル不足』ではなく、『心理的孤立』と『企業文化への不適合』にある可能性が高いですね。だとすれば、対策の方向性は『研修(Teaching)』ではなく、『コミュニティ醸成(Connecting)』にシフトすべきかもしれません。例えば…」
このように、AIはあなたの思考の断片から“問題設定”そのものを再構築し、あなた一人では思いつかなかったような、鋭い視点や分析を提示してくれるのです。
■6. なぜ断片を渡すだけで成果が上がるのか

この「共同思考型」が、なぜ従来の「命令型」より優れた成果を出すのか。理由は4つあります。
AIの理解力が上がり、材料から“問題設定”を再構築できるようになった 彼らはもはや「指示待ち」ではありません。断片的な情報から文脈を読み取り、「本当の問題はここだ」と仮説を立てる能力を持ちました。
人間は「話す」だけで整理が進む そもそも人間は、自分の頭の中にある情報をすべて完璧に保持できません。AIに壁打ち(外在化)するだけで、自分でも気づかなかった思考の矛盾や、新しいアイデアのタネが見つかります。
「発散→収束」が、人間の創造プロセスに合っている いきなり完璧な指示(収束)をしようとするから無理が出ます。まず断片を投げてAIと発散させ、出てきた視点をもとに方向性を決め(収束)、最後にAIに清書させる。この流れが、最も自然で強力です。
細かい指示は、むしろAIの分析力を“封じる” 「優秀なアシスタント」にマニュアルを押し付けると、彼はマニュアル通りにしか動かなくなります。AIの「自主的な分析力」や「推論力」を活かしたいなら、余計な制約(指示)はしない方が賢明です。
■7. 実践ステップ(今日からできること)

この「共同思考型」プロンプトは、驚くほど簡単です。
頭の中にあることを、断片のまま書き出す
(事実、感情、疑問、違和感…なんでもOK)
その断片をAIにコピペする (完璧に整える必要は一切ありません)
最後に重要な言葉を加える
「ここから一緒に考えて」
「この状況をどう思う?」
「何か面白い視点はない?」
出てきた視点を読んで、方向性を決める
(AIの分析が的外れなら「その視点は違う」と対話すればOK)
方向性が決まったら、最後に制約を追加して清書させる
(「その方向性で、A4一枚にまとめて」)
これだけです。 「完璧なプロンプトを書かなきゃ…」というプレッシャーから解放され、AIとの対話が「発散→収束」の自然な思考プロセスに変わるのを体験できるはずです。
■8. 注意点:AIと人間の「線引き」

最後に、非常に重要な注意点です。
AIを「優秀な大学生アシスタント」と比喩しましたが、彼らは人格、経験、そして倫理的な価値判断を持ちません。
彼らのアウトプットは、膨大なデータから学習した「それらしい確率論」です。
「大学生」という比喩は、あくまで「学力や情報処理能力」のイメージとして使っているに過ぎません。
ある事柄が「倫理的に正しいか」「自社の理念に合っているか」「誰かを傷つけないか」といった責任ある判断は、必ず人間側が持つ必要があります。
AIは最強の「思考の壁打ち相手」ですが、「最終決定者」ではありません。この線引きを明確にすることが、AIに振り回されず、AIを使いこなすための絶対的な前提条件です。
■9. まとめ

「あなたは一流の◯◯です」というプロンプトは、AIがまだ未熟だった旧世代において、AIの性能を引き出すための有効な“おまじない”でした。
しかし、AIが「初日バイトさん」から「優秀な大学生アシスタント」へと知能を飛躍させた今、その“おまじない”は不要な「制限」となりつつあります。
これからの時代に必要なのは、AIに命令することではありません。 あなたの頭の中にある「断片」をそのまま渡し、「一緒に考えて」と頼むこと。
それこそが、賢くなったAIの本来の力を最大限に引き出し、あなた自身の思考を拡張する、AI時代のプロンプト設計の“新常識”なのです。
