BCGコンサルタントが説く効果的なAIプロンプト術

生成AIに期待通りの仕事をしてもらうには、こちらが入力する指示や質問、つまり「プロンプト」がカギを握る。天体物理学の博士号を持つBCGコンサルタントが、1日100回におよぶペースで生成AIと対話するなかで得た知見を紹介する。

近年のAIの飛躍的な進歩により、私は「AIファースト」のアプローチから大きな恩恵を受けている。ほとんどのタスクにおいて、常にAIを最初に使う選択肢として考えるのだ。AIを使えば、より速くできるだろうか? もっと成果を上げられるだろうか? 私は生成AIサービスと1日あたり30~100回ほど対話している。

もしAIが、10分かかる複雑な思考を2分に短縮してくれるのであれば、私は大規模言語モデル(LLM)を稼働させている間に別の課題に取り組む。タクシーの車内ではこれから出席する会議の準備をしつつ、生成AIと対話して自分の思考を研ぎ澄ませる。

しかし、AIが自動的に仕事を代行してくれるわけではない。LLMから優れた回答を得るには、厳密なアプローチが必要だ。これから示す8つのベストプラクティスは、私がこの数年間で得た特に有用な知見をまとめたものである。

必ず二度尋ねる

ChatGPTなど生成AIツールの出力に満足したとしても、そこで終わらないこと。必ずもう一度、プロンプトを与える習慣を身につけたほうがいい。AIとのやりとりは「答える/練り直す」の二段構えのゲームである。

数学的に見れば、2回プロンプトを投げることで正確な出力が得られる確率は大幅に高まる。仮に最初のプロンプトによる回答の誤り率が30%、2回目のプロンプトの誤り率が20%だとしよう。その場合、最終的な誤り率は6%にまで低下する。追加のプロンプトを1回与えるだけで6%になるなら、これは悪くない成果だ。

プロンプトはシンプルに

人間と同様に、LLMもマルチタスクを容易にこなせるわけではない。いっぺんにあまりにも多くのタスクを与えれば、出力の質は低下する。

この観察結果は、航空管制官に関する研究とも深く関わっている。研究によれば、認知負荷がわずかに増加するだけでもそのパフォーマンスは顕著に低下しうる。したがって、AIに考えさせたいことを段階的に分解し、論理的に整理したプロンプトを、順序だてて投げるべきである。

適切な順序で質問する

プロンプトの順番は、回答に大きく影響する。LLMは“自己回帰”的性質がある。すなわち、これまでに与えられた入力にもとづいて内容を生成するということだ。LLMはテキストを先頭から順に処理するため、次に何が入力されるかを知ることはできず、過去の入力にもとづいて最適な推測を行うことしかできない。だからこそ「生成してから精緻化する」、または「生成された出力を批評し、修正する」といったアプローチが合理的なのだ。

タスクを明確に指定する

LLMは人間の心を読むことはできない。要求が不明確であれば、予期しない出力が返ってくる可能性がある。こうした場合、最も一般的な原因は、十分に正確な指示や情報を与えていないことにある。

信頼性の高い出力を得るためには、依頼内容を明確かつ正確に示すことが重要になる。たとえば「詳細に」と「簡潔に」を同時に要求するような矛盾は避けるべきだ。求めることと求めないことを定義し、サンプルを提示することも有効である。プロンプトが数段落にわたっても構わない。タスクを形式化することで、出力の質は向上する。

提案の前に思考プロセスを提示させる

提案の前に、必ず思考プロセスの提示を求めたほうがいい。先に提案を出させてから根拠を求めると、その根拠は「後付けの正当化」になりがちなためだ。

まず考えられる選択肢を洗い出させ、それぞれの理由を提示させたうえで導かれた提案ならば、その結論は論理と証拠によってしっかり裏打ちされているといえる。

<例>
正: 思考プロセス→提案
「ボストンのイタリア料理店を比較し、最も良い店を選べ」

誤: 提案→根拠
「ボストンでおすすめのイタリア料理店をあげ、それがベストである理由を説明せよ」

まずは出力を優先し、その後に構造を考える

出力の構造について強い制約を課すと、正確性が損なわれやすい。LLMは文法的に正しいコードや整った形式の回答を生み出すことに注意を奪われ、肝心の課題解決に割ける認知的リソースが減少してしまうのだ。

重要なのは、内容と形式を切り分けることである。まずは内容を正しく出力させ、そのうえで追加のプロンプトによって構造を洗練化すればいい。

LLMは、思考を求められると同時にJSON(データの保存や交換に用いられるフォーマット)のような厳格な形式での出力を強制されると推論能力が低下しやすい。この落とし穴を避けるには、まず自然言語での回答を求め、その後に2度目のプロンプトでJSONへ変換させればよい。

回答は小分けにして求める

すべてのLLMには、生成できる出力量に限界がある。主要な商用LLMの多くは、どれほど強く要求してもおおよそ1,000語を超える出力は返さない。さらに、出力の質と長さは反比例する傾向にある。

これに対処するには、文書やコードを扱いやすい小さな単位に分割することが肝心だ。短い出力を積み重ねてつなぎ合わせれば、長いドキュメントを作成することは十分可能である。

ハルシネーション(誤った回答)に注意する

LLMは膨大なデータで訓練されているが、それでも事実でない詳細をでっち上げたり、入力を誤解することがある。出力はすべて注意深く精査すべきである。

ハルシネーションは、LLMに誤りがないかを直接ただすだけで見抜けることが少なくないため、次のように厳しく問いただすといいだろう。
「事実関係を踏まえたうえで、あなたの回答は正しいと確信しているか」
「事実と異なる主張をしていないか」


以上が、8つのベストプラクティスである。

科学者は、小さな観察を積み重ねて大きなパターンを導き出す。コンサルタントは、大きく曖昧な問題を少しずつ解ける問題へと分解する。プロンプトの技法も本質的にはそれと大きく違わない。具体的な問題を解決したり、明確な問いに答えたりするように、プロンプトをできるだけ具体的に書くことだ。1つのプロンプトで多くを求めすぎないことで出力の信頼性が高まる。そして、こうした小さな積み木のような要素が、やがて大幅な生産性向上の土台となる。

原典: Eight Tips to Make GenAI Do What You Want(ジュリアン・キング、2025年6月)

記事一覧へ