原典は[こちら](https://x.com/schroneko/status/1931227906254258300)
## AIの計算量制約と回答の信頼性
AIは一つの質問に対して使える計算量が限られているという本質的な制約を持つ。この制約により、複雑な質問や包括的な判断を要する質問に対しては、十分な吟味をせずに回答する傾向がある。例えば「5年以内にAGIが実現する」という主張の正否を単純に問うような質問では、AIは限られた計算量の範囲内で表面的な回答をせざるを得ない。
この問題は[[プロンプト研究]]の中でも重要な課題として認識されており、[[LLMのためのプロンプト26の原則]]においても、質問の構造化が回答の質に大きく影響することが示されている。計算量制約を理解することは、AIとの効果的な対話の第一歩である。
## 作業の分解と段階的アプローチ
信頼性の高い回答を得るための核心的な手法は、複雑な問題を細かい作業単位に分解することである。[[複雑なタスクを、対話形式でシンプルなプロンプトに分割する]]ことで、各作業がAIの計算量制約内に収まるようになる。この手法は[[Chain-of-thought(CoT)とfew-shotプロンプトを組み合わせる]]アプローチとも密接に関連している。
まず、AIに対して「妥当性を吟味するにはどのような作業をする必要があるか」を問い、必要な検証項目をリストアップさせる。この段階では、[[モデルに質問させ、十分な情報を得るまで対話を続けさせる]]ことが重要である。AIが提示する作業リストが膨大になる場合、それは単一の質問として扱うには複雑すぎることを示唆している。
## 具体的な実践例:AGI実現可能性の検証
「5年以内にAGIが実現する」という主張を検証する場合、以下のような段階的アプローチを取る:
### 1. 定義の明確化
まず、AGIの定義を明確にする必要がある。これは[[60点プロンプト]]の考え方とも通じるが、曖昧な概念のまま議論を進めることは避けるべきである。AIと対話しながら、検証に使用する最も妥当なAGIの定義を決定する。
### 2. 妥当性の種類の特定
次に、どのような種類の妥当性を検証すべきかをAIに列挙させる。技術的妥当性、経済的妥当性、社会的受容性など、多角的な観点が必要である。これは[[PDCAプロンプト]]の計画段階に相当する重要なステップである。
### 3. 個別検証の実施
特定された各妥当性について、一つずつAIに検証させる。[[例示付きプロンプト(few-shot prompting)を使用する]]ことで、AIにより具体的な検証方法を理解させることも有効である。各検証は独立したタスクとして扱い、AIの計算量制約内で処理できるようにする。
## 質問設計の重要性
効果的な質問設計は、[[ゴールプロンプト]]の考え方を応用することで改善できる。「○○は正しいか?」という二元的な質問ではなく、「○○を検証するために必要な作業は何か?」という形で、プロセスに焦点を当てた質問にする。これにより、AIは単純な判断ではなく、構造化された分析を提供できるようになる。
また、[[区切り文字を使用する]]ことで、複数の検証項目や条件を明確に分離し、AIが各要素を適切に処理できるようにすることも重要である。質問の構造化は、回答の質を大きく左右する要因である。
## 人間の総合的判断の必要性
最終的な判断は人間が行う必要がある。AIは各作業項目の検証結果を提供するが、それらを総合的に評価し、結論を導き出すのは人間の役割である。この点で、AIは判断の補助ツールであり、[[「自然で人間らしい方法で質問に答えてください」と明記する]]ことで、AIの出力をより解釈しやすくすることも可能である。
このアプローチは、AIの能力を最大限に活用しながら、その限界を適切に補完する方法である。計算量制約という技術的な制約を理解し、それに適応した対話手法を用いることで、AIから得られる情報の質と信頼性を大幅に向上させることができる。
## まとめ
AIから正しい回答を引き出すためには、計算量制約を考慮した段階的アプローチが不可欠である。複雑な問題を細かい作業に分解し、各作業をAIの処理能力内に収めることで、より深い分析と信頼性の高い結果を得ることができる。この手法は、AIとの協働における基本的なリテラシーとして、今後ますます重要になるだろう。