ReAct (Reasoning and Acting)
- 推論 (Reasoning) と 行動 (Acting) を組み合わせた LLM 向けプロンプト技術
- 言語モデルが思考プロセスを論理的に言語化し、その結果に基づき外部ツールを実行する手法
- 思考、行動、観察 (Observation) のループによる問題解決
分類
プロンプティング技術の体系
- 自律型エージェント (Autonomous Agents) の中核アルゴリズム
- Chain of Thought (CoT) の動的拡張版
- 外部ツール連携型プロンプティング
上位概念・下位概念
概念の階層構造
- 上位概念: 人工知能 (Artificial Intelligence) / 自然言語処理 (Natural Language Processing)
- 下位概念: Thought-Action-Observation サイクル / ツール利用 (Tool Use)
メリット
導入による利点
- 信頼性の向上: 推論過程が明示されるため、判断根拠の確認が可能
- 最新情報の取得: 検索エンジンなどの外部 API 連携により、学習データ外の知識を補完
- ハルシネーション (Hallucination) の抑制: 事実確認ステップを挟むことによる誤情報の低減
デメリット
運用上の課題
- トークン消費量の増加: 思考プロセスと複数の試行によりコストが増大
- レイテンシの悪化: 推論とツール実行の繰り返しによる応答時間の長期化
- エラーの連鎖: 途中の推論やツール結果が誤っていた場合、最終回答が破綻するリスク
既存との比較
Chain of Thought (CoT) との相違
- CoT: モデル内部の知識のみで完結する静的な推論
- ReAct: 外部環境からのフィードバックを取り入れる動的な推論
競合
類似手法と代替案
- Reflexion: 自己批判と学習を繰り返すフレームワーク
- Self-Ask: 質問を細分化し、一つずつ回答を積み上げる手法
- Plan-and-Solve: 最初に全体の計画を立ててから実行するアプローチ
導入ポイント
実装時の要点
- LangChain / LlamaIndex: 既存のライブラリを活用したエージェント構築
- プロンプト設計: 思考、行動、観察のフォーマットを厳密に指示
- ストップシーケンス: ツール実行が必要なタイミングで生成を停止させる設定
注意点
利用上の制約
- API 制限: 外部ツールの呼び出し回数やクォータの管理が必要
- ループの停止条件: 無限ループを防止するための最大試行回数の設定
- モデル性能への依存: 複雑な指示を理解できる高性能なモデル (GPT-4 ランク以上) が推奨
今後
発展の方向性
- マルチモーダル化: 画像や音声を用いた行動と推論の統合
- 微調整 (Fine-tuning): ReAct 形式のデータセットを用いたモデル専用化による精度向上
- リアルタイム学習: 行動結果からの即時フィードバックによる最適化
関連キーワード
周辺技術リスト
- Large Language Models (LLM)
- In-Context Learning
- Agentic Workflow
- Few-shot Prompting
- Zero-shot Reasoning