ReAct (Reasoning and Acting)

ReAct (Reasoning and Acting)

  • 推論 (Reasoning)行動 (Acting) を組み合わせた LLM 向けプロンプト技術
  • 言語モデルが思考プロセスを論理的に言語化し、その結果に基づき外部ツールを実行する手法
  • 思考、行動、観察 (Observation) のループによる問題解決

分類

プロンプティング技術の体系

  • 自律型エージェント (Autonomous Agents) の中核アルゴリズム
  • Chain of Thought (CoT) の動的拡張版
  • 外部ツール連携型プロンプティング

上位概念・下位概念

概念の階層構造

  • 上位概念: 人工知能 (Artificial Intelligence) / 自然言語処理 (Natural Language Processing)
  • 下位概念: Thought-Action-Observation サイクル / ツール利用 (Tool Use)

メリット

導入による利点

  • 信頼性の向上: 推論過程が明示されるため、判断根拠の確認が可能
  • 最新情報の取得: 検索エンジンなどの外部 API 連携により、学習データ外の知識を補完
  • ハルシネーション (Hallucination) の抑制: 事実確認ステップを挟むことによる誤情報の低減

デメリット

運用上の課題

  • トークン消費量の増加: 思考プロセスと複数の試行によりコストが増大
  • レイテンシの悪化: 推論とツール実行の繰り返しによる応答時間の長期化
  • エラーの連鎖: 途中の推論やツール結果が誤っていた場合、最終回答が破綻するリスク

既存との比較

Chain of Thought (CoT) との相違

  • CoT: モデル内部の知識のみで完結する静的な推論
  • ReAct: 外部環境からのフィードバックを取り入れる動的な推論

競合

類似手法と代替案

  • Reflexion: 自己批判と学習を繰り返すフレームワーク
  • Self-Ask: 質問を細分化し、一つずつ回答を積み上げる手法
  • Plan-and-Solve: 最初に全体の計画を立ててから実行するアプローチ

導入ポイント

実装時の要点

  • LangChain / LlamaIndex: 既存のライブラリを活用したエージェント構築
  • プロンプト設計: 思考、行動、観察のフォーマットを厳密に指示
  • ストップシーケンス: ツール実行が必要なタイミングで生成を停止させる設定

注意点

利用上の制約

  • API 制限: 外部ツールの呼び出し回数やクォータの管理が必要
  • ループの停止条件: 無限ループを防止するための最大試行回数の設定
  • モデル性能への依存: 複雑な指示を理解できる高性能なモデル (GPT-4 ランク以上) が推奨

今後

発展の方向性

  • マルチモーダル化: 画像や音声を用いた行動と推論の統合
  • 微調整 (Fine-tuning): ReAct 形式のデータセットを用いたモデル専用化による精度向上
  • リアルタイム学習: 行動結果からの即時フィードバックによる最適化

関連キーワード

周辺技術リスト

  • Large Language Models (LLM)
  • In-Context Learning
  • Agentic Workflow
  • Few-shot Prompting
  • Zero-shot Reasoning