【保存版】Tree of Thoughts (ToT) フレームワークの進化系統図:2023年の誕生から2026年の推論モデルまで
platypus2000jp
大規模言語モデル(LLM)の推論能力を飛躍させた「Chain-of-Thought(CoT)」。その限界を突破するために登場した Tree of Thoughts(ToT) は、単なるプロンプト技法を超え、今やモデルそのもののアーキテクチャへと溶け込んでいます。
本記事では、2023年の原論文から、最新の「Thinking Model(o1/R1系)」に至るまでの発展の軌跡を、構造的かつ詳細に整理します。
1. 原点:Tree of Thoughts (2023) — 「探索」という概念の導入
2023年5月、Yao et al. によって発表された "Tree of Thoughts: Deliberate Problem Solving with Large Language Models" は、LLMの推論に「試行錯誤」と「戦略的探索」を持ち込みました。
ToT の核心的メカニズム
それまでの「一本道」の推論(CoT)に対し、ToTは以下の4つの要素で構成されます。
- 思考の単位化 (Thought Decomposition): 問題を解決するためのステップを「思考(Thought)」という独立したノードに分割。
- 思考の生成 (Thought Generator): 次のステップの候補を複数生成(Propose)。
- 状態の評価 (State Evaluator): 各ステップがゴールに近づいているか、LLM自身が「価値判断」を行う。
- 探索アルゴリズム (Search Algorithm): **BFS(幅優先探索)やDFS(深さ優先探索)を用いて、有望な経路を辿り、行き止まりならバックトラック(逆戻り)**する。
実績: 「Game of 24」という難解な算術パズルにおいて、CoTの成功率4.0%に対し、ToTは**74.0%**という驚異的な飛躍を記録しました。
