Merge pull request #204 from qinyu/tot-zh

Add Chinese translation for ToT.
pull/214/head
Elvis Saravia 1 year ago committed by GitHub
commit b0d44ac3cc
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23

@ -4,7 +4,7 @@
"cot": "链式思考CoT提示",
"consistency": "自我一致性",
"knowledge": "生成知识提示",
"tot": "Tree of Thoughts",
"tot": "思维树ToT",
"rag": "检索增强生成 (RAG)",
"art": "自动推理并使用工具ART",
"ape": "自动提示工程师",

@ -1,3 +1,43 @@
# Tree of Thoughts (ToT)
# 思维树 (ToT)
This page needs a translation! Feel free to contribute a translation by clicking the `Edit this page` button on the right side.
import { Callout, FileTree } from 'nextra-theme-docs'
import {Screenshot} from 'components/screenshot'
import TOT from '../../img/TOT.png'
import TOT2 from '../../img/TOT2.png'
import TOT3 from '../../img/TOT3.png'
对于需要探索或预判战略的复杂任务来说,传统或简单的提示技巧是不够的。最近,[Yao et el. (2023)](https://arxiv.org/abs/2305.10601) 提出了思维树Tree of ThoughtsToT框架该框架基于思维链提示进行了总结引导语言模型探索把思维作为中间步骤来解决通用问题。
ToT 维护着一棵思维树思维由连贯的语言序列表示这个序列就是解决问题的中间步骤。使用这种方法LM 能够自己对严谨推理过程的中间思维进行评估。LM 将生成及评估思维的能力与搜索算法(如广度优先搜索和深度优先搜索)相结合,在系统性探索思维的时候可以向前验证和回溯。
ToT 框架原理如下:
<Screenshot src={TOT} alt="TOT" />
图片援引自:[Yao et el. (2023)](https://arxiv.org/abs/2305.10601)
ToT 需要针对不同的任务定义思维/步骤的数量以及每步的候选项数量。例如,论文中的“算 24 游戏”是一种数学推理任务,需要分成 3 个思维步骤每一步都需要一个中间方程。而每个步骤保留最优的best 5 个候选项。
ToT 完成算 24 的游戏任务要执行宽度优先搜索BFS每步思维的候选项都要求 LM 给出能否得到 24 的评估“sure/maybe/impossible”一定能/可能/不可能) 。作者讲到“目的是得到经过少量向前尝试就可以验证正确sure的局部解基于太大/太小的常识消除那些不可能impossible的局部解其余的局部解作为maybe保留。”每步思维都要抽样得到 3 个评估结果。整个过程如下图所示:
<Screenshot src={TOT2} alt="TOT2" />
图片援引自:[Yao et el. (2023)](https://arxiv.org/abs/2305.10601)
从下图中报告的结果来看ToT 的表现大大超过了其他提示方法:
<Screenshot src={TOT3} alt="TOT3" />
图片援引自:[Yao et el. (2023)](https://arxiv.org/abs/2305.10601)
[这里](https://github.com/princeton-nlp/tree-of-thought-llm)还有[这里](https://github.com/jieyilong/tree-of-thought-puzzle-solver)可以找到代码例子。
从大方向上来看,[Yao et el. (2023)](https://arxiv.org/abs/2305.10601) 和 [Long (2023)](https://arxiv.org/abs/2305.08291) 的核心思路是类似的。两种方法都是以多轮对话搜索树的形式来增强 LLM 解决复杂问题的能力。主要区别在于 [Yao et el. (2023)](https://arxiv.org/abs/2305.10601) 采用了深度优先DFS/广度优先BFS/集束beam搜索而 [Long (2023)](https://arxiv.org/abs/2305.08291) 则提出由强化学习Reinforcement Learning训练出的 “ToT 控制器”ToT Controller来驱动树的搜索策略(宝库什么时候回退和搜索到哪一级回退等等)。深度优先/广度优先/集束搜索是通用搜索策略,并不针对具体问题。相比之下,由强化学习训练出的 ToT 控制器有可能从新的数据集学习或是在自对弈AlphaGo vs. 蛮力搜索)的过程中学习。因此,即使采用的是冻结的 LLM基于强化学习构建的 ToT 系统仍然可以不断进化,学习新的知识。
[Hulbert (2023)](https://github.com/dave1010/tree-of-thought-prompting) 提出了思维树ToT提示法将 ToT 框架的主要概念概括成了一段简短的提示词,指导 LLM 在一次提示中对中间思维做出评估。ToT 提示词的例子如下:
```
假设三位不同的专家来回答这个问题。
所有专家都写下他们思考这个问题的第一个步骤,然后与大家分享。
然后,所有专家都写下他们思考的下一个骤并分享。
以此类推,直到所有专家写完他们思考的所有步骤。
只要大家发现有专家的步骤出错了,就让这位专家离开。
请问...
```
Loading…
Cancel
Save