Add Chinese translation for ART.

pull/203/head
qinyu 12 months ago
parent 391ae1795c
commit 05b14f48af

@ -6,7 +6,7 @@
"knowledge": "生成知识提示",
"tot": "Tree of Thoughts",
"rag": "Retrieval Augmented Generation",
"art": "Automatic Reasoning and Tool-use",
"art": "自动推理并使用工具ART",
"ape": "自动提示工程师",
"activeprompt": "Active-Prompt",
"dsp": "方向性刺激提示",

@ -1,3 +1,24 @@
# Automatic Reasoning and Tool-use (ART)
# 自动推理并使用工具 (ART)
This page needs a translation! Feel free to contribute a translation by clicking the `Edit this page` button on the right side.
import { Callout, FileTree } from 'nextra-theme-docs'
import {Screenshot} from 'components/screenshot'
import ART from '../../img/ART.png'
import ART2 from '../../img/ART2.png'
使用 LLM 完成任务时,交替运用 CoT 提示和工具已经被证明是一种即强大又稳健的方法。这类方法通常需要针对特定任务手写示范,还需要精心编写交替使用生成模型和工具的脚本。[Paranjape et al., (2023)](https://arxiv.org/abs/2303.09014)提出了一个新框架,该框架使用冻结的 LLM 来自动生成包含中间推理步骤的程序。
ARTAutomatic Reasoning and Tool-use的工作原理如下
- 接到一个新任务的时候,从任务库中选择多步推理和使用工具的示范。
- 在测试中,调用外部工具时,先暂停生成,将工具输出整合后继续接着生成。
ART 引导模型总结示范将新任务进行拆分并在恰当的地方使用工具。ART 采用的是零样本形式。ART 还可以手动扩展,只要简单地更新任务和工具库就可以修正推理步骤中的错误或是添加新的工具。这个过程如下:
<Screenshot src={ART} alt="ART" />
图片援引自: [Paranjape et al., (2023)](https://arxiv.org/abs/2303.09014)
在 BigBench 和 MMLU 基准测试中ART 在未见任务上的表现大大超过了少样本提示和自动 CoT配合人类反馈后其表现超过了手写的 CoT 提示。
下面这张表格展示了 ART 在 BigBench 和 MMLU 任务上的表现:
<Screenshot src={ART2} alt="ART2" />
图片援引自: [Paranjape et al., (2023)](https://arxiv.org/abs/2303.09014)
Loading…
Cancel
Save