Merge pull request #30 from mel-f-dev/main

Improve Korean translation for Techniques
This commit is contained in:
백진주 2023-08-01 12:47:21 +09:00 committed by GitHub
commit a0c78c3248
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23

View File

@ -1,3 +1,30 @@
# Automatic Reasoning and Tool-use (ART)
import { Callout, FileTree } from 'nextra-theme-docs'
import {Screenshot} from 'components/screenshot'
import ART from '../../img/ART.png'
import ART2 from '../../img/ART2.png'
This page needs a translation! Feel free to contribute a translation by clicking the `Edit this page` button on the right side.
생각의 사슬(CoT)프롬프팅과 도구를 교차적으로 결합하는 것은 대규모언어모델로 많은 작업을
처리하는 강력하고 견고한 접근방식인 것으로 밝혀졌습니다. 이러한 접근법들은 일반적으로
작업 특정 시연을 수작업으로 제작하고, 모델 생성을 도구 사용과 주의 깊게 교차해야 합니다.
[Paranjape et al., (2023)](https://arxiv.org/abs/2303.09014)은 프로그램으로 중간 추론
단계를 자동 생성하기 위해 frozen 대규모언어모델을 사용하는 새로운 프레임워크를 제안합니다.
ART는 다음과 같이 작동합니다:
- 새로운 작업이 주어지면 작업 라이브러리에서 다단계의 추론 및 도구 사용 시연을 선택합니다.
- 테스트시에는 외부도구가 호출될 때마다 생성을 일시 중단하고, 생성을 재개하기 전에 그 출력들을 통합합니다.
ART는 모델이 시연들로부터 일반화하여 새로운 작업을 분해하고 적절한 장소에서 도구를 사용하도록
장려하는데, 이는 제로샷 방식으로 이루어집니다. 또한, ART는 작업과 도구 라이브러리를 단순히 업데이트함으로써
사람들이 추론 단계에서의 오류를 수정하거나 새로운 도구를 추가할 수 있게 함으로써 확장 가능합니다.
아래에 이 과정이 보여집니다:
<Screenshot src={ART} alt="ART" />
이미지 출처: [Paranjape et al., (2023)](https://arxiv.org/abs/2303.09014)
ART는 BigBench와 MMLU 벤치마크에서 보이지 않는 작업에 대해 퓨샷 프롬프팅과 자동 CoT를 크게 향상시키며,
사람의 피드백이 포함될 때 수작업으로 만든 CoT 프롬프트의 성능을 능가합니다.
아래는 BigBench와 MMLU 작업에서 ART의 성능을 보여주는 표입니다:
<Screenshot src={ART2} alt="ART2" />
이미지 출처: [Paranjape et al., (2023)](https://arxiv.org/abs/2303.09014)