diff --git a/pages/techniques/art.kr.mdx b/pages/techniques/art.kr.mdx index e36419c..be27437 100644 --- a/pages/techniques/art.kr.mdx +++ b/pages/techniques/art.kr.mdx @@ -1,3 +1,31 @@ # Automatic Reasoning and Tool-use (ART) +import { Callout, FileTree } from 'nextra-theme-docs' +import {Screenshot} from 'components/screenshot' +import ART from '../../img/ART.png' +import ART2 from '../../img/ART2.png' -This page needs a translation! Feel free to contribute a translation by clicking the `Edit this page` button on the right side. \ No newline at end of file +생각의 사슬(CoT)프롬프팅과 도구를 교차적으로 결합하는 것은 대규모언어모델로 많은 작업을 +처리하는 강력하고 견고한 접근방식인 것으로 밝혀졌습니다. 이러한 접근법들은 일반적으로 +작업 특정 시연을 수작업으로 제작하고, 모델 생성을 도구 사용과 주의 깊게 교차해야 합니다. +[Paranjape et al., (2023)](https://arxiv.org/abs/2303.09014)은 프로그램으로 중간 추론 +단계를 자동 생성하기 위해 frozen 대규모언어모델을 사용하는 새로운 프레임워크를 제안합니다. + +ART works as follows: +ART는 다음과 같이 작동합니다.: +- 새로운 작업이 주어지면 작업 라이브러리에서 다단계의 추론 및 도구 사용 시연을 선택합니다. +- 테스트시에는 외부도구가 호출될 때마다 생성을 일시 중단하고, 생성을 재개하기 전에 그 출력들을 통합합니다. + +ART는 모델이 시연들로부터 일반화하여 새로운 작업을 분해하고 적절한 장소에서 도구를 사용하도록 +장려하는데, 이는 제로샷 방식으로 이루어집니다. 또한, ART는 작업과 도구 라이브러리를 단순히 업데이트함으로써 +사람들이 추론 단계에서의 오류를 수정하거나 새로운 도구를 추가할 수 있게 함으로써 확장 가능합니다. +아래에 이 과정이 보여집니다: + +이미지 출처: [Paranjape et al., (2023)](https://arxiv.org/abs/2303.09014) + +ART는 BigBench와 MMLU 벤치마크에서 보이지 않는 작업에 대해 소수의 샷 프롬프팅과 자동 CoT를 크게 향상시키며, +사람의 피드백이 포함될 때 수작업으로 만든 CoT 프롬프트의 성능을 능가합니다. + +아래는 BigBench와 MMLU 작업에서 ART의 성능을 보여주는 표입니다: + + +이미지 출처: [Paranjape et al., (2023)](https://arxiv.org/abs/2303.09014) \ No newline at end of file