Merge pull request #271 from Esantomi/main

🇰🇷 Proofread pages of text for spelling and punctuation
This commit is contained in:
Elvis Saravia 2023-08-13 16:41:45 -06:00 committed by GitHub
commit b32a48aa28
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23
4 changed files with 21 additions and 21 deletions

View File

@ -13,12 +13,12 @@ Image Source: [Liu et al. 2022](https://arxiv.org/pdf/2110.08387.pdf)
간단한 예제 프롬프트를 살펴보겠습니다: 간단한 예제 프롬프트를 살펴보겠습니다:
*프롬프트:* *Prompt:*
``` ```
골프의 목적 중 하나는 다른 사람보다 더 높은 점수를 얻기 위해 노력하는 것이다. 예, 아니오? 골프의 목적 중 하나는 다른 사람보다 더 높은 점수를 얻기 위해 노력하는 것이다. 예, 아니오?
``` ```
*출력:* *Output:*
``` ```
예. 예.
``` ```
@ -27,7 +27,7 @@ Image Source: [Liu et al. 2022](https://arxiv.org/pdf/2110.08387.pdf)
먼저 몇 가지 "지식"을 생성합니다: 먼저 몇 가지 "지식"을 생성합니다:
*프롬프트:* *Prompt:*
``` ```
Input: 그리스는 멕시코보다 크다. Input: 그리스는 멕시코보다 크다.
Knowledge: 그리스는 약 131,957 제곱 킬로미터이고, 멕시코는 약 1,964,375 제곱 킬로미터로 멕시코가 그리스보다 1,389% 더 크다. Knowledge: 그리스는 약 131,957 제곱 킬로미터이고, 멕시코는 약 1,964,375 제곱 킬로미터로 멕시코가 그리스보다 1,389% 더 크다.
@ -62,7 +62,7 @@ Knowledge:
다음 단계는 지식을 통합하고 예측하는 것입니다. 답변 형식을 알려 주기 위해 질문을 질의응답 형식으로 재구성했습니다. 다음 단계는 지식을 통합하고 예측하는 것입니다. 답변 형식을 알려 주기 위해 질문을 질의응답 형식으로 재구성했습니다.
*프롬프트:* *Prompt:*
``` ```
Question: 골프의 목적 중 하나는 다른 사람보다 더 높은 총점을 얻기 위해 노력하는 것이다. 예, 아니오? Question: 골프의 목적 중 하나는 다른 사람보다 더 높은 총점을 얻기 위해 노력하는 것이다. 예, 아니오?

View File

@ -5,11 +5,11 @@ import RAG from '../../img/rag.png';
General-purpose 언어 모델은 일반적인 작업을 달성하도록 감정 분석 및 명명된 엔티티 인식을 미세 조정 할 수 있습니다. 이러한 작업에는 일반적으로 추가적인 배경지식이 필요하지 않습니다. General-purpose 언어 모델은 일반적인 작업을 달성하도록 감정 분석 및 명명된 엔티티 인식을 미세 조정 할 수 있습니다. 이러한 작업에는 일반적으로 추가적인 배경지식이 필요하지 않습니다.
더 복잡한 지식을 모아 요약하는 작업의 경우 외부 지식 소스에 액세스하여 완료하는 언어 모델 기반 시스템을 구축할 수 있습니다 이를 통해 사실적 일관성을 높이고, 생성된 응답의 신뢰성을 향상시키며, "환각" 문제를 완화하는 데 도움이 됩니다. 더 복잡한 지식을 모아 요약하는 작업의 경우 외부 지식 소스에 액세스하여 완료하는 언어 모델 기반 시스템을 구축할 수 있습니다. 이를 통해 사실적 일관성을 높이고, 생성된 응답의 신뢰성을 향상시키며, "환각" 문제를 완화하는 데 도움이 됩니다.
Meta AI 연구원들은 이러한 지식을 모아 요약하는 작업을 해결하기 위해 [Retrieval Augmented Generation (RAG)](https://ai.facebook.com/blog/retrieval-augmented-generation-streamlining-the-creation-of-intelligent-natural-language-processing-models/) 라는 방법을 도입했습니다. RAG는 정보 구성 요소를 글자 생성기 모델과 결합합니다. RAG는 미세 조정이 가능하며 전체 모델을 재교육할 필요 없이 내부 지식을 효율적으로 수정할 수 있습니다. Meta AI 연구원들은 이러한 지식을 모아 요약하는 작업을 해결하기 위해 [Retrieval Augmented Generation (RAG)](https://ai.facebook.com/blog/retrieval-augmented-generation-streamlining-the-creation-of-intelligent-natural-language-processing-models/) 라는 방법을 도입했습니다. RAG는 정보 구성 요소를 글자 생성기 모델과 결합합니다. RAG는 미세 조정이 가능하며 전체 모델을 재교육할 필요 없이 내부 지식을 효율적으로 수정할 수 있습니다.
RAG는 입력을 받아 주어진 소스(예: 위키피디아)에서 관련된/지원하는 문서들을 찾습니다. 문서는 원래 입력 프롬프트와 컨텍스트로 연결되어 최종 출력을 생성하는 텍스트 생성기에 공급됩니다 따라서 시간이 지남에 따라 RAG는 어떤 상황이던 사실적으로 적응할 수 있습니다. 이는 LLM의 매개 변수 지식이 정적이기 때문에 매우 유용합니다. RAG는 언어 모델들의 재교육 우회를 허용하여, 검색 기반 생성을 통해 신뢰할 수 있는 출력물을 생성하여 최신 정보로 접속할 수 있습니다. RAG는 입력을 받아 주어진 소스(예: 위키피디아)에서 관련된/지원하는 문서들을 찾습니다. 문서는 원래 입력 프롬프트와 컨텍스트로 연결되어 최종 출력을 생성하는 텍스트 생성기에 공급됩니다. 따라서 시간이 지남에 따라 RAG는 어떤 상황이던 사실적으로 적응할 수 있습니다. 이는 LLM의 매개 변수 지식이 정적이기 때문에 매우 유용합니다. RAG는 언어 모델들의 재교육 우회를 허용하여, 검색 기반 생성을 통해 신뢰할 수 있는 출력물을 생성하여 최신 정보로 접속할 수 있습니다.
Lewis et al.,(2021)은 RAG에 대한 범용 미세 조정 레시피를 제안했습니다. 사전 훈련된 seq2seq 모델은 파라메트릭 메모리로 사용되고 위키피디아의 밀집한 벡터 인덱스는 논파라메트릭 메모리로 사용됩니다(사전 훈련된 신경 리트리버를 사용하여 허용됨). 다음은 접근 방식의 개요입니다: Lewis et al.,(2021)은 RAG에 대한 범용 미세 조정 레시피를 제안했습니다. 사전 훈련된 seq2seq 모델은 파라메트릭 메모리로 사용되고 위키피디아의 밀집한 벡터 인덱스는 논파라메트릭 메모리로 사용됩니다(사전 훈련된 신경 리트리버를 사용하여 허용됨). 다음은 접근 방식의 개요입니다:

View File

@ -1,7 +1,7 @@
# Zero-Shot Prompting # Zero-Shot Prompting
대량의 데이터를 학습하고 지침을 따르도록 튜닝된 오늘날의 머신러닝은 zero-shot으로 작업을 수행할 수 있습니다. 이전 장에서 몇 가지 zero-shot 예제를 시도해 보았습니다. 다음은 우리가 사용한 예제 중 하나입니다: 대량의 데이터를 학습하고 지침을 따르도록 튜닝된 오늘날의 머신러닝은 제로샷(zero-shot)으로 작업을 수행할 수 있습니다. 이전 장에서 몇 가지 제로 샷(zero-shot) 예제를 시도해 보았습니다. 다음은 우리가 사용한 예제 중 하나입니다:
*프롬프트:* *Prompt:*
``` ```
텍스트를 중립, 부정 또는 긍정으로 분류합니다. 텍스트를 중립, 부정 또는 긍정으로 분류합니다.
@ -9,13 +9,13 @@
감정: 감정:
``` ```
*출력:* *Output:*
``` ```
중립 중립
``` ```
위의 프롬프트에서는 모델에 예제를 제공하지 않았습니다. 이는 zero-shot으로 동작된 것을 알 수 있습니다. 위의 프롬프트에서는 모델에 예제를 제공하지 않았습니다. 이는 제로샷(zero-shot)으로 동작된 것을 알 수 있습니다.
명령어 튜닝(Instruction tuning)은 zero-shot 학습을 개선한다고 다음의 논문에서 보고되었습니다. [Wei et al. (2022)](https://arxiv.org/pdf/2109.01652.pdf). 명령어 튜닝은 본질적으로 명령어를 통해 설명된 데이터 세트에 대한 모델을 미세 조정하는 개념입니다. 또한, [RLHF](https://arxiv.org/abs/1706.03741) (사람의 피드백을 통한 강화 학습)는 모델이 사람이 원하는 결과에 더 잘 맞도록 조정되는 명령어 튜닝을 확장하는 데 사용되었습니다. 이러한 개발 방식은 ChatGPT와 같은 모델에서 사용되었습니다. 다음 장에서 이러한 모든 접근 방식과 방법에 대해 설명하겠습니다. 명령어 튜닝(Instruction tuning)은 제로샷(zero-shot) 학습을 개선한다고 다음의 논문에서 보고되었습니다. [Wei et al. (2022)](https://arxiv.org/pdf/2109.01652.pdf). 명령어 튜닝은 본질적으로 명령어를 통해 설명된 데이터 세트에 대한 모델을 미세 조정 하는 개념입니다. 또한, [RLHF](https://arxiv.org/abs/1706.03741) (사람의 피드백을 통한 강화 학습)는 모델이 사람이 원하는 결과에 더 잘 맞도록 조정되는 명령어 튜닝을 확장하는 데 사용되었습니다. 이러한 개발 방식은 ChatGPT와 같은 모델에서 사용되었습니다. 다음 장에서 이러한 모든 접근 방식과 방법에 대해 설명하겠습니다.
zero-shot이 동작하지 않는 경우에는 프롬프트에 데모나 예시를 제공하여 few-shot으로 프롬프트를 유도하는 것이 좋습니다. 다음 장에서는 zero-shot 프롬프트에 대한 데모를 보여드리겠습니다. 제로샷(zero-shot)이 동작하지 않는 경우에는 프롬프트에 데모나 예시를 제공하여 퓨샷(few-shot)으로 프롬프트를 유도하는 것이 좋습니다. 다음 장에서는 제로샷(zero-shot) 프롬프트에 대한 데모를 보여 드리겠습니다.