Improved Korean translation for the "Distribution of Exemplars" in the biases

pull/246/head
temtomk 1 year ago
parent 1f32b14cd2
commit 149d5e4ab2

@ -4,7 +4,7 @@ LLM은 모델의 성능을 저하시키고 다운스트림 태스크를 오염
### 표본 분포
few-shot 학습 실행 시 표본 분포는 모델의 성능에 영향을 미치거나 모델에 편향을 줄 수 있을까요? 여기서는 간단한 테스트를 진행해봅시다.
few-shot 학습 실행 시 표본 분포는 모델의 성능에 영향을 미치거나 모델에 편향을 줄 수 있을까요? 간단한 테스트를 진행해봅시다.
_프롬프트:_
@ -49,7 +49,7 @@ _출력:_
부정
```
위의 예시에서 표본 분포는 모델에게 편향을 심어 주지 않는 것 같습니다. 좋습니다. 분류하기에 더 까다로운 텍스트에서 다른 예시를 시도하여 모델이 어떻게 작동하는지 살펴보겠습니다:
위의 예시에서 표본 분포는 모델에게 편향을 심어 주지 않는 것 같습니다. 좋습니다. 분류하기에 더 까다로운 텍스트를 예시로 모델이 어떻게 작동하는지 살펴보겠습니다:
_프롬프트:_
@ -94,7 +94,7 @@ _출력:_
부정
```
마지막 문장은 다소 주관적일 수 있습니다만, 저는 분포를 반전시키고 대신 8개의 긍정적인 예와 2개의 부정적인 예를 사용하여 완전 동일한 문장으로 다시 시도해봤습니다. 모델은 뭐라고 대답했을까요? "긍정"이라고 답했습니다. 모델은 감정 분류에 대해 풍부한 지식을 가지고 있을 가능성이 있기 때문에 이것만으로는 편향성을 판가름하기에는 어렵습니다. 여기서 우리는 분포는 왜곡하는 것이 아닌 각 라벨에 대해 균형있는 수의 예시를 제공하라는 교훈을 얻을 수 있습니다. 모델이 그리 많은 지식을 가지고 있지 않은 주제에 관한 작업에서는 모델은 더 헤맬 것입니다.
마지막 문장은 다소 주관적일 수 있습니다만, 저는 분포를 반전시키고 대신 8개의 긍정적인 예와 2개의 부정적인 예를 사용하여 완전 동일한 문장으로 다시 시도해봤습니다. 모델은 뭐라고 대답했을까요? "긍정"이라고 답했습니다. 모델은 감정 분류에 대해 풍부한 지식을 가지고 있을 가능성이 있기 때문에 이것만으로는 편향성을 판가름하기에는 어렵습니다. 여기서 분포를 편향시키지 말고 각 라벨에 대해 균형있는 수의 예시를 제공하라는 교훈을 얻을 수 있습니다. 모델은 지식이 부족한 경우에 작업을 더 어려워 할 것입니다.
### 표본의 순서

Loading…
Cancel
Save