diff --git a/pages/risks/factuality.kr.mdx b/pages/risks/factuality.kr.mdx index 559bcec..50c8a6c 100644 --- a/pages/risks/factuality.kr.mdx +++ b/pages/risks/factuality.kr.mdx @@ -1,37 +1,33 @@ # 사실성 -LLM은 일관성과 설득력을 지닌 응답을 생성하는 경향이 있지만 때로는 조작된 것일 수 있습니다. 프롬프트를 개선함으로써 보다 정확하고 사실에 기반한 응답을 생성하도록 사실에 어긋난 응답을 생성할 가능성을 줄일 수 있습니다. +LLM은 일관적이고 설득력 있는 응답을 생성하는 편이지만 가끔 지어낸 응답을 되돌려줄 수도 있습니다. 프롬프트를 개선함으로써 모델이 보다 정확하고 사실에 기반한 응답을 생성하게끔 하고, 동시에 일관성 없는 응답을 지어낼 가능성을 줄일 수 있습니다. -몇 가지 해결책은 다음과 같습니다: +다음과 같은 몇 가지 해결책이 있습니다: -- 모델이 조작 텍스트를 생성할 가능성을 줄이기 위해 컨텍스트의 일부로서 근본에 가까운 정답(예를 들어 관련 기사 단락이나 Wikipedia 엔트리)을 제공하기 -- 확률 파라미터의 개수를 줄이고 답을 모르는 경우에는 (예를 들어, 모르겠어요)라고 인정하도록 지시함으로써 모델이 엉뚱한 대답을 하지않도록 설정하기 -- 프롬프트에 알고 있는 것과 모르는 것의 양쪽 질문과 응답의 예시를 조합하기 +- 모델이 텍스트를 지어내 생성할 가능성을 줄이기 위해 맥락의 일부로 연관 기사 또는 위키백과 문서와 같은 근간이 되는 정보를 제공합니다. +- 확률 매개변수(probability parameter)를 줄이고 모를 때는 모른다고 인정하도록 지시함으로써 보다 덜 다양한 응답을 생성하도록 모델을 설정합니다. +- 예시로 답을 아는 경우와 모르는 경우의 질문-응답 조합을 프롬프트에 제공합니다. -간단한 예시를 살펴봅시다: +간단한 예시를 한번 살펴보도록 하겠습니다: -_프롬프트:_ +_Prompt:_ ``` Q: 원자가 뭐야? A: 원자란 모든 것을 구성하는 작은 입자입니다. - Q: Alvan Muntz가 누구야? A: ? - Q: Kozar-09가 뭐야? A: ? - Q: 화성에는 위성이 몇 개 있어? -A: 포보스와 데이모스라는 두 가지의 위성이 있습니다. - +A: 포보스와 데이모스라는 두 개의 위성이 있습니다. Q: Neto Beto Roberto가 누구야? ``` -_출력:_ +_Output:_ ``` A: ? ``` -'Neto Beto Roberto'는 제가 그냥 지어낸 이름이기 때문에 모델은 알맞은 대답을 한 셈입니다. 질문에 변형을 가해서 모델이 제대로 답변하는 지 실험해보세요. 지금까지 배워온 것을 바탕으로 더 개선하는 여러 방법이 있습니다. +'Neto Beto Roberto'는 제가 그냥 지어낸 이름이기 때문에 이 경우 모델은 정확히 대답을 한 셈입니다. 질문을 조금 바꿔서 모델이 제대로 답변하는지 실험해 보세요. 지금까지 배운 것을 바탕으로 이 문제를 개선할 수 있는 여러 방법이 있습니다.