mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-08 07:10:41 +00:00
12 lines
2.0 KiB
Plaintext
12 lines
2.0 KiB
Plaintext
|
# Active-Prompt
|
|||
|
|
|||
|
import { Callout, FileTree } from 'nextra-theme-docs'
|
|||
|
import {Screenshot} from 'components/screenshot'
|
|||
|
import ACTIVE from '../../img/active-prompt.png'
|
|||
|
|
|||
|
Методы цепочки мыслей (CoT) полагаются на фиксированный набор аннотированных человеком образцов. Проблема заключается в том, что эти образцы могут оказаться не наиболее эффективными примерами для различных задач. Чтобы решить эту проблему, [Diao и др., (2023)](https://arxiv.org/pdf/2302.12246.pdf) недавно предложили новый подход к формулировке запросов, называемый Active-Prompt, который позволяет адаптировать LLM к различным задачам с использованием специфичных примеров (аннотированных с использованием человеком разработанной цепочки мыслей).
|
|||
|
|
|||
|
Ниже приведена иллюстрация данного подхода. Первый шаг заключается в запросе LLM с несколькими примерами CoT или без них. Для набора обучающих вопросов генерируется *k* возможных ответов. Вычисляется метрика неопределенности на основе этих *k* ответов (используется показатель расхождения). Наиболее неопределенные вопросы выбираются для аннотации людьми. Затем новые аннотированные образцы используются для вывода каждого вопроса.
|
|||
|
|
|||
|
<Screenshot src={ACTIVE} alt="ACTIVE" />
|
|||
|
Источник изображения: [Diao и др., (2023)](https://arxiv.org/pdf/2302.12246.pdf)
|