mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-04 12:00:10 +00:00
12 lines
1.2 KiB
Plaintext
12 lines
1.2 KiB
Plaintext
|
# Aktif-Bilgi İstemi
|
|||
|
|
|||
|
import { Callout, FileTree } from 'nextra-theme-docs'
|
|||
|
import {Screenshot} from 'components/screenshot'
|
|||
|
import ACTIVE from '../../img/active-prompt.png'
|
|||
|
|
|||
|
Düşünce zinciri (CoT) yöntemleri, sabit bir insan açıklamalı örnekler kümesine dayanır. Bununla ilgili sorun, örneklerin farklı görevler için en etkili örnekler olmayabilmesidir. Bunu ele almak için [Diao ve diğerleri, (2023)](https://arxiv.org/pdf/2302.12246.pdf) kısa süre önce, LLM'leri göreve özgü farklı örnek istemlere uyarlamak için Active-Prompt adlı yeni bir yönlendirme yaklaşımı önerdi ( insan tarafından tasarlanmış CoT muhakemesi ile açıklamalı).
|
|||
|
|
|||
|
Aşağıda yaklaşımın bir örneği verilmiştir. İlk adım, LLM'yi birkaç CoT örneği olsun ya da olmasın sorgulamaktır. Bir dizi eğitim sorusu için *k* olası cevaplar üretilir. *k* yanıtlarına (kullanılan uyuşmazlık) dayalı olarak bir belirsizlik ölçüsü hesaplanır. En belirsiz sorular, insanlar tarafından ek açıklama için seçilir. Yeni açıklamalı örnekler daha sonra her soruyu anlamak için kullanılır.
|
|||
|
|
|||
|
<Screenshot src={ACTIVE} alt="ACTIVE" />
|
|||
|
Resim Kaynağı: [Diao et al., (2023)](https://arxiv.org/pdf/2302.12246.pdf)
|