You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Prompt-Engineering-Guide/pages/techniques/activeprompt.tr.mdx

12 lines
1.2 KiB
Plaintext

# Aktif-Bilgi İstemi
import { Callout, FileTree } from 'nextra-theme-docs'
import {Screenshot} from 'components/screenshot'
import ACTIVE from '../../img/active-prompt.png'
Düşünce zinciri (CoT) yöntemleri, sabit bir insan açıklamalı örnekler kümesine dayanır. Bununla ilgili sorun, örneklerin farklı görevler için en etkili örnekler olmayabilmesidir. Bunu ele almak için [Diao ve diğerleri, (2023)](https://arxiv.org/pdf/2302.12246.pdf) kısa süre önce, LLM'leri göreve özgü farklı örnek istemlere uyarlamak için Active-Prompt adlı yeni bir yönlendirme yaklaşımı önerdi ( insan tarafından tasarlanmış CoT muhakemesi ile açıklamalı).
Aşağıda yaklaşımın bir örneği verilmiştir. İlk adım, LLM'yi birkaç CoT örneği olsun ya da olmasın sorgulamaktır. Bir dizi eğitim sorusu için *k* olası cevaplar üretilir. *k* yanıtlarına (kullanılan uyuşmazlık) dayalı olarak bir belirsizlik ölçüsü hesaplanır. En belirsiz sorular, insanlar tarafından ek açıklama için seçilir. Yeni açıklamalı örnekler daha sonra her soruyu anlamak için kullanılır.
<Screenshot src={ACTIVE} alt="ACTIVE" />
Resim Kaynağı: [Diao et al., (2023)](https://arxiv.org/pdf/2302.12246.pdf)