mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-02 15:40:13 +00:00
43 lines
4.5 KiB
Plaintext
43 lines
4.5 KiB
Plaintext
# Düşünce Ağacı (ToT)
|
||
|
||
import { Callout, FileTree } from 'nextra-theme-docs'
|
||
import {Screenshot} from 'components/screenshot'
|
||
import TOT from '../../img/TOT.png'
|
||
import TOT2 from '../../img/TOT2.png'
|
||
import TOT3 from '../../img/TOT3.png'
|
||
|
||
Keşif veya stratejik öngörü gerektiren karmaşık görevlerde, geleneksel veya basit istem teknikleri yetersiz kalır. [Yao ve diğerleri (2023)](https://arxiv.org/abs/2305.10601) ve [Long (2023)](https://arxiv.org/abs/2305.08291) son zamanlarda Düşünce Ağacı (ToT) adlı bir çerçeve önermiştir. Bu çerçeve, dil modelleri ile genel problem çözme adımlarına hizmet eden düşünceler üzerinde keşif yapmayı teşvik eden düşünce zinciri istemine genel bir bakış sağlar.
|
||
|
||
ToT, düşüncelerin bir problemi çözmeye yönelik ara tutamak adımlar olarak hizmet eden tutarlı dil dizilerini temsil ettiği bir düşünce ağacını sürdürür. Bu yaklaşım, bir LM'in bir problemi çözmeye yönelik ara düşüncelerdeki ilerlemeyi dikkatli bir akıl yürütme süreci ile değerlendirmesine olanak sağlar. LM'in düşünceleri oluşturma ve değerlendirme yeteneği, öngörü ve geriye gitme ile düşüncelerin sistematik keşfine olanak sağlamak için arama algoritmaları (ör. genişlik-öncelikli arama ve derinlik-öncelikli arama) ile birleştirilir.
|
||
|
||
ToT çerçevesi aşağıda gösterilmiştir:
|
||
|
||
<Screenshot src={TOT} alt="TOT" />
|
||
Görüntü Kaynağı: [Yao ve diğerleri (2023)](https://arxiv.org/abs/2305.10601)
|
||
|
||
ToT'yi kullanırken, farklı görevler aday sayısını ve düşünce/adım sayısını tanımlamayı gerektirir. Örneğin, makalede gösterildiği üzere, 24 Oyunu, düşünceleri her biri ara bir denklem içeren 3 adıma ayırmayı gerektiren bir matematiksel akıl yürütme görevi olarak kullanılmıştır. Her adımda en iyi b=5 aday korunmuştur.
|
||
|
||
24 Oyunu görevi için ToT'de BFS performansını gerçekleştirmek için, LM istendiğinde her düşünce adayını 24'e ulaşma konusunda "emin/muhtemelen/imkansız" olarak değerlendirir. Yazarlara göre, "amac, az sayıda öngörü denemesi içinde yargıya varılabilen doğru kısmi çözümleri teşvik etmek, "çok büyük/küçük" sağduyu temelinde imkansız kısmi çözümleri elemek ve geri kalan "muhtemelen"leri korumaktır". Her düşünce için değerler 3 kez örneklendirilir. Süreç aşağıda gösterilmiştir:
|
||
|
||
<Screenshot src={TOT2} alt="TOT2" />
|
||
Görüntü Kaynağı: [Yao ve diğerleri (2023)](https://arxiv.org/abs/2305.10601)
|
||
|
||
Aşağıdaki figürde rapor edilen sonuçlardan, ToT diğer istem yöntemlerini önemli ölçüde aşmaktadır:
|
||
|
||
<Screenshot src={TOT3} alt="TOT3" />
|
||
Görüntü Kaynağı: [Yao ve diğerleri (2023)](https://arxiv.org/abs/2305.10601)
|
||
|
||
Koda [buradan](https://github.com/princeton-nlp/tree-of-thought-llm) ve [buradan](https://github.com/jieyilong/tree-of-thought-puzzle-solver) ulaşılabilir.
|
||
|
||
Genel olarak, [Yao ve diğerleri (2023)](https://arxiv.org/abs/2305.10601) ve [Long (2023)](https://arxiv.org/abs/2305.08291) 'ın başlıca fikirleri benzerdir. Her ikisi de ağaç araması aracılığıyla bir çok tur konuşma yoluyla LLM'nin karmaşık problem çözme yeteneğini artırır. Ana fark, [Yao ve diğerleri (2023)](https://arxiv.org/abs/2305.10601) 'in DFS/BFS/ışın aramasını kullanırken, [Long (2023)](https://arxiv.org/abs/2305.08291) 'da önerilen ağaç arama stratejisi (yani ne zaman geriye dönülüp ve kaç seviye geriye gidileceği vb.) bir "ToT Controller" üzerinden pekiştirmeli öğrenme ile kontrol edilir. DFS/BFS/Beam arama, spesifik problemlere uyum sağlamayan genel çözüm arama stratejileridir. Buna karşın, RL aracılığıyla eğitilmiş bir ToT Denetleyicisi, yeni bir veri setinden veya kendiliğinden oynanan oyunlar (AlphaGo vs kaba kuvvet arama) üzerinden öğrenebilir ve bu nedenle RL tabanlı ToT sistemi, sabit bir LLM ile bile gelişmeye devam edebilir ve yeni bilgi öğrenebilir.
|
||
|
||
[Hulbert (2023)](https://github.com/dave1010/tree-of-thought-prompting) Düşünce-Ağacı İstemi önerdi, bu yöntem ToT çerçevelerinden ana fikri basit bir istem tekniği olarak uygular ve LLM'lerin tek bir istemde ara düşünceleri değerlendirmesini sağlar. Bir örnek ToT istemi şöyledir:
|
||
|
||
```
|
||
Bu soruyu cevaplandıran üç farklı uzmanı hayal edin.
|
||
Tüm uzmanlar düşünmelerinin 1 adımını yazar,
|
||
sonra bunu grupla paylaşır.
|
||
Sonra tüm uzmanlar bir sonraki adıma geçer, vb.
|
||
Eğer herhangi bir uzman herhangi bir noktada hatalı olduğunu fark ederse, o kişi ayrılır.
|
||
Soru şu...
|
||
``` |