Prompt-Engineering-Guide/pages/techniques/zeroshot.tr.mdx

23 lines
1.6 KiB
Plaintext
Raw Normal View History

2023-08-29 21:34:46 +00:00
# Sıfır-Örnekli İstem
Bugünkü büyük LLM'ler, örneğin GPT-3, talimatlara uyma konusunda ayarlanmış ve büyük miktarda veri ile eğitilmiştir; bu yüzden bazı görevleri "sıfır örnekli" olarak gerçekleştirme yeteneğine sahiptirler.
2023-04-08 08:23:03 +00:00
2023-08-29 21:34:46 +00:00
Önceki bölümde birkaç sıfır-örnekli örnek denedik. İşte kullandığımız örneklerden biri:
*İstem:*
2023-04-08 08:23:03 +00:00
```
2023-08-29 21:34:46 +00:00
Metni tarafsız, olumsuz ya da olumlu olarak sınıflandırın.
2023-04-08 08:23:03 +00:00
2023-08-29 21:34:46 +00:00
Metin: Tatilin normal olduğunu düşünüyorum.
Hissiyat:
2023-04-08 08:23:03 +00:00
```
ıktı:*
```
2023-08-29 21:34:46 +00:00
Tarafsız
2023-04-08 08:23:03 +00:00
```
2023-08-29 21:34:46 +00:00
Yukarıdaki istemde, metnin yanında herhangi bir sınıflandırma örneği sunmadığımıza dikkat edin, LLM zaten "hissiyat"ı anlıyor -- işte bu, sıfır-örnekli yeteneklerin iş başında olmasıdır.
2023-04-08 08:23:03 +00:00
2023-08-29 21:34:46 +00:00
Talimat ayarlamanın, sıfır-örnekli öğrenmeyi iyileştirdiği gösterilmiştir [Wei ve ark. (2022)](https://arxiv.org/pdf/2109.01652.pdf). Talimat ayarlama, temel olarak modellerin talimatlar aracılığıyla tanımlanan veri setlerinde ince ayar yapılması kavramıdır. Ayrıca, modelin insan tercihleriyle daha iyi uyumlu hale getirilmesi amacıyla [RLHF](https://arxiv.org/abs/1706.03741) (insan geri bildiriminden pekiştirmeli öğrenme) talimat ayarlamanın ölçeklendirilmesinde benimsenmiştir. Bu yeni gelişme, ChatGPT gibi modelleri güçlendirir. Tüm bu yaklaşımlar ve yöntemler hakkında ilerleyen bölümlerde tartışacağız.
2023-04-08 08:23:03 +00:00
2023-08-29 21:34:46 +00:00
Sıfır-örnekli çalışmadığında, isteme gösterimler veya örnekler sağlanması önerilir, bu da az-örnekli isteme yol açar. Bir sonraki bölümde, az-örnekli isteme örneğini gösteriyoruz.