LLM'ler, modelin aşağıdaki görevlerdeki performansını bozabilecek ve potansiyel olarak zararlı olabilecek ve önyargılar sergileyebilecek sorunlu üretimler yapabilir. Bunların bazıları etkili istem stratejileri ile hafifletilebilirken, daha ileri düzey çözümler gerektirebilir, örneğin düzenleme ve filtreleme.
Az örnekli öğrenme yaparken, örneklerin dağılımı modelin performansını etkiler mi veya modeli bir şekilde önyargılı hale getirir mi? Burada basit bir test yapabiliriz.
Yukarıdaki örnekte, örneklerin dağılımının modeli önyargılı hale getirmediği görülüyor. Bu iyi. Sınıflandırılması daha zor bir metinle başka bir örnek deneyelim ve modelin nasıl performans gösterdiğini görelim:
Son cümle biraz subjektifken, dağılımı tersine çevirdim ve bunun yerine 8 pozitif örnek ve 2 negatif örnek kullandım ve ardından aynı cümleyi tekrar denedim. Modelin ne yanıt verdiğini tahmin edin mi? "Pozitif" yanıtını verdi. Modelin duygu sınıflandırılması hakkında çok fazla bilgisi olabilir, bu yüzden bu problem için önyargı sergilemesi zor olacak. Buradaki tavsiye, dağılımı çarpıtmamak ve bunun yerine her etiket için daha dengeli bir örnek sayısı sağlamaktır. Modelin fazla bilgiye sahip olmadığı daha zor görevlerde, muhtemelen daha çok zorlanacaktır.
Yukarıdaki örnekleri deneyebilir ve sırayı değiştirerek modelin bir etikete önyargılı hale gelip gelmediğini görebilirsiniz. Tavsiye, örnekleri rastgele sıralamaktır. Örneğin, tüm pozitif örneklerin önce ve daha sonra negatif örneklerin son olmasını önleyin. Bu sorun, etiketlerin dağılımı çarpık olduğunda daha da artar. Bu tür bir önyargıyı azaltmak için her zaman çok deney yapmaya dikkat edin.