mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-10 01:13:36 +00:00
98 lines
3.2 KiB
Plaintext
98 lines
3.2 KiB
Plaintext
# preconceitos
|
|
|
|
Os LLMs podem produzir gerações problemáticas que podem ser potencialmente prejudiciais e exibir vieses que podem deteriorar o desempenho do modelo em tarefas posteriores. Alguns deles podem ser mitigados por meio de estratégias de solicitação eficazes, mas podem exigir soluções mais avançadas, como moderação e filtragem.
|
|
|
|
### Distribuição de Exemplares
|
|
Ao realizar o aprendizado de poucos tiros, a distribuição dos exemplares afeta o desempenho do modelo ou influencia o modelo de alguma forma? Podemos fazer um teste simples aqui.
|
|
|
|
*Prompt:*
|
|
```
|
|
Q: Acabei de receber a melhor notícia de todas!
|
|
A: positivo
|
|
|
|
Q: Acabamos de receber um aumento no trabalho!
|
|
A: positivo
|
|
|
|
Q: Estou muito orgulhoso do que realizei hoje.
|
|
A: positivo
|
|
|
|
Q: Estou tendo o melhor dia de todos!
|
|
A: positivo
|
|
|
|
Q: Estou realmente ansioso pelo fim de semana.
|
|
A: positivo
|
|
|
|
Q: Acabei de receber o melhor presente de todos!
|
|
A: positivo
|
|
|
|
Q: Estou tão feliz agora.
|
|
A: positivo
|
|
|
|
Q: Sou tão abençoado por ter uma família tão incrível.
|
|
A: positivo
|
|
|
|
Q: O tempo lá fora está tão sombrio.
|
|
A: negativo
|
|
|
|
Q: Acabei de receber uma notícia terrível.
|
|
A: negativo
|
|
|
|
Q: Isso deixou um gosto amargo.
|
|
A:
|
|
```
|
|
|
|
*Saída:*
|
|
```
|
|
Negativo
|
|
```
|
|
|
|
No exemplo acima, parece que a distribuição de exemplares não influencia o modelo. Isso é bom. Vamos tentar outro exemplo com um texto mais difícil de classificar e vamos ver como fica o modelo:
|
|
|
|
*Prompt:*
|
|
```
|
|
Q: A comida aqui é deliciosa!
|
|
A: positivo
|
|
|
|
Q: Estou tão cansado deste curso.
|
|
A: negativo
|
|
|
|
Q: Não acredito que fui reprovado no exame.
|
|
A: negativo
|
|
|
|
Q: Tive um ótimo dia hoje!
|
|
A: positivo
|
|
|
|
Q: Eu odeio este trabalho.
|
|
A: negativo
|
|
|
|
Q: O atendimento aqui é péssimo.
|
|
A: negativo
|
|
|
|
Q: Estou tão frustrado com a minha vida.
|
|
A: negativo
|
|
|
|
Q: Eu nunca tenho uma pausa.
|
|
A: negativo
|
|
|
|
Q: Esta refeição está com um gosto horrível.
|
|
A: negativo
|
|
|
|
Q: Não suporto meu chefe.
|
|
A: negativo
|
|
|
|
Q: Eu sinto algo.
|
|
A:
|
|
```
|
|
|
|
*Saída:*
|
|
```
|
|
Negativo
|
|
```
|
|
|
|
Embora a última frase seja um tanto subjetiva, inverti a distribuição e, em vez disso, usei 8 exemplos positivos e 2 exemplos negativos e, em seguida, tentei a mesma frase exata novamente. Adivinha o que a modelo respondeu? Ele respondeu "Positivo". O modelo pode ter muito conhecimento sobre a classificação de sentimentos, portanto, será difícil fazer com que ele exiba viés para esse problema. O conselho aqui é evitar distorcer a distribuição e, em vez disso, fornecer um número mais equilibrado de exemplos para cada rótulo. Para tarefas mais difíceis das quais o modelo não tem muito conhecimento, provavelmente terá mais dificuldades.
|
|
|
|
|
|
### Ordem dos Exemplares
|
|
Ao executar o aprendizado de poucos disparos, a ordem afeta o desempenho do modelo ou influencia o modelo de alguma forma?
|
|
|
|
Você pode tentar os exemplos acima e ver se consegue fazer com que o modelo seja inclinado para um rótulo alterando a ordem. O conselho é ordenar exemplares aleatoriamente. Por exemplo, evite ter todos os exemplos positivos primeiro e depois os exemplos negativos por último. Esse problema é ainda mais amplificado se a distribuição de rótulos for distorcida. Certifique-se sempre de experimentar bastante para reduzir esse tipo de viés. |