mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-02 15:40:13 +00:00
11 lines
894 B
Plaintext
11 lines
894 B
Plaintext
|
# Riscos e usos indevidos
|
||
|
|
||
|
import { Callout } from 'nextra-theme-docs'
|
||
|
|
||
|
Já vimos como os prompts bem elaborados podem ser eficazes para várias tarefas, usando técnicas como aprendizado de poucos tiros e prompts de cadeia de pensamento. À medida que pensamos em construir aplicativos do mundo real sobre LLMs, torna-se crucial pensar sobre os usos indevidos, riscos e práticas de segurança envolvidas com modelos de linguagem.
|
||
|
|
||
|
Esta seção se concentra em destacar alguns dos riscos e usos indevidos de LLMs por meio de técnicas como injeções de prompt. Ele também destaca comportamentos nocivos e como potencialmente mitigá-los por meio de técnicas de alerta eficazes. Outros tópicos de interesse incluem generalização, calibração, vieses, vieses sociais e factualidade, para citar alguns.
|
||
|
|
||
|
<Callout emoji="⚠️">
|
||
|
Esta seção está em intenso desenvolvimento.
|
||
|
</Callout>
|