mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-16 06:12:45 +00:00
12 lines
962 B
Plaintext
12 lines
962 B
Plaintext
# Rischi e Abusi
|
|
|
|
import { Callout } from 'nextra-theme-docs'
|
|
|
|
Abbiamo già visto quanto possano essere efficaci i prompt ben fatti per vari compiti, utilizzando tecniche come l'apprendimento a pochi colpi e il prompt a catena di pensieri. Nel momento in cui pensiamo di costruire applicazioni reali sulla base dei LLM, diventa fondamentale riflettere sugli usi impropri, sui rischi e sulle pratiche di sicurezza che i modelli linguistici comportano.
|
|
|
|
Questa sezione si concentra sull'evidenziazione di alcuni rischi e usi impropri degli LLM attraverso tecniche come le iniezioni di prompt. Vengono inoltre evidenziati i comportamenti dannosi e le modalità per mitigarli potenzialmente attraverso tecniche di prompting efficaci. Altri argomenti di interesse sono la generalizzabilità, la calibrazione, i pregiudizi, i pregiudizi sociali e la fattualità, per citarne alcuni.
|
|
|
|
<Callout emoji="⚠️">
|
|
Questa sezione è in fase di forte sviluppo.
|
|
</Callout>
|