mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-10 01:13:36 +00:00
12 lines
985 B
Plaintext
12 lines
985 B
Plaintext
# Rischi e Abusi
|
|
|
|
import { Callout } from 'nextra-theme-docs'
|
|
import ContentFileNames from 'components/ContentFileNames'
|
|
|
|
|
|
Abbiamo già visto quanto possano essere efficaci i prompt ben fatti per vari compiti, utilizzando tecniche come l'apprendimento a pochi colpi e il prompt a catena di pensieri. Nel momento in cui pensiamo di costruire applicazioni reali sulla base dei LLM, diventa fondamentale riflettere sugli usi impropri, sui rischi e sulle pratiche di sicurezza che i modelli linguistici comportano.
|
|
|
|
Questa sezione si concentra sull'evidenziazione di alcuni rischi e usi impropri degli LLM attraverso tecniche come le iniezioni di prompt. Vengono inoltre evidenziati i comportamenti dannosi e le modalità per mitigarli potenzialmente attraverso tecniche di prompting efficaci. Altri argomenti di interesse sono la generalizzabilità, la calibrazione, i pregiudizi, i pregiudizi sociali e la fattualità, per citarne alcuni.
|
|
|
|
<ContentFileNames section="risks" lang="it"/>
|