mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-02 15:40:13 +00:00
12 lines
1.1 KiB
Plaintext
12 lines
1.1 KiB
Plaintext
# Risks & Misuses
|
|
|
|
import { Callout } from 'nextra-theme-docs'
|
|
|
|
Nous avons déjà vu à quel point des prompts bien conçus peuvent être efficaces pour diverses tâches en utilisant des techniques telles que l'apprentissage à quelques exemples et la stimulation de la chaîne de pensée. En envisageant de construire des applications concrètes sur la base de modèles de langage de grande envergure, il est crucial de réfléchir aux utilisations abusives, aux risques et aux pratiques de sécurité liées aux modèles de langage.
|
|
|
|
Cette section met l'accent sur la mise en évidence de certains des risques et abus associés aux LLMs via des techniques telles que les injections de prompts. Elle met également en évidence les comportements préjudiciables et la façon de les atténuer potentiellement grâce à des techniques de prompt efficaces. D'autres sujets d'intérêt comprennent la généralisabilité, l'étalonnage, les biais, les biais sociaux et la factualité, pour n'en nommer que quelques-uns.
|
|
|
|
<Callout emoji="⚠️">
|
|
Cette section est en plein développement.
|
|
</Callout>
|