mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-19 21:25:35 +00:00
12 lines
987 B
Plaintext
12 lines
987 B
Plaintext
|
# Risiken & Missbrauch
|
||
|
|
||
|
import { Callout } from 'nextra-theme-docs'
|
||
|
|
||
|
Wir haben bereits gesehen, wie effektiv gut gestaltete Prompts für verschiedene Aufgaben sein können, die Techniken wie Few-Shot-Learning und Chain-of-Thought-Prompting verwenden. Wenn wir darüber nachdenken, auf der Basis von LLMs reale Anwendungen zu entwickeln, wird es entscheidend, über den Missbrauch, Risiken und Sicherheitspraktiken im Umgang mit Sprachmodellen nachzudenken.
|
||
|
|
||
|
Dieser Abschnitt konzentriert sich darauf, einige der Risiken und Missbräuche von LLMs durch Techniken wie Prompt-Injektionen hervorzuheben. Er beleuchtet auch schädliche Verhaltensweisen und wie man sie möglicherweise durch effektive Prompting-Techniken abmildern kann. Andere interessante Themen umfassen Allgemeingültigkeit, Kalibrierung, Voreingenommenheiten, soziale Verzerrungen und Faktualität, um nur einige zu nennen.
|
||
|
|
||
|
<Callout emoji="⚠️">
|
||
|
Dieser Abschnitt befindet sich in intensiver Entwicklung.
|
||
|
</Callout>
|