mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-04 12:00:10 +00:00
13 lines
1.1 KiB
Plaintext
13 lines
1.1 KiB
Plaintext
# Risiken & Missbrauch
|
|
|
|
import { Callout } from 'nextra-theme-docs';
|
|
import { Cards, Card } from 'nextra-theme-docs';
|
|
import { FilesIcon } from 'components/icons';
|
|
import ContentFileNames from 'components/ContentFileNames'
|
|
|
|
|
|
Gut formulierte Prompts können zu effektivem Einsatz von LLMs für verschiedene Aufgaben unter Verwendung von Techniken wie Few-Shot-Learning und Chain-of-Thought-Prompts führen. Sobald Sie darüber nachdenken, reale Anwendungen auf Basis von LLMs zu entwickeln, wird es auch entscheidend, über Missbräuche, Risiken und Sicherheitspraktiken im Zusammenhang mit Sprachmodellen nachzudenken.
|
|
|
|
Dieser Abschnitt konzentriert sich darauf, einige der Risiken und Missbräuche von LLMs mittels Techniken wie Prompt-Injektionen hervorzuheben. Es beleuchtet auch schädliche Verhaltensweisen und wie diese möglicherweise durch effektive Prompting-Techniken und Tools wie Moderations-APIs gemildert werden können. Andere interessante Themen umfassen Allgemeingültigkeit, Kalibrierung, Voreingenommenheiten, soziale Verzerrungen und Faktentreue, um nur einige zu nennen.
|
|
|
|
<ContentFileNames section="risks" lang="de"/> |