Prompt-Engineering-Guide/pages/risks.de.mdx

28 lines
1.3 KiB
Plaintext
Raw Normal View History

2023-11-27 19:08:16 +00:00
# Risiken & Missbrauch
2024-01-03 11:19:08 +00:00
import { Callout } from 'nextra-theme-docs';
import { Cards, Card } from 'nextra-theme-docs';
import { FilesIcon } from 'components/icons';
2023-11-27 19:08:16 +00:00
2024-01-03 11:19:08 +00:00
Gut formulierte Prompts können zu effektivem Einsatz von LLMs für verschiedene Aufgaben unter Verwendung von Techniken wie Few-Shot-Learning und Chain-of-Thought-Prompts führen. Sobald Sie darüber nachdenken, reale Anwendungen auf Basis von LLMs zu entwickeln, wird es auch entscheidend, über Missbräuche, Risiken und Sicherheitspraktiken im Zusammenhang mit Sprachmodellen nachzudenken.
2023-11-27 19:08:16 +00:00
2024-01-03 11:19:08 +00:00
Dieser Abschnitt konzentriert sich darauf, einige der Risiken und Missbräuche von LLMs mittels Techniken wie Prompt-Injektionen hervorzuheben. Es beleuchtet auch schädliche Verhaltensweisen und wie diese möglicherweise durch effektive Prompting-Techniken und Tools wie Moderations-APIs gemildert werden können. Andere interessante Themen umfassen Allgemeingültigkeit, Kalibrierung, Voreingenommenheiten, soziale Verzerrungen und Faktentreue, um nur einige zu nennen.
2023-11-27 19:08:16 +00:00
2024-01-03 11:19:08 +00:00
<Cards>
<Card
icon={<FilesIcon />}
title="Adversariales Prompting"
href="/risks/adversarial"
/>
<Card
icon={<FilesIcon />}
title="Faktentreue"
href="/risks/factuality"
/>
<Card
icon={<FilesIcon />}
title="Verzerrungen (biases)"
href="/risks/biases"
/>
</Cards>