Prompt-Engineering-Guide/pages/risks.de.mdx

13 lines
1.1 KiB
Plaintext
Raw Normal View History

2023-11-27 19:08:16 +00:00
# Risiken & Missbrauch
2024-01-03 11:19:08 +00:00
import { Callout } from 'nextra-theme-docs';
import { Cards, Card } from 'nextra-theme-docs';
import { FilesIcon } from 'components/icons';
2024-01-16 06:38:05 +00:00
import ContentFileNames from 'components/ContentFileNames'
2023-11-27 19:08:16 +00:00
2024-01-03 11:19:08 +00:00
Gut formulierte Prompts können zu effektivem Einsatz von LLMs für verschiedene Aufgaben unter Verwendung von Techniken wie Few-Shot-Learning und Chain-of-Thought-Prompts führen. Sobald Sie darüber nachdenken, reale Anwendungen auf Basis von LLMs zu entwickeln, wird es auch entscheidend, über Missbräuche, Risiken und Sicherheitspraktiken im Zusammenhang mit Sprachmodellen nachzudenken.
2023-11-27 19:08:16 +00:00
2024-01-03 11:19:08 +00:00
Dieser Abschnitt konzentriert sich darauf, einige der Risiken und Missbräuche von LLMs mittels Techniken wie Prompt-Injektionen hervorzuheben. Es beleuchtet auch schädliche Verhaltensweisen und wie diese möglicherweise durch effektive Prompting-Techniken und Tools wie Moderations-APIs gemildert werden können. Andere interessante Themen umfassen Allgemeingültigkeit, Kalibrierung, Voreingenommenheiten, soziale Verzerrungen und Faktentreue, um nur einige zu nennen.
2023-11-27 19:08:16 +00:00
2024-01-16 06:38:05 +00:00
<ContentFileNames section="risks" lang="de"/>