Prompt-Engineering ist eine relativ neue Disziplin, die sich mit der Entwicklung und Optimierung von Prompts beschäftigt, um große Sprachmodelle (LLMs) effizient für eine Vielzahl von Anwendungen und Einsatzmöglichkeiten zu nutzen und zu entwickeln.
Fähigkeiten im Bereich Prompt-Engineering helfen dabei, die Fähigkeiten und Grenzen von LLMs besser zu verstehen. Forscher verwenden Prompt-Engineering, um die Sicherheit und die Kapazität von LLMs bei einer breiten Palette von gängigen und komplexen Aufgaben wie Fragebeantwortung und arithmetischem Denken zu verbessern. Entwickler nutzen Prompt-Engineering, um robuste und effektive Prompting-Techniken zu entwerfen, die mit LLMs und anderen Tools interagieren.
Dieser umfassende Leitfaden behandelt die Theorie und praktischen Aspekte des Prompt-Engineerings und wie man die besten Prompting-Techniken einsetzt, um mit LLMs zu interagieren und sie zu nutzen.
Alle Beispiele wurden mit `gpt-3.5-turbo` unter Verwendung von [OpenAIs Playground](https://platform.openai.com/playground) getestet, sofern nicht anders angegeben. Das Modell verwendet die Standardeinstellungen, d.h., `temperature=0.7` und `top-p=1`. Die Prompts sollten auch mit anderen Modellen funktionieren, die ähnliche Fähigkeiten wie `gpt-3.5-turbo` haben, aber es könnten sich vollkommen andere Ergebnisse ergeben.