Das Prompt-Engineering ist eine relativ neue Disziplin, die sich mit der Entwicklung und Optimierung von Prompts beschäftigt, um Sprachmodelle (LMs) effizient für eine Vielzahl von Anwendungen und Forschungsthemen zu nutzen. Kenntnisse im Prompt-Engineering helfen dabei, die Fähigkeiten und Grenzen von großen Sprachmodellen (LLMs) besser zu verstehen.
Forscher nutzen das Prompt-Engineering, um die Leistungsfähigkeit von LLMs bei einer breiten Palette von allgemeinen und komplexen Aufgaben wie Fragebeantwortung und arithmetisches Denken zu verbessern. Entwickler verwenden das Prompt-Engineering, um robuste und effektive Prompt-Techniken zu entwerfen, die mit LLMs und anderen Werkzeugen interagieren.
Das Prompt-Engineering dreht sich nicht nur um das Entwerfen und Entwickeln von Prompts. Es umfasst ein breites Spektrum an Fähigkeiten und Techniken, die für die Interaktion und Entwicklung mit LLMs nützlich sind. Es ist eine wichtige Fähigkeit, mit LLMs zu interagieren, sie zu bauen und ihre Fähigkeiten zu verstehen. Sie können das Prompt-Engineering nutzen, um die Sicherheit von LLMs zu erhöhen und neue Fähigkeiten zu entwickeln, wie zum Beispiel die Erweiterung von LLMs mit Fachwissen und externen Werkzeugen.
Angeregt durch das hohe Interesse an der Entwicklung mit LLMs, haben wir diesen neuen Leitfaden zum Prompt-Engineering erstellt, der alle neuesten Papers, fortgeschrittene Prompt-Techniken, Lernanleitungen, modellspezifische Anleitungen zum Prompting, Vorlesungen, Referenzen, neue Fähigkeiten von LLMs und Werkzeuge im Zusammenhang mit Prompt-Engineering enthält.