commit
bf9015680c
@ -1,7 +1,9 @@
|
||||
# Einleitung
|
||||
|
||||
Prompt-Engineering ist eine relativ neue Disziplin, die sich mit der Entwicklung und Optimierung von Eingabeaufforderungen (Prompts) beschäftigt, um Sprachmodelle (LMs) effizient für eine breite Palette von Anwendungen und Forschungsthemen zu nutzen. Kompetenzen im Prompt-Engineering helfen dabei, die Fähigkeiten und Grenzen von großen Sprachmodellen (LLMs) besser zu verstehen. Forscher verwenden Prompt-Engineering, um die Fähigkeiten von LLMs bei einer Vielzahl von gängigen und komplexen Aufgaben wie Fragebeantwortung und arithmetisches Denken zu verbessern. Entwickler setzen Prompt-Engineering ein, um robuste und effektive Techniken für die Interaktion mit LLMs und anderen Werkzeugen zu gestalten.
|
||||
Prompt-Engineering ist eine relativ neue Disziplin, die sich mit der Entwicklung und Optimierung von Prompts beschäftigt, um große Sprachmodelle (LLMs) effizient für eine Vielzahl von Anwendungen und Einsatzmöglichkeiten zu nutzen und zu entwickeln.
|
||||
|
||||
Dieser Leitfaden behandelt die Grundlagen von Prompts, um eine grobe Idee davon zu vermitteln, wie Sie Prompts verwenden können, um mit LLMs zu interagieren und sie zu instruieren.
|
||||
Fähigkeiten im Bereich Prompt-Engineering helfen dabei, die Fähigkeiten und Grenzen von LLMs besser zu verstehen. Forscher verwenden Prompt-Engineering, um die Sicherheit und die Kapazität von LLMs bei einer breiten Palette von gängigen und komplexen Aufgaben wie Fragebeantwortung und arithmetischem Denken zu verbessern. Entwickler nutzen Prompt-Engineering, um robuste und effektive Prompting-Techniken zu entwerfen, die mit LLMs und anderen Tools interagieren.
|
||||
|
||||
Alle Beispiele sind mit `text-davinci-003` unter Verwendung von [OpenAIs Playground](https://platform.openai.com/playground) getestet, sofern nicht anders angegeben. Das Modell verwendet die Standardeinstellungen, d.h. `temperature=0.7` und `top-p=1`.
|
||||
Dieser umfassende Leitfaden behandelt die Theorie und praktischen Aspekte des Prompt-Engineerings und wie man die besten Prompting-Techniken einsetzt, um mit LLMs zu interagieren und sie zu nutzen.
|
||||
|
||||
Alle Beispiele wurden mit `gpt-3.5-turbo` unter Verwendung von [OpenAIs Playground](https://platform.openai.com/playground) getestet, sofern nicht anders angegeben. Das Modell verwendet die Standardeinstellungen, d.h., `temperature=0.7` und `top-p=1`. Die Prompts sollten auch mit anderen Modellen funktionieren, die ähnliche Fähigkeiten wie `gpt-3.5-turbo` haben, aber es könnten sich vollkommen andere Ergebnisse ergeben.
|
||||
|
Loading…
Reference in New Issue