fixes (German translation)

pull/342/head
Erik Behrends 5 months ago
parent 9ff2eb3b8d
commit 75210e2ce5

@ -4,6 +4,26 @@ Aufgrund der hohen Nachfrage haben wir uns mit Maven zusammengetan, um einen neu
[Elvis Saravia](https://www.linkedin.com/in/omarsar/), der bei Unternehmen wie Meta AI und Elastic gearbeitet hat und über jahrelange Erfahrung im Bereich KI und LLMs verfügt, wird der Dozent für diesen Kurs sein.
Dieser praxisnahe Kurs wird Techniken/Tools zum Prompt Engineering, Anwendungsfälle, Übungen und Projekte abdecken, die für die effektive Arbeit mit großen Sprachmodellen (LLMs) und den Aufbau damit essentiell sind.
Dieser technische, praxisnahe Kurs wird Techniken/Tools zum Prompt Engineering, Anwendungsfälle, Übungen und Projekte abdecken, die für die effektive Arbeit mit großen Sprachmodellen (LLMs) und den Aufbau damit essentiell sind.
Unsere bisherigen Lerner reichen von Softwareentwicklern bis hin zu KI-Forschern und -Praktikern in Organisationen wie LinkedIn, Amazon, JPMorgan Chase & Co., Intuit, Fidelity Investments, Coinbase, Guru und vielen anderen.
Themen, zu denen wir Schulungen anbieten:
- Taxonomie von Prompting-Techniken
- Taktiken zur Verbesserung der Zuverlässigkeit
- Strukturierung von LLM-Ausgaben
- Zero-Shot-Prompting
- Few-Shot-In-Context-Lernen
- Chain-of-Thought-Prompting
- Selbstreflexion & Selbstkonsistenz
- ReAcT
- Retrieval-Augmented Generation
- Fine-Tuning & RLHF
- Funktionsaufrufe
- KI-Sicherheit & Moderation
- Von LLMs betriebene Agenten
- Bewertung von LLMs
- Adversarial Prompting (Jailbreaking und Prompt Injections)
- Beurteilung von LLMs
- Häufige reale Anwendungsfälle von LLMs
Unsere bisherigen Lernenden reichen von Softwareingenieuren bis hin zu KI-Forschern und Praktikern in Organisationen wie Microsoft, Google, Apple, Airbnb, LinkedIn, Amazon, JPMorgan Chase & Co., Asana, Intuit, Fidelity Investments, Coinbase, Guru und vielen anderen.

@ -6,13 +6,14 @@ Forscher nutzen das Prompt-Engineering, um die Leistungsfähigkeit von LLMs bei
Das Prompt-Engineering dreht sich nicht nur um das Entwerfen und Entwickeln von Prompts. Es umfasst ein breites Spektrum an Fähigkeiten und Techniken, die für die Interaktion und Entwicklung mit LLMs nützlich sind. Es ist eine wichtige Fähigkeit, mit LLMs zu interagieren, sie zu bauen und ihre Fähigkeiten zu verstehen. Sie können das Prompt-Engineering nutzen, um die Sicherheit von LLMs zu erhöhen und neue Fähigkeiten zu entwickeln, wie zum Beispiel die Erweiterung von LLMs mit Fachwissen und externen Werkzeugen.
Angeregt durch das hohe Interesse an der Entwicklung mit LLMs, haben wir diesen neuen Leitfaden zum Prompt-Engineering erstellt, der alle neuesten Papers, Lernanleitungen, Modelle, Vorlesungen, Referenzen, neue Fähigkeiten von LLMs und Werkzeuge im Zusammenhang mit Prompt-Engineering enthält.
Angeregt durch das hohe Interesse an der Entwicklung mit LLMs, haben wir diesen neuen Leitfaden zum Prompt-Engineering erstellt, der alle neuesten Papers, fortgeschrittene Prompt-Techniken, Lernanleitungen, modellspezifische Anleitungen zum Prompting, Vorlesungen, Referenzen, neue Fähigkeiten von LLMs und Werkzeuge im Zusammenhang mit Prompt-Engineering enthält.
---
Aufgrund der hohen Nachfrage haben wir uns mit Maven zusammengetan, um einen neuen [kohortenbasierten Kurs über Prompt-Engineering für LLMs](https://maven.com/dair-ai/prompt-engineering-llms) anzubieten.
[Elvis Saravia](https://www.linkedin.com/in/omarsar/), der bei Unternehmen wie Meta AI und Elastic gearbeitet hat und jahrelange Erfahrung in KI und LLMs mitbringt, wird der Dozent für diesen Kurs sein.
Dieser praxisorientierte Kurs befasst sich mit Techniken/Werkzeugen des Prompt-Engineerings, Anwendungsfällen, Übungen und Projekten, um effektiv mit großen Sprachmodellen (LLMs) zu arbeiten und sie zu entwickeln.
Unsere bisherigen Lernenden reichen von Software-Ingenieuren bis zu KI-Forschern und Praktikern in Organisationen wie LinkedIn, Amazon, JPMorgan Chase & Co., Intuit, Fidelity Investments, Coinbase, Guru und vielen anderen.
Unsere bisherigen Lernenden reichen von Software-Ingenieuren bis zu KI-Forschern und Praktikern in Organisationen wie Microsoft, Google, Apple, Airbnb, LinkedIn, Amazon, JPMorgan Chase & Co., Asana, Intuit, Fidelity Investments, Coinbase, Guru, und vielen anderen.

@ -1,7 +1,9 @@
# Einleitung
Prompt-Engineering ist eine relativ neue Disziplin, die sich mit der Entwicklung und Optimierung von Eingabeaufforderungen (Prompts) beschäftigt, um Sprachmodelle (LMs) effizient für eine breite Palette von Anwendungen und Forschungsthemen zu nutzen. Kompetenzen im Prompt-Engineering helfen dabei, die Fähigkeiten und Grenzen von großen Sprachmodellen (LLMs) besser zu verstehen. Forscher verwenden Prompt-Engineering, um die Fähigkeiten von LLMs bei einer Vielzahl von gängigen und komplexen Aufgaben wie Fragebeantwortung und arithmetisches Denken zu verbessern. Entwickler setzen Prompt-Engineering ein, um robuste und effektive Techniken für die Interaktion mit LLMs und anderen Werkzeugen zu gestalten.
Prompt-Engineering ist eine relativ neue Disziplin, die sich mit der Entwicklung und Optimierung von Prompts beschäftigt, um große Sprachmodelle (LLMs) effizient für eine Vielzahl von Anwendungen und Einsatzmöglichkeiten zu nutzen und zu entwickeln.
Dieser Leitfaden behandelt die Grundlagen von Prompts, um eine grobe Idee davon zu vermitteln, wie Sie Prompts verwenden können, um mit LLMs zu interagieren und sie zu instruieren.
Fähigkeiten im Bereich Prompt-Engineering helfen dabei, die Fähigkeiten und Grenzen von LLMs besser zu verstehen. Forscher verwenden Prompt-Engineering, um die Sicherheit und die Kapazität von LLMs bei einer breiten Palette von gängigen und komplexen Aufgaben wie Fragebeantwortung und arithmetischem Denken zu verbessern. Entwickler nutzen Prompt-Engineering, um robuste und effektive Prompting-Techniken zu entwerfen, die mit LLMs und anderen Tools interagieren.
Alle Beispiele sind mit `text-davinci-003` unter Verwendung von [OpenAIs Playground](https://platform.openai.com/playground) getestet, sofern nicht anders angegeben. Das Modell verwendet die Standardeinstellungen, d.h. `temperature=0.7` und `top-p=1`.
Dieser umfassende Leitfaden behandelt die Theorie und praktischen Aspekte des Prompt-Engineerings und wie man die besten Prompting-Techniken einsetzt, um mit LLMs zu interagieren und sie zu nutzen.
Alle Beispiele wurden mit `gpt-3.5-turbo` unter Verwendung von [OpenAIs Playground](https://platform.openai.com/playground) getestet, sofern nicht anders angegeben. Das Modell verwendet die Standardeinstellungen, d.h., `temperature=0.7` und `top-p=1`. Die Prompts sollten auch mit anderen Modellen funktionieren, die ähnliche Fähigkeiten wie `gpt-3.5-turbo` haben, aber es könnten sich vollkommen andere Ergebnisse ergeben.

@ -1,12 +1,12 @@
# LLM Einstellungen
Beim Arbeiten mit Prompts interagieren Sie mit dem LLM über eine API oder direkt. Sie können einige Parameter konfigurieren, um unterschiedliche Ergebnisse für Ihre Prompts zu erhalten.
Beim Entwerfen und Testen von Prompts interagieren Sie normalerweise über eine API mit dem LLM. Sie können einige Parameter konfigurieren, um unterschiedliche Ergebnisse für Ihre Prompts zu erhalten. Das Anpassen dieser Einstellungen ist wichtig, um die Zuverlässigkeit und Erwünschtheit der Antworten zu verbessern, und es bedarf des Experimentierens, um die richtigen Einstellungen für Ihre Anwendungsfälle herauszufinden. Unten finden Sie die gängigen Einstellungen, auf die Sie bei der Verwendung verschiedener LLM-Anbieter stoßen werden:
**Temperature** - Kurz gesagt, je niedriger die `temperature`, desto deterministischer sind die Ergebnisse in dem Sinne, dass immer das wahrscheinlichste nächste Token gewählt wird. Eine Erhöhung der Temperatur kann zu mehr Zufälligkeit führen und damit vielfältigere oder kreativere Ausgaben fördern. Sie erhöhen im Grunde das Gewicht der anderen möglichen Tokens. Im Hinblick auf die Anwendung möchten Sie vielleicht einen niedrigeren Temperaturwert für Aufgaben wie faktenbasierte QA verwenden, um präzisere und knappere Antworten zu fördern. Für die Generierung von Gedichten oder andere kreative Aufgaben könnte es vorteilhaft sein, den Temperaturwert zu erhöhen.
**Top_p** - Ähnlich ist es mit `top_p`, eine Stichprobentechnik mit Temperatur namens _nucleus sampling_. Hiermit können Sie steuern, wie deterministisch das Modell bei der Generierung einer Antwort ist. Wenn Sie nach exakten und faktischen Antworten suchen, halten Sie diesen Wert niedrig. Wenn Sie nach vielfältigeren Antworten suchen, erhöhen Sie ihn auf einen höheren Wert.
Die allgemeine Empfehlung lautet, entweder die Temperatur oder top_p zu verändern, nicht beides.
Die allgemeine Empfehlung lautet, entweder die Temperatur oder `top_p` zu verändern, nicht beides.
**Maximale Länge** - Sie können die Anzahl der vom Modell generierten Tokens steuern, indem Sie die 'maximale Länge' anpassen. Wenn Sie eine maximale Länge angeben, helfen Sie dabei, lange oder irrelevante Antworten zu verhindern und die Kosten zu kontrollieren.

@ -1,17 +1,64 @@
`
# Unsere Dienstleistungen
## Professionelle Weiterbildung
Wir bieten professionelle Weiterbildung für Organisationen und Start-ups an, um ihre Teams im Bereich des Prompting für große Sprachmodelle (LLMs) zu schulen.
Wir bieten professionelle Schulungen für Organisationen und Start-ups an, um ihre Belegschaft in Prompt-Engineering, dem Umgang mit großen Sprachmodellen (LLMs) und der Nutzung von Generativer KI für Geschäftsanwendungen zu schulen.
Unsere Schulung lehrt, wie man LLMs effizient und effektiv nutzt und Generative KI für Geschäftszwecke einsetzt. Sie umfasst die besten und neuesten Prompting-Techniken, die auf eine Vielzahl von Anwendungsfällen angewendet werden können, von der Erstellung langer Artikelzusammenfassungen bis hin zu Erkennungssystemen für Prompt-Injection und LLM-basierten Evaluatoren. Das Ziel ist, dass Sie lernen, fortgeschrittene Prompting-Techniken anzuwenden, um effektiv fortschrittliche, von LLMs angetriebene Anwendungen und Produkte zu entwickeln und sie für das berufliche Wachstum zu nutzen.
Themen zu denen wir Schulungen anbieten:
- Taxonomie von Prompting-Techniken
- Taktiken zur Verbesserung der Zuverlässigkeit
- Strukturierung von LLM-Ausgaben
- Zero-Shot-Prompting
- Few-Shot-In-Context-Lernen
- Chain-of-Thought-Prompting
- Selbstreflexion & Selbstkonsistenz
- ReAcT
- Retrieval-Augmented Generation
- Fine-Tuning & RLHF
- Funktionsaufrufe
- KI-Sicherheit & Moderation
- Von LLMs betriebene Agenten
- Bewertung von LLMs
- Adversarial Prompting (Jailbreaking und Prompt Injections)
- Beurteilung von LLMs
- Häufige reale Anwendungsfälle von LLMs
... und viele weitere
[Einen Anruf vereinbaren](https://calendly.com/elvisosaravia/dair-ai-professional-training)
## Beratung & Advisory
Wir bieten Beratung und Advisory-Dienstleistungen an, um Geschäftswerte aus großen Sprachmodellen (LLMs) zu extrahieren.
## Beratung & Consulting
Beratung & Consulting
Wir bieten technische Beratung und Unterstützung, um Geschäftswerte aus großen Sprachmodellen (LLMs) und Generativer KI im Allgemeinen zu ziehen. Wir können Ihre Teams bei der Arbeit mit LLMs in folgenden Themenbereichen unterstützen:
- Taxonomie von Prompting-Techniken
- Taktiken zur Verbesserung der Zuverlässigkeit
- Strukturierung von LLM-Ausgaben
- Zero-Shot-Prompting
- Few-Shot-In-Context-Lernen
- Chain-of-Thought-Prompting
- Selbstreflexion & Selbstkonsistenz
- ReAcT
- Retrieval-Augmented Generation
- Fine-Tuning & RLHF
- Funktionsaufrufe
- KI-Sicherheit & Moderation
- Von LLMs betriebene Agenten
- Bewertung von LLMs
- Adversarial Prompting (Jailbreaking und Prompt Injections)
- Beurteilung von LLMs
- Häufige reale Anwendungsfälle von LLMs
... und viele weitere
[Einen Anruf vereinbaren](https://calendly.com/elvisosaravia/dair-ai-consulting)
---
Wenn Sie Fragen haben, senden Sie uns eine E-Mail an [hello@dair.ai](mailto:hello@dair.ai)

Loading…
Cancel
Save