added youtube videos (German translation)

pull/461/head
Erik Behrends 2 months ago
parent 8dcc7bffd6
commit 26ffbea3e9

@ -1,5 +1,9 @@
# Beispiele für Prompts
import {Cards, Card} from 'nextra-theme-docs'
import {CodeIcon} from 'components/icons'
import {Bleed} from 'nextra-theme-docs'
Der vorherige Abschnitt hat ein grundlegendes Beispiel dafür vorgestellt, wie man Prompts für LLMs verwendet.
Dieser Abschnitt wird mehr Beispiele dafür liefern, wie man Prompts für verschiedene Aufgaben verwenden kann und währenddessen Schlüsselkonzepte einführen. Oft ist der beste Weg, Konzepte zu erlernen, sie anhand von Beispielen durchzugehen. Die folgenden Beispiele veranschaulichen, wie Sie gut gestaltete Prompts für unterschiedliche Arten von Aufgaben verwenden können.
@ -15,6 +19,14 @@ Themen:
---
<Bleed>
<iframe width="100%"
height="415px"
src="https://www.youtube.com/embed/TBhRC4Dath4?si=6nwh0GuYAOv1H6yT" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture"
allowFullScreen
/>
</Bleed>
## Textzusammenfassung
Eine der Standardaufgaben in der Generierung natürlicher Sprache ist die Textzusammenfassung. Textzusammenfassung kann viele verschiedene Varianten und Bereiche umfassen. Tatsächlich ist eine der vielversprechendsten Anwendungen von Sprachmodellen die Fähigkeit, Artikel und Konzepte in schnelle und leicht verständliche Zusammenfassungen zu transformieren. Versuchen wir eine grundlegende Aufgabe zur Zusammenfassung mit Hilfe von Prompts.
@ -287,3 +299,15 @@ Viel besser, nicht wahr? Übrigens, ich habe das ein paar Mal versucht und manch
Wir werden diesen Abschnitt des Leitfadens weiterhin mit mehr Beispielen für gängige Anwendungen ergänzen.
Im nächsten Abschnitt werden wir noch weiter fortgeschrittene Konzepte und Techniken des Prompt-Engineerings besprechen und wie man die Leistung bei all diesen und schwierigeren Aufgaben verbessern kann.
## Notebook
Wenn Sie mit den oben genannten Prompts in Python üben möchten, haben wir ein Notebook vorbereitet, um einige der Prompts mit den OpenAI-Modellen zu testen.
<Cards>
<Card
icon={<CodeIcon />}
title="Getting Started with Prompt Engineering"
href="https://github.com/dair-ai/Prompt-Engineering-Guide/blob/main/notebooks/pe-lecture.ipynb"
/>
</Cards>

@ -2,6 +2,8 @@
"llm-agents": "LLM Agenten",
"rag": "RAG für LLMs",
"llm-reasoning": "LLM Reasoning",
"rag_hallucinations": "RAG Reduziert Halluzination",
"synthetic_data": "Synthetische Daten",
"thoughtsculpt": "ThoughtSculpt",
"infini-attention": "Infini-Attention",
"trustworthiness-in-llms": "Vertrauenswürdigkeit in LLMs",

@ -0,0 +1,21 @@
# Reduzierung von Halluzinationen in strukturierten Ausgaben durch RAG
import {Bleed} from 'nextra-theme-docs'
<Bleed>
<iframe width="100%"
height="415px"
src="https://www.youtube.com/embed/TUL5guqZejw?si=Doc7lzyAY-SKr21L" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture"
allowFullScreen
/>
</Bleed>
Forscher bei ServiceNow haben ein [neues Paper](https://arxiv.org/abs/2404.08189) veröffentlicht, in dem sie diskutieren, wie ein effizientes RAG-System für strukturierte Ausgabeaufgaben eingesetzt werden kann.
!["RAG Halluzination"](../../img/research/structured_outputs.png)
Das RAG-System kombiniert ein kleines Sprachmodell mit einem sehr kleinen Retriever. Es zeigt, dass RAG den Einsatz leistungsfähiger LLM-basierter Systeme in Ressourcen-begrenzten Einstellungen ermöglichen kann, während Probleme wie Halluzinationen verringert und die Zuverlässigkeit der Ausgaben erhöht werden.
Das Paper behandelt die sehr nützliche unternehmensbezogene Anwendung der Übersetzung von natürlichsprachlichen Anforderungen in Workflows (formatiert in JSON). Aus dieser Aufgabe kann viel Produktivität gewonnen werden, aber es gibt noch viel Optimierungspotenzial (z.B. durch den Einsatz von spekulativem Decoding oder die Verwendung von YAML statt JSON).
Das Paper bietet einige großartige Einblicke und praktische Tipps, wie man RAG-Systeme effektiv für die reale Welt entwickeln kann.

@ -0,0 +1,21 @@
# Best Practices und gewonnene Erkenntnisse über synthetische Daten für Sprachmodelle
import {Bleed} from 'nextra-theme-docs'
<Bleed>
<iframe width="100%"
height="415px"
src="https://www.youtube.com/embed/YnlArBZJHY8?si=ZH3hFzwixUopxU5Z" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture"
allowFullScreen
/>
</Bleed>
Dieses [Paper](https://arxiv.org/abs/2404.07503) bietet einen Überblick über bewährte Praktiken und gewonnene Erkenntnisse bezüglich synthetischer Daten für Sprachmodelle und wurde von Google DeepMind und weiteren Mitarbeitern veröffentlicht.
Es konzentriert sich auf synthetische Daten und behandelt Anwendungen, Herausforderungen und zukünftige Richtungen. Dies ist ein wichtiges Dokument, angesichts der bedeutenden Fortschritte, die wir durch den Einsatz von synthetischen Daten im Bereich der KI beobachten.
Wir wissen mit Sicherheit, dass je mehr hochwertige Daten wir diesen Modellen zur Verfügung stellen, desto besser ist die Leistung. Synthetische Daten zu erstellen ist nicht schwer, aber deren Qualität sicherzustellen, stellt wirklich eine Herausforderung dar.
Das Paper behandelt auch wichtige Themen im Umgang mit synthetischen Daten wie Qualitätssicherung, Faktentreue, Treue, Unvoreingenommenheit, Vertrauenswürdigkeit, Privatsphäre und mehr.
Im Abschnitt zu verwandten Arbeiten werden auch viele großartige Referenzen erwähnt.
Loading…
Cancel
Save