From c25f5173a0b9954bc1481facd82bd08d32e8e029 Mon Sep 17 00:00:00 2001 From: Erik Behrends Date: Fri, 26 Apr 2024 16:11:57 +0200 Subject: [PATCH] rag-faithfulness --- pages/models/llama-3.de.mdx | 6 +++--- pages/research/_meta.de.json | 1 + pages/research/rag-faithfulness.de.mdx | 26 ++++++++++++++++++++++++++ 3 files changed, 30 insertions(+), 3 deletions(-) create mode 100644 pages/research/rag-faithfulness.de.mdx diff --git a/pages/models/llama-3.de.mdx b/pages/models/llama-3.de.mdx index 66c2f13..8315c59 100644 --- a/pages/models/llama-3.de.mdx +++ b/pages/models/llama-3.de.mdx @@ -2,7 +2,7 @@ import {Bleed} from 'nextra-theme-docs' -Meta hat kürzlich ihre neue Familie großer Sprachmodelle (LLMs), genannt Llama 3, [vorgestellt](https://llama.meta.com/llama3/). Diese Veröffentlichung umfasst vorab trainierte und anweisungsoptimierte Modelle mit 8B und 70B Parametern. +Meta hat kürzlich ihre neue Familie großer Sprachmodelle (LLMs), genannt Llama 3, [vorgestellt](https://llama.meta.com/llama3/). Diese Veröffentlichung umfasst vorab trainierte und anweisungsoptimierte Modelle mit 8 Milliarden und 70 Milliarden Parametern. ## Architekturdetails zu Llama 3 @@ -29,7 +29,7 @@ Die vorab trainierten Modelle übertreffen ebenfalls andere Modelle bei mehreren ## Llama 3 400B -Meta berichtete auch, dass sie ein Modell mit 400B Parametern veröffentlichen werden, das derzeit noch trainiert wird und bald verfügbar sein soll! Es gibt auch Bemühungen um multimodale Unterstützung, mehrsprachige Fähigkeiten und längere Kontextfenster. Der aktuelle Checkpoint für Llama 3 400B (Stand 15. April 2024) liefert die folgenden Ergebnisse bei gängigen Benchmarks wie MMLU und Big-Bench Hard: +Meta berichtete auch, dass sie ein Modell mit 400 Milliarden Parametern veröffentlichen werden, das derzeit noch trainiert wird und bald verfügbar sein soll! Es gibt auch Bemühungen um multimodale Unterstützung, mehrsprachige Fähigkeiten und längere Kontextfenster. Der aktuelle Checkpoint für Llama 3 400B (Stand 15. April 2024) liefert die folgenden Ergebnisse bei gängigen Benchmarks wie MMLU und Big-Bench Hard: !["Llama 3 400B"](../../img/llama3/llama-400b.png) *Quelle: [Meta AI](https://ai.meta.com/blog/meta-llama-3/)* @@ -46,4 +46,4 @@ Hier folgt eine längere Bewertung von Llama 3: src="https://www.youtube.com/embed/h2aEmciRd6U?si=m7-xXu5IWpB-6mE0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowFullScreen /> - \ No newline at end of file + diff --git a/pages/research/_meta.de.json b/pages/research/_meta.de.json index 9cceb7c..73c0eba 100644 --- a/pages/research/_meta.de.json +++ b/pages/research/_meta.de.json @@ -2,6 +2,7 @@ "llm-agents": "LLM Agenten", "rag": "RAG für LLMs", "llm-reasoning": "LLM Reasoning", + "rag-faithfulness": "RAG Zuverlässigkeit", "llm-recall": "LLM In-Context Recall", "thoughtsculpt": "ThoughtSculpt", "infini-attention": "Infini-Attention", diff --git a/pages/research/rag-faithfulness.de.mdx b/pages/research/rag-faithfulness.de.mdx new file mode 100644 index 0000000..04fd4b9 --- /dev/null +++ b/pages/research/rag-faithfulness.de.mdx @@ -0,0 +1,26 @@ +# Wie zuverlässig sind RAG-Modelle? + +import {Bleed} from 'nextra-theme-docs' + + +