From 54eb6930a365e67021b7a584325f4569186121a8 Mon Sep 17 00:00:00 2001 From: Erik Behrends Date: Fri, 29 Mar 2024 12:46:56 +0100 Subject: [PATCH] grok-1 (German translation) --- pages/models/_meta.de.json | 1 + pages/models/grok-1.de.mdx | 28 ++++++++++++++++++++++++++++ 2 files changed, 29 insertions(+) create mode 100644 pages/models/grok-1.de.mdx diff --git a/pages/models/_meta.de.json b/pages/models/_meta.de.json index 0567392..69b9c02 100644 --- a/pages/models/_meta.de.json +++ b/pages/models/_meta.de.json @@ -7,6 +7,7 @@ "gemini-pro": "Gemini 1.5 Pro", "gemma": "Gemma", "gpt-4": "GPT-4", + "grok-1": "Grok-1", "llama": "LLaMA", "mistral-7b": "Mistral 7B", "mistral-large": "Mistral Large", diff --git a/pages/models/grok-1.de.mdx b/pages/models/grok-1.de.mdx new file mode 100644 index 0000000..f0ad29d --- /dev/null +++ b/pages/models/grok-1.de.mdx @@ -0,0 +1,28 @@ +# Grok-1 + +Grok-1 ist ein Large Language Model (LLM) mit einer Mischung aus Experten (MoE) und 314B Parametern, welches die offene Veröffentlichung der Gewichte des Basis-Modells und der Netzwerkarchitektur beinhaltet. + +Grok-1 wird von xAI trainiert und besteht aus einem MoE-Modell, das 25% der Gewichte für ein gegebenes Token zur Inferenzzeit aktiviert. Das Vortrainings-Cutoff-Datum für Grok-1 ist Oktober 2023. + +Wie in der [offiziellen Ankündigung](https://x.ai/blog/grok-os) festgestellt, ist Grok-1 der Roh-Checkpoint des Basis-Modells aus der Vortrainingsphase, was bedeutet, dass es noch nicht für eine spezifische Anwendung wie Konversations-Agenten feinabgestimmt wurde. + +Das Modell wurde unter der Apache 2.0 Lizenz [veröffentlicht](https://github.com/xai-org/grok-1). + +## Ergebnisse und Fähigkeiten + +Laut initialer [Ankündigung](https://x.ai/blog/grok) hat Grok-1 starke Fähigkeiten in den Bereichen Reasoning und Programmieren demonstriert. Die letzte öffentlich verfügbare Ergebnisse zeigen, dass Grok-1 63,2% beim HumanEval-Programmieraufgabe und 73% bei MMLU erreicht. Es übertrifft im Allgemeinen ChatGPT-3.5 und Inflection-1, bleibt jedoch hinter verbesserten Modellen wie GPT-4 zurück. + +!["Grok-1 Benchmark Results"](../../img/grok/grok-reasoning.png) + +Es wurde auch berichtet, dass Grok-1 ein C (59%) im Vergleich zu einem B (68%) von GPT-4 bei den ungarischen nationalen Abiturprüfungen in Mathematik erreicht hat. + +!["Grok-1 Benchmark Results"](../../img/grok/grok-math.png) + +Das Modell finden Sie hier: https://github.com/xai-org/grok-1 + +Aufgrund der Größe von Grok-1 (314B Parameter) empfiehlt xAI eine Multi-GPU-Maschine zum Testen des Modells. + +## Referenzen + +- [Open Release of Grok-1](https://x.ai/blog/grok-os) +- [Announcing Grok](https://x.ai/blog/grok)