Merge pull request #375 from behrends/olmo

olmo (German translation)
pull/377/head
Elvis Saravia 4 months ago committed by GitHub
commit 4304a993d0
No known key found for this signature in database
GPG Key ID: B5690EEEBB952194

@ -1,3 +1,60 @@
# OLMo
# OLMo
This page needs a translation! Feel free to contribute a translation by clicking the `Edit this page` button on the right side.
In diesem Leitfaden bieten wir einen Überblick über das Open Language Model (OLMo), einschließlich Prompts und Nutzungsbeispielen. Der Leitfaden enthält auch Tipps, Anwendungen, Einschränkungen, wissenschaftliche Arbeiten und zusätzliches Lesematerial, das sich auf OLMo bezieht.
## Einführung in OLMo
Das Allen Institute of AI hat ein neues Open Language Model und Framework namens OLMo [veröffentlicht](https://blog.allenai.org/olmo-open-language-model-87ccfc95f580). Diese Bemühung zielt darauf ab, vollen Zugang zu Daten, Trainingscode, Modellen, Evaluierungscode zu bieten, um die gemeinsame Studie von Sprachmodellen zu beschleunigen.
Die erste Veröffentlichung umfasst vier Varianten im 7-Milliarden-Parameter-Maßstab und ein Modell im 1-Milliarden-Maßstab, alle trainiert mit mindestens 2 Billionen Tokens. Dies markiert die erste von vielen Veröffentlichungen, die auch ein bevorstehendes 65-Milliarden-OLMo-Modell umfasst.
![„OLMo-Modelle“](../../img/olmo/olmo-models.png)
Die Veröffentlichungen beinhalten:
- vollständige Trainingsdaten, einschließlich des [Codes](https://github.com/allenai/dolma), der die Daten erzeugt
- vollständige Modellgewichte, [Trainingscode](https://github.com/allenai/OLMo), Logs, Metriken und Inferenzcode
- mehrere Checkpoints pro Modell
- [Evaluierungscode](https://github.com/allenai/OLMo-Eval)
- Feinabstimmungscode
Aller Code, Gewichte und Zwischencheckpoints werden unter der [Apache 2.0-Lizenz](https://github.com/allenai/OLMo#Apache-2.0-1-ov-file) veröffentlicht.
## OLMo-7B
Sowohl die OLMo-7B- als auch die OLMo-1B-Modelle verwenden eine Decoder-only-Transformator-Architektur. Sie folgen Verbesserungen anderer Modelle wie PaLM und Llama:
- keine Verzerrungen (biases)
- eine nicht-parametrische Layernorm
- SwiGLU-Aktivierungsfunktion
- Rotative Positions-Embeddings (RoPE)
- ein Vokabular von 50.280
## Dolma-Datensatz
Diese Veröffentlichung umfasst auch die Freigabe eines Pre-Training-Datensatzes namens [Dolma](https://github.com/allenai/dolma) -- ein vielfältiger, multi-source Korpus von 3 Billionen Tokens aus 5 Milliarden Dokumenten, erworben aus 7 verschiedenen Datenquellen. Die Erstellung von Dolma beinhaltet Schritte wie Sprachfilterung, Qualitätsfilterung, Inhaltsfilterung, Deduplizierung, Multi-Source-Mixing und Tokenisierung.
![„Dolma-Datensatz“](../../img/olmo/dolma-dataset.png)
Der Trainingsdatensatz umfasst eine 2-Billionen-Token-Stichprobe aus Dolma. Die Tokens werden nach dem Anhängen eines speziellen `EOS` (End of Sentence)-Tokens an das Ende jedes Dokuments zusammengekettet. Die Trainingsinstanzen beinhalten Gruppen von aufeinanderfolgenden Chunks mit 2048 Tokens, die ebenfalls gemischt werden.
Weitere Trainingsdetails und Hardwarespezifikationen zum Trainieren der Modelle finden Sie im wissenschaftlichen Artikel.
## Ergebnisse
Die Modelle werden auf nachgelagerten Aufgaben mit dem [Catwalk](https://github.com/allenai/catwalk) evaluiert. Die OLMo-Modelle werden mit anderen mehreren öffentlich verfügbaren Modellen wie Falcon und Llama 2 verglichen. Insbesondere wird das Modell anhand einer Reihe von Aufgaben bewertet, die darauf abzielen, die Fähigkeiten des Modells zum commonsense Reasoning zu messen. Zum nachgelagerten Evaluierungskit gehören Datensätze wie `piqa` und `hellaswag`. Die Autoren führen eine Zero-Shot-Evaluierung durch, indem sie eine Rangklassifizierung verwenden (d. h., Vervollständigungen werden nach Wahrscheinlichkeit eingestuft), und die Genauigkeit wird berichtet. OLMo-7B übertrifft alle anderen Modelle bei 2 Endaufgaben und bleibt bei 8 von 9 Endaufgaben in den Top 3. Eine Zusammenfassung der Ergebnisse im Diagramm ist unten zu sehen.
![„OLMo-Ergebnisse“](../../img/olmo/olmo-results.png)
## Prompting-Leitfaden für OLMo
Demnächst...
---
Bildquellen: [OLMo: Accelerating the Science of Language Models](https://allenai.org/olmo/olmo-paper.pdf)
## Referenzen
- [OLMo: Open Language Model](https://blog.allenai.org/olmo-open-language-model-87ccfc95f580)
- [OLMo: Accelerating the Science of Language Models](https://allenai.org/olmo/olmo-paper.pdf)

@ -4,6 +4,7 @@ Die folgenden sind die neuesten Papers (sortiert nach Veröffentlichungsdatum) z
## Überblicke
- [A Survey on Hallucination in Large Language Models: Principles,Taxonomy, Challenges, and Open Questions](https://arxiv.org/abs/2311.05232) (November 2023)
- [An RL Perspective on RLHF, Prompting, and Beyond](https://arxiv.org/abs/2310.06147) (Oktober 2023)
- [Few-shot Fine-tuning vs. In-context Learning: A Fair Comparison and Evaluation](https://arxiv.org/abs/2305.16938) (Mai 2023)
- [Jailbreaking ChatGPT via Prompt Engineering: An Empirical Study](https://arxiv.org/abs/2305.13860) (Mai 2023)

Loading…
Cancel
Save