Update mixtral.ru.mdx

pull/412/head
ThunderCat 8 months ago committed by GitHub
parent f29d151714
commit 67516227e7
No known key found for this signature in database
GPG Key ID: B5690EEEBB952194

@ -25,4 +25,6 @@ Mixtral 8x7B представляет собой языковую модель S
Учитывая, что Mixtral является SMoE, он имеет в общей сложности 47 миллиардов параметров, но во время вывода использует только 13 миллиардов на токен. Преимущества этого подхода включают лучший контроль стоимости и задержки, поскольку он использует только часть общего набора параметров для каждого токена. Mixtral обучался на открытых веб-данных в размере контекста в 32 токена. Сообщается, что Mixtral превосходит Llama 2 80B с в 6 раз более быстрым выводом и соответствует или превосходит [GPT-3.5](https://www.promptingguide.ai/models/chatgpt) по нескольким критериям.
Модели Mixtral находятся [под лицензией Apache 2.0](https://github.com/mistralai/mistral-src#Apache-2.0-1-ov-file).
This page needs a translation! Feel free to contribute a translation by clicking the `Edit this page` button on the right side.

Loading…
Cancel
Save