5.1 🧩 Open Source модели на замену ChatGPT.

Какое количество параметров у Mixtral-8x7B-Instruct?

В ответ запишите целое число. (https://huggingface.co/mistralai/Mixtral-8x7B-Instruct-v0.1)

Ответ: 46700000000


Я не пойму этот вопрос. Я правильно понимаю,
что 7b это 7 миллиардов же.
и соответсвенно надо умножить на 8 это? и получаем 5 600 000 000.
но ответ не принимает

@Aleksandr_Pylaev
и при гуглении 
How many parameters does Mixtral-8x7B-Instructmodel have?
я нашел это
The Mixtral 8x7B model operates with around 47 billion active parameters, not 56 billion as its name might suggest. This is due to its Sparse Mixture of Experts architecture.

но никакой из этих ответов не принимается

@Aleksandr_Pylaev, пройдите по ссылке в карточку модели - там написано

@Иван_Александров, Спасибо. Это была реально тяжело))))