В Mistral випустили нову лінійку ШІ‑моделей


Французький ШІ-стартап Mistral представив третю версію однойменної лінійки моделей з відкритими вагами.
Introducing the Mistral 3 family of models: Frontier intelligence at all sizes. Apache 2.0. Details in 🧵 pic.twitter.com/lsrDmhW78u
— Mistral AI (@MistralAI) December 2, 2025
У серію з 10 нейромереж входить одна велика передова LLM із мультимодальними та багатомовними можливостями. Дев’ять інших мають менший розмір, здатні працювати автономно та налаштовані під індивідуальні задачі.
«Наші клієнти інколи із задоволенням починають із дуже великої моделі, яку не потрібно налаштовувати. Після інтеграції вони розуміють, що вона дорога і повільна, тож звертаються до нас по налаштування невеликих рішень», — зазначив співзасновник і головний науковий співробітник Mistral Гійом Лампле.
Стартап, заснований вихідцями з DeepMind і Meta, позиціонується як ключовий європейський конкурент ШІ-гігантам із США та Китаю. Компанія загалом залучила $2,7 млрд за оцінки $13,7 млрд.
За словами Лампле, первинні тести можуть створювати враження, що невеликі моделі Mistral поступаються аналогам. Однак він назвав такі висновки оманливими: великі нейромережі справді демонструють високі метрики «з коробки», але реальна ефективність рішень розкривається саме після їх налаштування.
«У багатьох випадках можна досягти результатів, співставних із моделями із закритим вихідним кодом, або навіть перевершити їх», — сказав він.
Рій експертів
Флагманська Large 3 побудована на архітектурі Granular Mixture of Experts. На відміну від класичного підходу Mixture of Experts, що використовує невелику кількість «експертів», нова технологія ділить нейромережу на багато дрібних спеціалізованих модулів.
Із 675 млрд загальних параметрів моделі активними є 41 млрд. У поєднанні з контекстним вікном у 256 000 токенів така конфігурація забезпечує високу швидкість роботи з об’ємними документами та ефективність під час виконання агентних задач.
Решта 9 нейромереж представлені моделями трьох розмірів — 14 млрд, 8 млрд і 3 млрд параметрів. Є три варіанти налаштувань:
- Base — попередньо навчена базова модель;
- Instruct — оптимізована для чату, розмов і робочих процесів;
- Reasoning — налаштована для складних логічних та аналітичних задач.
Цей діапазон дає розробникам і підприємствам гнучкість у доборі моделей відповідно до їхніх потреб.
Згідно із заявою Mistral, Ministral 3 не поступається або навіть перевершує конкурентів з відкритими вагами. При цьому вона ефективніша та генерує менше токенів для еквівалентних задач.
За словами Лампле, модель здатна працювати на одному графічному процесорі. Це дозволяє запускати її на доступному обладнанні: від локальних серверів і ноутбуків до роботів і периферійних пристроїв.
Це важливо для підприємств, які зберігають дані на власних серверах, віддалених команд робототехніків і студентів, що працюють автономно.
«Частина нашої місії — забезпечення доступності ШІ для всіх, особливо людей без інтернету. Ми не хочемо, щоб технологію контролювали лише кілька великих лабораторій», — підкреслив Лампле.
Фізичний ШІ
Mistral приділяє дедалі більше уваги фізичному ШІ. Від початку року компанія займається інтеграцією компактних моделей у роботів, дрони та транспортні засоби.
Фірма співпрацює з:
- сінгапурським агентством Home Team Science and Technology Agency у сфері спеціалізованих моделей для ботів, систем кібер- і пожежної безпеки;
- німецьким стартапом у секторі оборонних технологій Helsing для інтеграції технологій у дрони;
- корпорацією Stellantis для поліпшення автомобільних ШІ-помічників.
Нагадаємо, у липні CEO SAP SE Крістіан Кляйн заявив, що Європі не потрібен шквал нових дата-центрів для конкуренції в області ШІ.