Потужніший за Meta та OpenAI: китайський стартап DeepSeek презентував ШІ-модель

Китайський ШІ-стартап DeepSeek представив власну велику мовну модель, яка перевершила за тестами конкурентів від Meta та OpenAI.

DeepSeek V3 має 671 млрд параметрів. Для порівняння, у Llama 3.1 405B показник 405 млрд. Число відображає здатність ШІ адаптуватися до більш складних варіантів застосування і давати відповіді точніше.

Порівняння DeepSeek V3 з конкурентами. Джерело: DeepSeek.

Компанія з Ханчжоу навчила нейромережу за два місяці та $5,58 млн, використовуючи значно менше обчислювальних ресурсів (2048 графічних процесорів) порівняно з більшими технологічними компаніями. Вона обіцяє надання кращого співвідношення ціна/якість на ринку.

У майбутньому заплановано додавання мультимодальності та «інших передових функцій».

Член команди OpenAI Андрій Карпаті зазначив, що DeepSeek продемонструвала вельми дивовижні дослідження і розробки в умовах обмежених ресурсів.

«Чи означає це, що вам не потрібні великі кластери GPU для прикордонних LLM? Ні, але ви повинні бути впевнені, що не витрачаєте те, що у вас є. Це виглядає як хороша демонстрація того, що ще багато чого належить зробити як з даними, так і з алгоритмами», — додав він.

Раніше DeepSeek представила «конкурента o1 від OpenAI» — розумну «надпотужну» ШІ-модель DeepSeek-R1-Lite-Preview.

Нагадаємо, у липні китайська компанія Kuaishou відкрила ШІ-модель для генерації відео Kling для всіх охочих.

Читайте ForkLog UA в соціальних мережах

Знайшли помилку в тексті? Виділіть її та натисніть CTRL+ENTER

Матеріали за темою

Ми використовуємо файли cookie для покращення якості роботи.

Користуючись сайтом, ви погоджуєтесь з Політикою приватності.

OK