DeepSeek представив оновлену ШІ-модель V3.1


Китайський стартап DeepSeek оновив свою флагманську мовну модель V3 та прибрав згадку про reasoning-мережу R1 у чат-боті. Про це повідомляє SCMP.
Реліз DeepSeek V3.1 відбувся у WeChat. Оновлення розширює контекстне вікно до 128 000 токенів, що дозволяє моделі обробляти більші обсяги даних під час взаємодії з користувачем. Для порівняння, це приблизно відповідає книзі на 300 сторінок.
Також відзначається підвищена ефективність використання токенів.
У бенчмарку Aider Polyglot, що оцінює можливості LLM у розв’язанні складних завдань програмування різними мовами, DeepSeek V3.1 перевершує Claude 4 Opus.
DeepSeek V3.1 beats Claude 4 Opus on Aider Polyglot
This makes it the best non-TTC coding model and all of that for ~$1 pic.twitter.com/QyJZnVRdVK
— Lisan al Gaib (@scaling01) 19 серпня 2025
V3.1 має 685 млрд параметрів і побудована на гібридній архітектурі, що забезпечує продуктивність у завданнях діалогу, логічних міркувань та програмування.
Компанія також прибрала згадку R1 з функції «глибокого мислення». У SCMP припускають, що це може свідчити про складнощі у розробці очікуваної версії R2.
Нагадаємо, OpenAI переглянула внутрішню політику захисту інтелектуальної власності на тлі побоювань щодо корпоративного шпигунства з боку китайських конкурентів.