Google випустила сімейство відкритих моделей Gemma 4

Компанія Google представила Gemma 4 — нове сімейство відкритих моделей ШІ для просунутих міркувань і агентних робочих процесів.

«Gemma 4 — наші найінтелектуальніші відкриті моделі на сьогодні. Вони забезпечують безпрецедентний рівень інтелекту на параметр», — йдеться в повідомленні.

Від запуску першого покоління розробники завантажили Gemma понад 400 млн разів, створивши більш як 100 000 варіантів моделей в екосистемі Gemmaverse. Остання версія створена на основі тих самих досліджень і технологій, що й чатбот Gemini 3.

Різні розміри

Сімейство нейромереж Gemma 4 включає чотири версії: Effective 2B (E2B), Effective 4B (E4B), 26B Mixture of Experts (MoE) і 31B Dense.

Компактні E2B і E4B на 2,3 млрд і 4,5 млрд активних параметрів роблять ставку на мультимодальність, низьку затримку та безшовну інтеграцію. Їх можна запустити на смартфоні або звичайному ноутбуку.

Для роботи 26B MoE і флагманської 31B (на 26 млрд і 31 млрд параметрів) потрібен графічний прискорювач рівня Nvidia H100 з 80 ГБ пам’яті. Ці моделі оптимізовані для дослідників і розробників.

Старші версії демонструють високі результати в бенчмарках. У світовому рейтингу відкритих текстових моделей Arena AI флагманська 31B займає третє місце, а 26B — шосте. За словами розробників, нова лінійка перевершує аналоги від конкурентів, які в 20 разів більші.

Джерело: Google.

Ключові можливості

Одна з головних переваг Gemma 4 — розвинені здібності до міркування. Моделі можуть вибудовувати складну логіку та планувати завдання у кілька етапів. Вони демонструють суттєвий прогрес у математичних бенчмарках і точно дотримуються інструкцій.

Серед інших особливостей:

  • агентні робочі процеси — вбудована підтримка виклику функцій, структурованого виводу у форматі JSON і системних інструкцій дозволяє створювати автономних помічників, які взаємодіють з інструментами та API;
  • генерація коду — Gemma 4 підтримує якісне написання коду в офлайн-режимі, перетворюючи робочу станцію на локального ШІ-асистента;
  • зір і аудіо — усі моделі обробляють відео та зображення зі змінною роздільною здатністю, розпізнають текст і аналізують діаграми. E2B і E4B також підтримують розпізнавання та розуміння мовлення;
  • розширене контекстне вікно — компактні версії підтримують 128 000 токенів, а більші — до 256 000. Цього достатньо для обробки цілих репозиторіїв або об’ємних документів в межах одного запиту;
  • багатомовність — сімейство моделей уміє працювати більш ніж зі 140 мовами.

Gemma 4 вже доступна у Google AI Studio та Google AI Edge Gallery. Інтеграцію також підтримують популярні сторонні інструменти й фреймворки, включно з Hugging Face, vLLM, llama.cpp, MLX, Ollama, NVIDIA NIM і LM Studio.

Моделі можна налаштовувати через Google Colab, Vertex AI або на локальних відеокартах. Для продакшну доступне розгортання на Google Cloud, включно з Cloud Run, GKE та Sovereign Cloud.

Нагадаємо, на початку квітня Google представила нову модель ШІ для генерації відео — Veo 3.1 Lite.

Читайте ForkLog UA в соціальних мережах

Знайшли помилку в тексті? Виділіть її та натисніть CTRL+ENTER

Матеріали за темою

Ми використовуємо файли cookie для покращення якості роботи.

Користуючись сайтом, ви погоджуєтесь з Політикою приватності.

OK
Exit mobile version