Runway представила ШІ-модель Gen-3 Alpha

Компанія Runway представила альфа-версію моделі штучного інтелекту Gen-3 для генерації відеороликів із промптів і статичних зображень.

Нейромережа відмінно справляється зі створенням виразних людських персонажів із широким спектром рухів, жестів і емоцій, йдеться в анонсі. Gen-3 Alpha навчена точно визначати ключові кадри в ролику і створювати переходи.

«Gen-3 Alpha — перша модель із майбутньої серії, навчена на новій інфраструктурі, створеній для масштабного мультимодального навчання. Це значне поліпшення точності, послідовності та руху порівняно з Gen-2, а також крок на шляху до створення „Загальних моделей світу“», — ідеться в повідомленні Runway.

Gen-3 Alpha може створювати відео тривалістю п’ять і десять секунд із високою роздільною здатністю. Час генерації — 45 і 90 секунд відповідно. Про це розповів співзасновник і технічний директор компанії Анастасіс Германідіс в інтерв’ю TechCrunch.

Точних термінів публічного релізу Gen-3 немає. Альфа-версія «скоро стане доступною в продуктовій лінійці Runway з підтримкою всіх наявних режимів (текст-відео, зображення-відео і відео-відео) і деяких нових», зазначив Германідіс.

Нагадаємо, у лютому OpenAI презентувала генеративну ШІ-модель Sora для перетворення тексту у відео. У травні сценарист і режисер Пол Трілло згенерував з її допомогою відеокліп.

Google DeepMind розробляє технологію на базі штучного інтелекту для створення саундтреків до відео.

Читайте ForkLog UA в соціальних мережах

Знайшли помилку в тексті? Виділіть її та натисніть CTRL+ENTER

Матеріали за темою

Ми використовуємо файли cookie для покращення якості роботи.

Користуючись сайтом, ви погоджуєтесь з Політикою приватності.

OK
Exit mobile version