ByteDance тихо, но уверенно выкатила новую ИИ-модель Dreamina Seedance 2.0 прямо в CapCut. Получилась полноценная система генерации видео и аудио. Причём всё работает через текстовые запросы, картинки или готовые ролики.
На фоне информации о том, что OpenAI закрывает Sora, шаг ByteDance выглядит как попытка перехватить инициативу. И судя по функционалу — не без оснований.
Как работает Dreamina Seedance 2.0 внутри CapCut
По словам ByteDance, модель умеет не только генерировать видео. Она синхронизирует звук, корректирует сцены и помогает собирать ролики буквально из нескольких слов.
Сценарий использования максимально простой. Вбиваешь описание — получаешь готовую сцену. Можно добавить изображение или референс-видео, чтобы уточнить результат. При этом система справляется даже без исходников, если есть только идея.
CapCut стал площадкой для теста этих возможностей. Модель интегрирована в AI Video и Video Studio, а позже появится и в других продуктах экосистемы, включая Dreamina и Pippit.
Пока что запуск ограничен. Доступ получили пользователи в Бразилии, Индонезии, Малайзии, Мексике, на Филиппинах, в Таиланде и Вьетнаме. Остальные регионы подключат позже.
Почему запуск ограничили и при чём тут авторские права
История с глобальным релизом оказалась сложнее. Ранее сообщалось, что распространение модели притормозили из-за вопросов интеллектуальной собственности.
Голливуд уже высказывал претензии к подобным ИИ-инструментам. Основная проблема — возможное использование защищённого контента при обучении. Это и объясняет, почему Dreamina Seedance 2.0 пока не доступна во всех странах.
В Китае ситуация проще. Там модель уже работает внутри приложения Jianying — локальной версии CapCut.
Что умеет модель и где это полезно
Сильная сторона технологии — реалистичность. CapCut аккуратно обрабатывает текстуры, движение и свет. Видео выглядит живо даже при сложных ракурсах.
Это открывает несколько сценариев:
- тестирование идей до съёмки
- быстрые прототипы роликов
- генерация контента для соцсетей
- создание обучающих и рекламных видео
Отдельно отмечается, что модель лучше справляется с динамичными сценами. Раньше это было слабым местом подобных решений.
Сейчас есть ограничения. Видео — до 15 секунд и шесть форматов соотношения сторон. Но для короткого контента этого уже достаточно.
Безопасность и ограничения
ByteDance сразу закручивает гайки. Модель не работает с реальными лицами из изображений и видео. Это сделано для защиты пользователей и снижения рисков злоупотреблений и предотвращения создания дипфейков.
Также введены ограничения на использование чужого контента. Плюс — каждый ролик получает невидимый водяной знак. Он поможет определить, что видео создано через ИИ, если оно выйдет за пределы платформы.
Компания заявляет, что будет дорабатывать систему вместе с экспертами и креативными сообществами. То есть текущая версия — это только начало.
















