ByteDance готовит (или уже частично выпустил) Seedance 2.0 — революционную мультимодальную модель генерации видео, которая обещает радикально изменить подход к созданию контента. Если предыдущие версии впечатляли качеством движения и реализмом, то вторая итерация поднимает планку до уровня «виртуального режиссёра».
Seedance 2.0 использует унифицированную архитектуру совместной генерации аудио и видео. Теперь модель одновременно понимает и обрабатывает сразу четыре типа входных данных:
- Текст (обычный промпт);
- Изображения (до 9 штук);
- Видео (до 3 коротких клипов, суммарно до 15 секунд);
- Аудио (до 3 файлов, например MP3).
Всего можно загрузить до 12 референсов в одном проекте. Модель не просто «смотрит» на них — она анализирует движение, стиль, освещение, звук и даже атмосферу, а затем синтезирует всё в целостный ролик.
Seedance 2.0 сильно снижает барьер между идеей и готовым видео. Один промпт + несколько референсов — и вы получаете материал, который раньше требовал команды, камеры и монтажа. Это особенно ценно для:
- Контент-креаторов и SMM-специалистов;
- Рекламщиков;
- Инди-разработчиков игр (для кат-сцен);
- Фрилансеров, которые хотят быстро делать сторителлинг.
Модель уже сравнивают с топовыми конкурентами (Sora, Kling, Veo) и отмечают лидерство в мультимодальности и контроле.
Официальный запуск в Китае состоялся в феврале 2026 года через платформу Jimeng AI / Dreamina. Глобальный релиз (API и широкий доступ) немного задерживается из-за вопросов с авторскими правами и интереса со стороны Голливуда, но наша платформа уже работает над получением раннего доступа.
В любом случае, Seedance 2.0 выглядит как настоящий прорыв: от экспериментальных коротких клипов ИИ переходит к инструментам, которые можно использовать в реальном производстве.
Если ты креатор — готовься, скоро идеи будут превращаться в кино гораздо быстрее и круче. Следи за обновлениями, это будет жарко! 🔥
Главное — уметь правильно формулировать задачу и сочетать технологии с человеческим вкусом.