OpenAI выпустил Sora 2: минута кино, созданного нейросетью
OpenAI официально запустил Sora 2 — второе поколение модели для генерации видео из текстовых описаний. Если первая версия скорее демонстрировала потенциал технологии, то Sora 2 претендует на практическое применение: 60-секундные ролики с реалистичной физикой объектов, контекстно-зависимым звуком и разрешением, пригодным для профессионального использования.
Что умеет
Модель генерирует видео длительностью до минуты с пониманием физических законов: объекты падают, жидкости разливаются, тени ложатся в правильном направлении. Звуковое сопровождение синтезируется автоматически и соответствует происходящему в кадре — шаги по гравию, шум ветра, речь персонажей.
Параллельно OpenAI представил функцию Cameo, которая позволяет встраивать собственное лицо или кастомных персонажей в генерируемое видео. Для маркетологов и контент-мейкеров это открывает возможности персонализированного видеоконтента без съёмочной группы.
Ограничения
Sora 2 всё ещё допускает артефакты при сложных сценах с множеством объектов, а генерация реалистичных рук и пальцев остаётся проблемой. Доступ пока ограничен подписчиками ChatGPT Plus и Enterprise, с планами расширения через API в начале 2026 года.


