Make-A-Video от Meta создает анимированные GIF-файлы с искусственным интеллектом
Meta не просто создает искусство искусственного интеллекта, но и интерполирует изображения для создания видео.

build_links(); ?>

На сегодняшний день термин “искусство искусственного интеллекта” означает “статичные изображения”. Больше нет. Meta демонстрирует Make-A-Video, где компания сочетает искусство искусственного интеллекта и интерполяцию для создания коротких, зацикленных GIF-файлов.

Make-A-Video.studio пока недоступна для широкой публики. Вместо этого это демонстрируется как то, что сама Meta может сделать с помощью технологии. И да, хотя технически это видео — в том смысле, что здесь собрано больше, чем несколько кадров искусственной графики, — оно все же, вероятно, ближе к традиционному GIF, чем что-либо еще.

Неважно. То, чего достигает Make-A-Video, в три раза больше, учитывая демонстрацию на сайте Meta. Во—первых, технология может делать два связанных изображения – будь то капля воды в полете или фотографии лошади на полном скаку — и создавать промежуточные кадры. Что еще более впечатляюще, Make-A-Video, по-видимому, способен делать неподвижное изображение и разумно применять к нему движение, например, делая неподвижное изображение лодки и создавая короткое видео о ее движении по волнам.

Наконец, Make-A-Video может собрать все это воедино. Из подсказки “плюшевый мишка рисует портрет” Мета продемонстрировала небольшой GIF с изображением самого анимированного плюшевого мишки, рисующего портрет. Это показывает не только способность создавать искусство искусственного интеллекта, но и выводить из него действия, как указано в исследовательском документе компании.

Мета ИИ супер собака
“Собака в костюме супергероя с красной накидкой, летящая по небу”, от MetaAI.
Мета
“Исследование Make-A-Video основывается на недавнем прогрессе, достигнутом в технологии преобразования текста в изображение, созданной для преобразования текста в видео”, – объясняет Мета. “Система использует изображения с описаниями, чтобы узнать, как выглядит мир и как его часто описывают. Он также использует немаркированные видео, чтобы узнать, как движется мир. С помощью этих данных Make-A-Video позволяет вам воплотить в жизнь свое воображение, создавая причудливые, единственные в своем роде видеоролики всего из нескольких слов или строк текста.”

Вероятно, это означает, что Meta обучает алгоритм на реальном видео, которое он захватил. Что непонятно, так это то, как вводится это видео. В исследовательской статье Facebook по этому вопросу не указано, как можно было бы получать видео в будущем, и возникает вопрос, можно ли использовать анонимизированное видео, снятое с Facebook, в качестве основы для будущего искусства.

ПРЕДЛОЖЕНИЯ ДНЯ: ЛУЧШИЕ ЦЕНЫ НА ЭТОТ ПОПУЛЯРНЫЙ ТОВАР НА СЕГОДНЯШНИЙ ДЕНЬ
Веб-камера Logitech Brio 4K Ultra HD
Веб-камера Logitech Brio 4K Ultra HD
Прочитайте наш обзор
Лучшие цены на сегодня: $169,00 в Adorama | $169,00 на Amazon | $199,99 в Best Buy
Мета-два статических изображения Мета-вывод видеоизображения
Meta утверждает, что она может интерполировать видео из двух связанных изображений.
Это не совсем ново, по крайней мере, концептуально. Анимации, такие как VQGAN + clip Turbo, могут использовать текстовую подсказку и превращать ее в анимированное видео, но работа Meta выглядит более сложной. Однако трудно сказать, пока модель не будет выпущена для игры с аудиторией.

Тем не менее, это переводит искусство искусственного интеллекта в другое измерение: измерение движения. Сколько времени пройдет, прежде чем Midjourney и Stable Diffusion сделают то же самое на вашем компьютере?

build_links(); ?>

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *