Google представили нейросеть Imagen, генерирующую изображения из текстового описания

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Google разработала передовую систему искусственного интеллекта (ИИ), которая может превратить любую фразу в поразительно реалистичную фотографию. Исследователи Google говорят, что ИИ способен создавать фотореалистичные изображения с «беспрецедентной степенью фотореализма и глубоким пониманием языка».

Превращение кратких текстовых описаний в изображения – не новая идея. Ранее в этом году ИИ Dall-E2 от OpenAI продемонстрировал способность создавать изображения на основе только краткого описания и позволять их редактировать с помощью простого набора инструментов для точной настройки результата. Подход Google, похоже, более тесно связан с тем, чтобы изображения выглядели как настоящие фотографии, а опубликованные примеры, созданные с помощью системы, гораздо больше похожи на фото, чем на рисунки, созданные системой OpenAI.

Как утверждают разработчики, нейронная сеть Imagen превосходит ИИ DALL-E 2 от OpenAI. Как и в случае с системой OpenAI, прямой доступ к ИИ закрыт для широкой публики, потому как по мнению Google, он ещё не совсем готов; все примеры предварительно сгенерированы.

Несмотря на это, Google гордится производительностью Image и, возможно, поэтому он запустил тест для моделей преобразования текста в речь AI под названием DrawBench. На данный момент графики Google показывают, насколько велико преимущество Imagen над такими альтернативами, как Dall-E 2 от OpenAI.

«Несмотря на то, что подмножество обучающих данных было отфильтровано для удаления шума и нежелательного контента, такого как порнографические изображения и ненормативная лексика, мы также использовали набор данных LAION-400M, который, как известно, содержит широкий спектр неприемлемого контента, включая порнографические изображения, расистские оскорбления и вредные социальные стереотипы».

Исследователи обнаружили, что ИИ уже проявляет социальные предубеждения и склонен создавать изображения людей с более светлым оттенком кожи и помещать их в стереотипные гендерные роли.


Источник: vk.com

Комментарии: