Ирреальная крыса с тарабарскими надписями, сгенерированная Midjourney и попавшая в статью журнала Frontiers, вызвала бурю обсуждений

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Ирреальная крыса с тарабарскими надписями, сгенерированная Midjourney и попавшая в статью журнала Frontiers, вызвала бурю обсуждений. Тем не менее использование ИИ для научных изображений становится только популярнее. Помимо ChatGPT, теперь ученые применяют нейросети, чтобы быстро создавать красочные иллюстрации по текстовым промтам, дабы придать живость своим рукописям.

Midjourney, Stable Diffusion, DALL-E, основаны на диффузионных моделях — относительно недавно ставшим модным типом генеративных нейросетей. Людям науки ИИ-картинки нужны, чтобы иллюстрировать раздел «Методы» в статьях, продвигать свои научные публикации в соцсетях, делать удерживающие внимание аудитории презентации и постеры на конференциях.

Какие преимущества? Главное — это сокращение времени и усилий на подготовку изображений. Традиционные PowerPoint, Biorender позволяют получать прекрасную и точную графику, но требуют значительные ресурсы и умения. С ИИ же довольно легко представить сложные научные концепции наглядно. Также нейросети годятся для уточнения картинок.

Какие ограничения? Пока перечисленные инструменты не создают изображения с нормальными текстовыми подписями, обычно же пишут абракадабру. Не годятся они и для палеоарта. Журналы Science и Nature запретили использовать ИИ-рисунки в публикациях, не касающихся непосредственно темы ИИ.Мошенники и фальсификаторы были всегда, и сейчас они пытаются взять на вооружение прекрасные ИИ-тулы. Но орудия для сопротивления фейковому контенту есть. Они, к слову, тоже на основе ИИ! Например, редакция Science проверяет подлинность сомнительных изображений при помощи Proofig, который ищет явные признаки манипуляций — искажения масштаба, повороты и склейки.

А еще, вероятно, скоро начнется бум «научного кино». 15 февраля 2024 года OpenAI представил Sora, которая может превращать текстовые описания в короткие видео. Пока всё в зачаточном состоянии: в основном генерят ИИ-видео разработчики этих самых нейросетей, но ситуация может измениться в ближайшее время.


Источник: vk.com

Комментарии: