ИИ в науке: не только помощник, но и источник фейков

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Современную науку уже трудно представить без искусственного интеллекта: нейросети открывают новые лекарства и анализируют медицинские архивы, изучают данные телескопов для поиска экзопланет.

Но у ИИ в науке есть и обратная сторона — с его распространением фальсификация исследований вышла на новый уровень. Каждую неделю в научные журналы попадают тысячи нейросетевых работ, считают аналитики.

Удивительно, но их авторы попадаются, как школьники, которые сгенерировали реферат «на коленке».

На чем ловят ученых?

ИИ-искажения — неудачные попытки с помощью ИИ перефразировать текст, чтобы спрятать плагиат. В результате «рак груди» становится «грудной опасностью», big data — «гигантской информацией», а «нейросеть» — «нейронной организацией».

Комментарии нейросетей. Кажется, глупым, но в некоторые работы копируют фразы вроде: «Как большая языковая модель, я...» или «Конечно, вот возможное вступление для вашей статьи...»

Речевые штампы — некоторые слова и словосочетания ИИ употребляет гораздо чаще людей. Например, чрезмерное использование «похвальный» и «дотошный» выдает ChatGPT.

Сгенерированные изображения — иллюстрации с анатомическими ошибками или бессмысленными подписями.

Галлюцинации ИИ — вымышленные химические формулы, некорректные расчеты или бессмысленные уравнения.

Как находят поддельные работы?

Бороться с ИИ-подделками помогают, как ни странно, другие нейросети. Например, Problematic Paper Screener проверяет текст на наличие характерных для ChatGPT штампов и особенностей стиля. А для верификации иллюстраций применяют Proofig AI.

«Халтурят» не только авторы, но и проверяющие

Интересно, что желание сэкономить время возникает и у тех, кто должен отсеивать недобросовестные исследования.

Например, недавно эколог Тимоти Пуазо рассказал, что получил рецензию на свою работу, составленную с помощью ИИ. Проверяющего выдала лень. Текст начинался фразой: «Вот пересмотренная версия вашего обзора с улучшенной ясностью и структурой».

Где золотая середина?

Но прогресс неизбежен, и многие научные издательства разрабатывают руководства по использованию ИИ в публикациях. Например, авторам разрешают использовать нейросети для редактирования и улучшения языка, но не для написания работы целиком. Однако единых стандартов пока нет.

Академическое сообщество стоит перед выбором: либо выработать четкие нормы, либо наблюдать превращение научных публикаций в поток убедительных, но бессмысленных текстов. По крайней мере, пока японский стартап Sakana AI не доведет до совершенства своего ИИ-ученого.


Источник: vk.com

Комментарии: