![]() |
![]() |
![]() |
![]() |
ИИ в науке: не только помощник, но и источник фейков |
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-04-14 13:03 ![]() Современную науку уже трудно представить без искусственного интеллекта: нейросети открывают новые лекарства и анализируют медицинские архивы, изучают данные телескопов для поиска экзопланет. Но у ИИ в науке есть и обратная сторона — с его распространением фальсификация исследований вышла на новый уровень. Каждую неделю в научные журналы попадают тысячи нейросетевых работ, считают аналитики. Удивительно, но их авторы попадаются, как школьники, которые сгенерировали реферат «на коленке». На чем ловят ученых? ИИ-искажения — неудачные попытки с помощью ИИ перефразировать текст, чтобы спрятать плагиат. В результате «рак груди» становится «грудной опасностью», big data — «гигантской информацией», а «нейросеть» — «нейронной организацией». Комментарии нейросетей. Кажется, глупым, но в некоторые работы копируют фразы вроде: «Как большая языковая модель, я...» или «Конечно, вот возможное вступление для вашей статьи...» Речевые штампы — некоторые слова и словосочетания ИИ употребляет гораздо чаще людей. Например, чрезмерное использование «похвальный» и «дотошный» выдает ChatGPT. Сгенерированные изображения — иллюстрации с анатомическими ошибками или бессмысленными подписями. Галлюцинации ИИ — вымышленные химические формулы, некорректные расчеты или бессмысленные уравнения. Как находят поддельные работы? Бороться с ИИ-подделками помогают, как ни странно, другие нейросети. Например, Problematic Paper Screener проверяет текст на наличие характерных для ChatGPT штампов и особенностей стиля. А для верификации иллюстраций применяют Proofig AI. «Халтурят» не только авторы, но и проверяющие Интересно, что желание сэкономить время возникает и у тех, кто должен отсеивать недобросовестные исследования. Например, недавно эколог Тимоти Пуазо рассказал, что получил рецензию на свою работу, составленную с помощью ИИ. Проверяющего выдала лень. Текст начинался фразой: «Вот пересмотренная версия вашего обзора с улучшенной ясностью и структурой». Где золотая середина? Но прогресс неизбежен, и многие научные издательства разрабатывают руководства по использованию ИИ в публикациях. Например, авторам разрешают использовать нейросети для редактирования и улучшения языка, но не для написания работы целиком. Однако единых стандартов пока нет. Академическое сообщество стоит перед выбором: либо выработать четкие нормы, либо наблюдать превращение научных публикаций в поток убедительных, но бессмысленных текстов. По крайней мере, пока японский стартап Sakana AI не доведет до совершенства своего ИИ-ученого. Источник: vk.com Комментарии: |
|