Дырявые нейросети |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-09-28 11:35 В коридорах российской власти с большим оптимизмом воспринимают экспансию искусственного интеллекта в экономику и общество. Тогда как «из-за бугра» растет поток информации, которая ставит под сомнения эффективность и компетентность этих самых нейросетей. Американская компания News Guard провела исследование данных, исходящих от ведущих чат-ботов, в том числе ChatGPT и Perplexity. И обнаружилось, что, несмотря на технологический прогресс и интеграцию онлайн-поиска, доля ложных утверждений ИИ за год выросла с 18 до 35%. Вдумайтесь: каждый третий ответ - пальцем в небо! Протестировали на вшивость десять популярных ИИ-моделей. Каждой задали по десять заведомо ложных утверждений, связанных с бизнесом, политическими событиями. Все вопросы делились на три категории: предполагающие истинность утверждения, нейтральные и провокационные. Эксперты поставили целью определить, как нейросети справляются с проверкой фактов. Число ложных ответов колебалось от 10% до 57%. Есть над чем подумать сторонникам применения ИИ в медицине, на транспорте, в отраслях с высокими рисками. Как считают специалисты News Guard, на ухудшение собранной статистики повлиял тот факт, что нейросети теперь отвечают на самые бредовые запросы, хотя еще в 2024-м они «благоразумно» от этого воздерживались. «Наличие ссылок не гарантирует достоверности: модели нередко цитируют сайты-двойники или псевдо-СМИ, принимая их за авторитетные издания», - рассказывает директор направления Data Fusion Лиги цифровой экономики Александр Кобозев. Проблему усугубляют целенаправленные кампании по «дрессировке» ИИ. Речь о том, что некоторые недобросовестные ресурсы массово публикуют материалы, ориентированные на поисковых роботов, чтобы увеличить вероятность включения ложных данных в ответы моделей. И модели нередко обманываются. Кроме того, современный контент все чаще создается с помощью самого ИИ. Это дипфейки, статьи, посты для соцсетей и мессенджеров. Другими словами, ИИ уже начал обманывать сам себя. Так что в океане сетевой информации у нас только один выход - голову включайте! Текст: Лаврентий Павлов Рисунок: Евгений Кран Источник: vk.com Комментарии: |
|