В сети распространилась необычная история, связанная с Grand Theft Auto 6 |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-10-25 11:11 В сети распространилась необычная история, связанная с Grand Theft Auto 6. На этой неделе пользователи заметили, что Google AI Overview — автоматическая сводка поисковика — уверенно утверждала, будто в игре якобы есть «кнопка для тверка». Как выяснилось, всё это — тщательно спланированная мистификация, созданная одним пользователем ради эксперимента. Автор розыгрыша, YouTube-блогер Джеффри Филлипс, признался, что в течение трёх месяцев сознательно распространял выдумку, чтобы проверить, насколько легко искусственный интеллект подхватывает ложную информацию. Он публиковал посты на Reddit, делал фальшивые скриншоты с геймпадом и даже записал шуточную песню. В итоге алгоритмы Google восприняли это как правду и вывели «тверк-кнопку» в обзорной карточке поисковика. Филлипс признался, что не ожидал, насколько быстро выдумка превратится в «официальный факт»: «Я даже не пытался сделать что-то убедительное. Просто интересно было посмотреть, поверит ли в это ИИ». Этот случай наглядный пример того, как стремительно распространяется дезинформация, когда в обработке данных отсутствует человеческая проверка. Искусственный интеллект не гарантирует даже минимальное отсеивание фэйков, напротив, он может даже способствовать их распространению, что показал блогер. "Я думал, максимум, что это будет означать, что некоторые пользователи Reddit считают это правдой. Хотя я никогда не ожидал, что мои собственные комментарии будут использованы в качестве источника". Источник: vk.com Комментарии: |
|