В этом году мы уже рассказывали вам, почему не стоит слепо доверять искусственному интеллекту |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-12-17 12:17 В этом году мы уже рассказывали вам, почему не стоит слепо доверять искусственному интеллекту. Сегодня мы продолжим эту традицию и расскажем, к каким казусам может привести чрезмерное доверие к ИИ-помощникам. Когда генеративный ИИ только появился, большинство воспринимали его как забавную игрушку: соревновались в создании смешных картинок и придумывали всевозможные шуточные запросы. Но за последующие годы искусственный интеллект совершил настоящий скачок в своём развитии, и на сегодняшний день он не просто прочно вошёл в нашу повседневную жизнь, но и активно внедряется в бизнес. Тем не менее, ошибки и «галлюцинации» остались, пусть и в меньшем количестве. И если раньше они лишь вызывали смех, то теперь результат нередко может привести к гораздо более серьёзным последствиям. Примером может служить сотрудничество Instacart с OpenAI в области создания сгенерированных ИИ-рецептов. Вместо понятных рецептов вкусных блюд, ИИ предлагал нечто странное — например, сосиску, которая больше походила на помидор. Но это ещё ничего, ведь в некоторых рецептах пользователи и вовсе находили несуществующие ингредиенты, такие как загадочный соус «Монито». Порой ингредиенты вообще отсутствовали или были указаны в подозрительных количествах. Нам остаётся только надеяться, что никто не успел стать жертвой подобных рецептов и отравиться. Подобных историй уже должно быть достаточно, чтобы отказаться от идеи слепо доверять ИИ. Но есть и ещё одна причина: повсеместное внедрение рекламы в поисковые системы на базе искусственного интеллекта. Например, совсем недавно созданный на базе ИИ поисковик Perplexity AI запустил новый «шопинг-ассистент», который покажет вам карточки товаров, если вы зададите вопрос, связанный с покупками, например «Какие подарки лучше всего купить на Новый год?». Perplexity утверждает, что это не реклама, хотя она жутко на неё похожа. По словам компании, «когда вы задаёте Perplexity вопрос о покупках, вы всё равно получите точные, объективные ответы, которые ожидаете, плюс легко читаемые карточки товаров». Они настаивают, что эти карточки не спонсорские, а скорее «беспристрастные рекомендации, адаптированные нашим ИИ к вашему поисковому запросу». И, тем не менее, можем ли мы быть уверены что ответы на наши вопросы будут по-прежнему объективно генерироваться технологиями без влияния брендов-спонсоров? И есть ли у пользователей гарантии, что подобная реклама всегда будет оставаться качественной и безопасной? Видя, как многие пользователи воспринимают ответы ИИ как истину в последней инстанции, попадание вредоносной рекламы в выдачу поисковой системы или чата-помощника может стать настоящей катастрофой. Источник: vk.com Комментарии: |
|