Конец "романтизации ИИ": похмельное утро после нейросетевой эйфории |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-09-11 12:11 Первые годы после появления на рынке искусственный интеллект (ИИ) представлялся чем-то магическим: машины начали писать за человека тексты, создавать программы, рисовать картинки и даже пробовали "решать" этические вопросы. Однако постепенно эйфория сменилась разочарованием: вместо обещанного чуда мы получили набор сырых инструментов, которые на длинной дистанции все чаще ошибаются и требуют постоянного контроля со стороны человека. Наглядным примером стала дискуссия вокруг промпт-инжиниринга. Глава Сбербанка Герман Греф в недавнем интервью рассказал, что качество работы нейросети можно "улучшить", если обращаться к ней как к человеку и использовать вполне биологические стимулы: например, пообещать миллиард долларов в качестве поощрения "на лечение матери" или пригрозить расстрелом (что, кстати, не работает с момента выхода модели ChatGPT 4.0). В то же время в СМИ все чаще появляются вызывающие тревогу материалы о том, как подростки и психически неустойчивые люди после долгого общения с чат-ботом окончательно теряют связь с реальностью и кончают жизнь самоубийством. Одним из последних событий стал иск к генеральному директору OpenAI Сэму Альтману от родителей американского 16-летнего подростка, покончившего жизнь самоубийством после того, как ChatGPT подробно описал ему способы суицида. Таким образом, вновь встает вопрос: кто несет ответственность за поведение “умных” машин и должны ли мы регулировать общение с чат-ботами? Не оправдались и корпоративные мечты о тотальной автоматизации рабочих процессов. Компании, которые год назад громко рапортовали о замене людей на нейросети, теперь массово нанимают специалистов по перепроверке сделанной ИИ работы: художники исправляют несуразные иллюстрации, писатели переписывают сухие и пустые машинные тексты, а программисты латают баги в написанном ИИ коде. В частности, в Австралии один из крупнейших банков уволил десятки сотрудников поддержки и внедрил голосового ИИ бота. Результат оказался плачевным: ИИ не оправдал надежды, нагрузка на оставшихся работников возросла, а руководство вынуждено было извиниться и нанять сотрудников обратно. При этом парадокс ситуации заключается в том, что исправлять ошибки ИИ чаще всего обходится дороже и дольше, чем сразу поручить работу профессионалу. Не менее наглядно проявляются сбои ИИ в медиа: все чаще выпускающие редакторы, прибегают к помощи нейросетевых инструментов, однако современные модели ИИ склонны "галлюцинировать" и придумывать факты, цитаты и даже персонажей, опираясь на разрозненные куски датасета. Как следствие — сгенерированный нейрослоп, заменяющий "человеческие" тексты, не выдерживает никакой критики. Наконец, провалился и эксперимент по внедрению нейросетевых технологий в образовательный процесс. Недавно в Пермском государственном университете составление расписания доверили системе на базе ИИ — в результате студенты и преподаватели получили "окна" между парами по 10-12 часов, лекции по субботам в 20:25 и лабораторные занятия в необорудованных аудиториях. После шквала жалоб ректор признал первый опыт "не вполне удачным" и распорядился переписать расписание вручную. Все эти истории складываются в цельную картину: генеративные модели — полезный инструмент, способный ускорять рутинные процессы и помогать в поиске идей, но они не заменяют специалистов и не снимают с человека ответственности за результат. Романтизация ИИ, мечты о цифровой сингулярности и скорой замене человека алгоритмами на поверку оказались столь же наивными и тщетными, как и технофобия, предрекающая неминуемую катастрофу человечества в случае внедрения ИИ в повседневную жизнь. Обе позиции мешают трезвому диалогу о реальных возможностях и ограничениях передовых технологий XXI века. Задача ближайших лет — выработать прагматичное отношение к ИИ как важному вспомогательному инструменту, применение которого должно быть четко регламентировано. Лишь такое отношение — без придыхания и истерик — позволит встроить технологии в жизнь так, чтобы они работали во благо всего человечества. Источник: vk.com Комментарии: |
|