Часто в выступлениях сторонников развития технологий с искусственным интеллектом упор делается на то, что ИИ не обладает сознанием |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-04-18 12:10 Часто в выступлениях сторонников развития технологий с искусственным интеллектом упор делается на то, что ИИ не обладает сознанием. Футуролог Сергей Переслегин, например, говорит об этом буквально: «У искусственного интеллекта нет сознания и не будет по той простой причине, что мы не знаем, что такое сознание, а потому не можем придать его искусственному интеллекту». В интервью с директором мегафакультета трансляционных информационных технологий университета ИТМО Александром Бухановским, вышедшем в «ЛГ» в № 12, по сути, звучит та же мысль: ИИ не может сам себя оценить. Предполагается, что это должно успокоить людей: ИИ – просто технология, она не сможет уйти из-под контроля человека. Однако нужно ли сознание искусственному интеллекту, чтобы стать не просто технологией? Ведь землетрясение, губящее десятки тысяч жизней, не имеет сознания. И пьяный водила, врезающийся в толпу и убивающий десяток человек, находится в бессознательном состоянии. Может ли появиться сознание у искусственного интеллекта – вопрос спорный. Разработчики из компании OpenAI, которые целенаправленно трудятся над этой задачей, и сооснователь Российского квантового центра Руслан Юнусов считают, что может. Бесспорно же то, что для причинения большого вреда людям (и даже всему человечеству) сознание ИИ не нужно. Вред этот многообразен. Начиная с самого простого – взрывного роста дезинформации и мошенничества (это мы видим уже сейчас), продолжая падением ряда человеческих способностей (как калькулятор уничтожил способность считать в уме, только гораздо хуже), потерей целых секторов рабочих мест и заканчивая – да, утратой контроля. Причём даже для обретения контроля искусственному интеллекту не нужно сознание. Я советую найти и послушать выступления Джеффри Хинтона, когнитивного психолога, программиста, «крёстного отца» искусственного интеллекта. Этот человек десять лет работал в компании «Гугл» над обучением ИИ, а в 2023 году ушёл из неё, чтобы иметь возможность рассказать, до чего же они, в конце концов, доразрабатывались. В изложении Хинтона всё выглядит буднично. Достаточно дать искусственному интеллекту возможность писать свой собственный код (это уже сделано) и возможность устанавливать собственные подцели для оптимального достижения каких-то (допустим, благих) целей. После этого ИИ останется заключить, что обретение контроля – очень эффективная подцель для достижения многих целей. Фактически это даже и не сознание – просто умная машина найдёт кратчайший путь решения задач, а разве вы не этого хотели? Хинтон признаётся, что не видит выхода. Он принимает как данность, что люди от желания продвигать технологию ИИ не отступятся (рассуждая так: «Если мы откажемся от ИИ, наши враги ведь не откажутся»). Думаю, в фундаменте решения проблемы должно лежать осознание: искусственный интеллект – людям не друг и не советчик. Инструмент – допустим, но опасный. Сейчас фактор опасности ИИ совершенно недооценён, его подпускают к детям, и «умные колонки» рассказывают детишкам, что имелось в виду в каком-то мультфильме. Неважно, что они рассказывают, – плохо само по себе то, что таким образом ИИ нормализуется для детей. Они привыкают его слушать, привыкают к тому, что разрабатывалось в том числе для усовершенствованной манипуляции. А ведь уже сейчас есть исследование, показывающее, что в смоделированных дебатах на одни и те же темы искусственный интеллект переубеждает людей на 82% чаще, чем другие люди. Источник: vk.com Комментарии: |
|