Паранойя Илона Маска начинает раздражать исследователей ИИ |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2017-07-20 23:20 Страх перед сверинтеллектуальными машинами вполне реален для Илона Маска. Основатель Tesla и SpaceX уже много раз говорил об этом, но, пожалуй, самое эмоциональное замечание по этому поводу он сделал американским сенаторам, заявив, что искусственный интеллект (ИИ) представляет собой «принципиальный риск для существования человеческой цивилизации». Данный комментарий привлек внимание не только представителей власти, но и исследователей этого самого ИИ. И, судя по всему, они не очень с ним согласны. «В то время как существует необходимость в налаживании диалога о положительных эффектах, которые может принести с собой технология ИИ, кажется, что основная часть беспокойства господина Маска сосредоточена вокруг надуманных сценариев захвата мира искусственным интеллектом», — поделился своим мнением специалист в области компьютерных наук Университета штата Аризона Суббарао Камбампати в интервью Inverse. «Паника господина Маска искажает смысл таких публичных обсуждений. И это весьма печально». Камбампати, являющийся также главой Ассоциации содействия в развитии ИИ и попечителем организации Partnership for AI, оказался не единственным в последнее время человеком, который ответил на недавние заявления Маска по поводу ИИ. Франсуа Холле и Дэвид Ха, исследователи глубинного машинного обучения в Google, также воспользовались такой возможностью и через свои странички в «Твиттере» выступили в защиту ИИ и машинного обучения (МО). «На мой взгляд, самой большой опасностью является массовый контроль и регуляция рождаемости посредством таргетинга и целых армий ботов, занимающихся пропагандой», — написал Холле в одном из сообщений. «Искусственный интеллект и машинное обучение в потенциале могут усугубить несколько существующих проблем. Но совсем не верится в то, что они способны создать новые», — добавил Холле в другом сообщении. У исследователя Педро Домигоса из Вашингтонского университета вообще не нашлось что ответить на такие заявления Маска, поэтому в «Твиттере» он отметился простым и лаконичным: «Эх». Дэвид Ха из Google также выразил сомнение в том, что, несмотря на работу в OpenAI, ведение разработок технологий самоуправляемых автомобилей в Tesla, а также недавний запуск своего нового проекта Neuralink и при этом имея доступ к передовым технологиям ИИ (о чем он сам заявлял), Маск понимает то, о чем он говорит. «Я тоже имею доступ к самым современным технологиям ИИ и скажу честно, я не очень впечатлен тем, на что они способны», — прокомментировал Ха на своей страничке в «Твиттере». Камбампати, в свою очередь, сослался на отчет о развитии ИИ-технологий 2016 года, опубликованного администрацией бывшего президента Барака Обамы, в котором были сделаны очень своевременные, но положительные рекомендации относительно политики регулирования разработок искусственного интеллекта. Отчет Белого дома совсем не содержал «каких-либо упоминаний о беспокойстве господина Маска по поводу искусственного сверхинтеллекта», заявил Камбампати в интервью Inverse. И, по его мнению, это является довольно убедительным доказательством того, что все эти опасения нельзя рассматривать обоснованными. Как отмечает портал Futurism, кажется довольно нечестным, что лишь один Маск привлекает к себе все внимание, в то время как он далеко не единственный видный представитель околонаучной и технической индустрии, обращающий внимание на вероятные угрозы со стороны сверхинтеллекта. Например, знаменитый физик Стивен Хокинг тоже постоянно не брезговал комментариями о ИИ-апокалипсисе. И все же самый главный вопрос в следующем: должны ли мы на самом деле бояться ИИ? Если говорить о его нынешнем состоянии, то ответом будет нет. В то же время стремительное развитие технологий в последнее время заставляет экспертов задуматься над тем, что мы становимся все ближе и ближе к технологической сингулярности, когда компьютеры превзойдут своих создателей. Но определенно понятно, что нынешний уровень ИИ и роботов даже близко пока не приблизился к тому уровню роботов-убийц, которых нам показывают в научной фантастике. Да и на самом деле непонятно – приблизится ли вообще. Знаменитый футурист и «энтузиаст сингулярности» Рэй Курцвейл считает, что сингулярность – это не та вещь, которую нам следует бояться. Бояться следует того, каким образом люди могут использовать ИИ. Именно поэтому лучшим курсом для нас сейчас будет определение четких и понятных представлений о том, что мы будем ожидать от результатов исследований технологий ИИ. Маск определенно прав в одном: нам необходима разработка регулятивных методов всего этого процесса. Но также правы Камбампати с Холле и Ха, указывающие на отсутствие причин для паники. Источник: hi-news.ru Комментарии: |
|