Все наши знания об искусственном интеллекте — лишь заблуждения

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Пожалуй, одним из самых сложных тестов машинного интеллекта явилась шахматная партия, состоявшаяся почти 20 лет назад между компьютером Deep Blue и чемпионом мира по шахматам Гарри Каспаровым. Машина одержала победу. В настоящий момент завершилась серия игр в логическую игру го, где соревновались ИИ AlphaGo от DeepMind (владелец Google) и легендарный чемпион по игре в го из Китая Ли Си Дол. В четырех из пяти партий победу одержала машина, показав свое превосходство над человеком в этой игре. Невероятно сложная игра между человеком и ИИ показывает, что машинный интеллект за это время развился очень сильно. Кажется, что роковой день, когда машины действительно станут умнее человека, теперь уже как никогда близок. Однако кажется, многие совсем не понимают, а скорее даже заблуждаются в отношении тех последствий, которые нас могут ожидать в будущем.

Мы действительно недооцениваем некоторые очень серьезные и даже опасные последствия развития искусственного интеллекта. В прошлом году соучредитель компании SpaceX Элон Маск выступил с заявлением, в котором выразил опасение на счет возможного порабощения мира искусственным интеллектом, что в свою очередь вызвало огромное количество комментариев как сторонников, так и противников такого мнения.

Для столь фундаментально революционного будущего, которое нас может ожидать, удивление вызывает огромное число сегодняшних разногласий по поводу того, случится ли оно вообще и чем оно в конечном итоге обернется. Особенно странным выглядит отрицание невероятных преимуществ, которые мы сможем получить при создании действительно умного ИИ, конечно же, при учете всех возможных рисков. Все эти вопросы невероятно сложны в получении нужных ответов, так как ИИ, в отличие от любых других изобретений человечества, может действительно «омолодить» это человечество или полностью его уничтожить.

Сейчас сложно понять, во что верить и на что надеяться. Однако благодаря пионерам компьютерных наук, нейробиологам и теоретикам развития ИИ, потихоньку начинает проясняться четкая картинка. Ниже приведен список самых частых заблуждений и мифов в отношении искусственного интеллекта.

Мы никогда не создадим ИИ с человекоподобным интеллектом

Реальность, в свою очередь, говорит о том, что у нас уже есть компьютеры, которые соответствуют и даже превосходят человеческие возможности в некоторых сферах. Взять хотя бы шахматы или ту же игру го, торговлю на биржах или роль виртуального собеседника. Компьютеры и алгоритмы, которые ими управляют, со временем станут только лучше, и это лишь вопрос времени, пока они не сравняются с возможностями человека.

Исследователь из Нью-Йоркского университета Гэри Маркус как-то сказал, что «практически все», кто работает со сферой ИИ, считают, что машины однажды нас превзойдут:

«Единственный спор между сторонниками и скептиками заключается во временных рамках этого события».

Такие футурологи, как Рэй Курцвейл считают, что событие это может произойти уже в ближайшие десятилетия, в то время как другие говорят, что на это потребуется несколько столетий.

Скептики ИИ неубедительны в своих доказательствах того, что создание искусственного интеллекта как нечто уникального и очень похожего на настоящий живой человеческий мозг в технологическом плане находится где-то за гранью реальности. Наш мозг тоже машина. Биологическая машина. Он существует в том же мире и подчиняется тем же законам физики, что и все остальное. И со временем мы полностью разгадаем весь принцип его работы.

ИИ будет обладать сознанием

Существует общее мнение, согласно которому машинный интеллект будет обладать сознанием. То есть ИИ будет думать так же, как это делает человек. Помимо этого, некоторые критики, например, соучредитель компании Microsoft Пол Аллен считают, что из-за неполной теоретической базы, описывающей механизмы и принципы самосознания, мы пока не создали даже общий искусственный интеллект, то есть интеллект, способный выполнять любые интеллектуальные задачи, с которыми может справиться человек. Однако по мнению Мюррея Шанахана, доцента факультета когнитивной робототехники Имперского колледжа Лондона, мы не должны приравнивать два этих понятия.

«Самосознание - это определенно очень интересный и важный объект исследований, однако я не считаю, что самосознание должно являться обязательным атрибутом человекоподобного искусственного интеллекта», - говорит Шанахан.

«По большому счету мы используем термин «самосознание» лишь для индикации нескольких психологических и когнитивных атрибутов, которые, как правило, связаны между собой в человеке».

Вполне реально представить очень умную машину, у которой отсутствует один или несколько таких атрибутов. Когда-нибудь мы сможем построить действительно невероятно умный ИИ, но при этом лишенный способности к самосознанию, а также субъективному и осознанному пониманию окружающего мира. Шанахан отмечает, что объединение интеллекта и самосознания внутри машины все же будет возможно, но мы не должны упускать того факта, что это два совершенно отдельных друг от друга понятия.

И хотя один из вариантов «Теста Тьюринга», в котором машина показала, что она ничем не отличается от человека, был успешно пройден, это совсем не означает, что эта машина обладает сознанием. С нашей (человеческой) точки зрения, продвинутый искусственный интеллект может показаться нам как нечто обладающее самосознанием, однако сама машина будет осознавать себя не больше, чем тот же камень или калькулятор.

Мы не должны бояться ИИ

В январе этого года основатель компании Facebook Марк Цукерберг поделился своими мыслями о том, что нам не следует бояться ИИ, добавив, что эта технология сможет привнести огромную пользу во всем мире. Правда в том, что он прав лишь отчасти. Мы действительно сможем получить удивительные преимущества, имея в своем распоряжении ИИ (начиная от самоуправляемых автомобилей и заканчивая новыми открытиями в медицине), однако никто не может гарантировать, что каждое применение ИИ обязательно принесет пользу.

Высокоинтеллектуальная система, возможно, и будет знать все необходимое для тех или иных задач (например, разрешение сложной мировой финансовой обстановки или взлом компьютерных систем врага), однако за пределами узкоспециализированных задач потенциал ИИ пока совершенно неясен, а потому потенциально опасен. Например, система компании DeepMind специализируется на игре го, однако у нее нет возможностей (и причин) исследовать области за пределами этой сферы.

Многие из таких систем могут носить серьезную угрозу безопасности. Хорошим примером является мощный и весьма хитрый вирус Stuxnet, военизированный «червь», созданный американскими и израильскими военными для проникновения и атаки на иранские атомные станции. Только эта вредоносная программа каким-то образом (случайно или преднамеренно) поразила еще в добавок и одну из российских атомных станций.

Другим примером является вирус Flame, разработанный для направленного кибер-шпионажа на Ближнем Востоке. Легко представить, как «будущие версии» вирусов Stuxnet и Flame самостоятельно выйдут за пределы своих поставленных задач и смогут заразить практически всю инфраструктуру той или иной страны. И сделают это очень тихо и незаметно.

Искусственный сверхинтеллект будет слишком умным, чтобы допускать ошибки

Математик, исследователь искусственного интеллекта и основатель робототехнической компании Surfing Samurai Robots Ричард Лузмор считает, что большинство сценариев конца света с участием ИИ выглядят маловероятными, потому что все они в общем и целом основываются на том, что ИИ однажды скажет: «Я понимаю, что уничтожение людей является ошибкой моего программного кода, однако я все равно вынужден следовать поставленной задаче».

Лузмор считает, что если ИИ будет вести себя согласно этому сценарию, он столкнется с логическими противоречиями, которые поставят перед ним под сомнение всю его накопленную базу знаний и приведут в конце концов к его собственному осознанию своей глупости и бесполезности.

Исследователь также считает, что те люди, которые говорят, что «ИИ будет делать только то, что будет заложено в его программе», заблуждаются, так же как и те люди, которые когда-то говорили те же самые слова, но в сторону компьютеров, заявляя о том, что компьютерные системы никогда не будут обладать универсальностью.

Питер Макинтайер и Стюарт Армстронг, оба работающие в Институте будущего человечества при Оксфордском университете, в свою очередь, не согласны с этим мнением, аргументируя это тем, что поведение ИИ будет в обязательной и в значительной степени обосновано именно программным кодом. Ученые не верят в то, что ИИ никогда не совершат ошибок или же, напротив, будут слишком глупы, чтобы понять, чего именно мы от них хотим.

«По своему определению искусственный сверхинтеллект (ИСИ) является агентом, чей интеллект многократно будет превосходить лучшие умы человечества практически во всех областях», - говорит Макинтайер.

«Он точно будет понимать то, чего мы от него будем хотеть».

Макинтайер и Армстронг считают, что ИИ будет выполнять только те задачи, на которые он был запрограммирован, однако если каким-то образом он самостоятельно разовьется, то, вероятнее всего, он попытается выяснить, насколько его действия будут отличаться от человеческих задач и заложенных в него законов.

Макинтайер сравнивает будущее положение людей с тем, с которым приходится сталкиваться мышам. Мыши обладают мощным инстинктом поиска еды и убежища, однако их цели очень часто вступают в противоречие с человеком, который не желает видеть их в своем доме.

«Подобно нашим знаниям о мышах и их желаниях, система сверхинтеллекта тоже может все о нас знать и знать то, чего мы хотим, но при этом будет совершенно безразлична к нашим желаниям».


Источник: ukr-today.com

Комментарии: