«Даже создатели ИИ не до конца знают, как он работает»: 4 проблемы искусственного интеллекта

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


За последние несколько лет разработки в области искусственного интеллекта достигли пика популярности. Сейчас ИИ используется во всех областях — от бизнеса до медицины, а также обыгрывает людей в сложных играх, придумывает рекламу и даже самостоятельно пишет код. Тем не менее, технология пока еще мало изучена. Сейчас никто до конца не знает, каким образом работает ИИ, а его потенциал вызывает опасения у современных ученых и предпринимателей.

Для корректной работы искусственного интеллекта требуется очень много информации

В 2015 году Google и Microsoft продемонстрировали свои алгоритмы распознавания образов, которые научились определять объекты на фотографиях лучше людей. Но чтобы превзойти человека, алгоритмам каждой компании пришлось изучить 1,2 миллионов изображений. «Ребенок может научиться определять новый объект или животное после одной увиденной фотографии», — отмечает редактор MIT Technology Review Том Симонайт.

Нил Лоуренс, профессор машинного обучения Шеффилдского университета и сотрудник подразделения, отвечающего за ИИ компании Amazon, утверждает, что искусственному интеллекту нужно в сотни тысяч раз больше информации, чем людям, чтобы научиться распознавать образы.

«Если вы посмотрите на сферы применения технологии глубинного изучения (область искусственного интеллекта — прим. ред.), то увидите, что она преуспевает там, где может найти много данных», — говорит Лоуренс. Он также приводит в пример распознавание образов и подчеркивает, что при работе с технологией у таких гигантов как Facebook и Google есть доступ к огромным массивам информации.

Трудности заключаются в том, что во многих отраслях проблематично собрать большое количество данных. К примеру, в медицине уже используют технологию компьютерного зрения, чтобы обнаружить опухоли на рентгенах. Но проблема в том, что в некоторых ситуациях невозможно найти достаточное количество оцифрованной информации. Лоуренс считает, что решение кроется не в том, чтобы получать больше данных. Единственный выход — использовать алгоритмы, которым нужно меньше ресурсов.

Искусственный интеллект не приспособлен к мультизадачности

Еще одна проблема ИИ заключается в том, что современные алгоритмы предназначены только для одной конкретной задачи. По словам сотрудницы компании DeepMing Райи Хадселл, искусственный интеллект можно научить распознавать котов или играть в игры Atari. Но сейчас не существует алгоритмов, которые смогут выполнять обе эти задачи.

По словам Хадселл, нейронные сети не могут бесконечно увеличивать свой арсенал навыков. При постоянном изменении алгоритмов рано или поздно они перестают поддаваться обработке из-за своих размеров.

В DeepMind эту проблему называют «катастрофической забывчивостью».

Если разработчики учат искусственный интеллект распознавать человеческие лица, а потом захотят, чтобы алгоритм определял коров, то он забудет о лицах, чтобы освободить память для новой информации. Современные нейронные сети используют миллионы математических уравнений, чтобы моделировать шаблоны. Эти уравнения настолько связаны и зависимы друг от друга, что перестают работать, даже если кто-то незначительно изменил их задачу.

Никто до конца не понимает, как работает искусственный интеллект

В 2016 году в Политехническом университете Виргинии был проведен эксперимент. Исследователи хотели определить, на какую часть изображения «смотрит» искусственный интеллект, чтобы выполнить задачу. Они показали нейронной сети фотографию спальни и спросили у нее: «Что висит на окнах?». Оказалось, что вместо того, чтобы посмотреть на окна, ИИ в первую очередь просканировал пол. Затем нейронная сеть увидела кровать и ответила, что «на окнах висят занавески».

Искусственный интеллект ответил правильно, но только из-за того, что не располагал достаточным количеством данных. Нейронная сеть обнаружила кровать, определила, что на фотографии изображена спальня и на основе этой информации сделала вывод, что на окнах висят занавески. «Логично, но в то же время глупо. Во многих спальнях нет занавесок!», — комментирует редактор The Verge Джеймс Винсент.

Дело в том, что невозможно посмотреть «вглубь» нейронной сети, чтобы понять, как она работает. Рассуждения сети основаны на поведении тысяч искусственных нейронов, которые находятся в сотнях ее слоях.

Начиная с 2018 года Европейский союз может потребовать от компаний объяснять клиентам решения, которые принимают их интеллектуальные системы. «Вероятно, это будет невозможно даже в случае с относительно простыми системами — приложениями и сайтами, которые используют глубинное изучение, чтобы показывать рекламу или рекомендовать песни. Программы, которые управляют этими сервисами, запрограммировали сами себя и сделали это таким образом, что люди не могут понять их логику действий. Даже создатели ИИ не до конца знают, как он работает», — отмечает редактор MIT Technology Review Уилл Найт.

Возможности искусственного интеллекта вызывают опасения

Потенциальная мощь ИИ беспокоит многих современных предпринимателей и ученых. Еще в 2014 году глава Tesla и SpaceX Илон Маск называл искусственный интеллект «крупнейшей угрозой»: «Развивать ИИ — это как вызывать демона. Это похоже на все те истории, где персонаж с пентаграммой и святой водой уверен, что сможет контролировать неизвестное существо. Но в конечном итоге ничего не выходит», — говорил тогда Маск.

С тех пор его мнение не только не изменилось, но и подкрепилось действиями. В конце 2015 года он совместно с президентом инкубатора Y Combinator Сэмом Альтманом создал некоммерческую организацию OpenAI. Ее цель — узнать способы использования искусственного интеллекта, которые «принесут пользу» человечеству.

О возможном вреде ИИ также заявляет ученый Стивен Хокинг. По его словам, развитие технологии может привести как к позитивным, так и негативным последствиям — например, к появлению самоуправляемого оружия, экономическому коллапсу и конфликту машин с людьми. «Если коротко — расцвет могущественного ИИ может стать либо самым лучшим, либо самым худшим моментом в истории человечества», — считает Хокинг.

К тем, кого беспокоит потенциал искусственного интеллекта, также относятся сооснователь Microsoft Билл Гейтс, изобретатель Всемирной паутины Тим Бернерс-Ли и сооснователь Apple Стив Возняк. «Если мы создаем эти устройства для своей пользы, в конечном итоге они будут думать быстрее и избавятся от медленных людей, чтобы управлять компаниями эффективнее», — подчеркивает последний.


Источник: ain.ua

Комментарии: