Сингулярность: когда ее можно ожидать?

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2018-02-06 09:16

Философия ИИ

Термин «искусственный интеллект» появился всего около 60 лет назад, и сейчас это уже не просто термин. На данный момент есть много экспертов по ИИ, которые пытаются понять, каким будет будущее этой технологии. Один из основных вопросов для обсуждения — технологическая сингулярность, момент, когда машины достигнут уровня разумности, превосходящего уровень разумности человека.

И хотя сингулярность до сих пор является темой многих научно-фантастических произведений, возможность ее наступления выглядит все более реальным. Корпорации и стартапы активно занимаются искусственным интеллектом, в их число входит Google, IBM и другие. Результаты этой работы есть. Например, создан робот, который выглядит как человек и может поддерживать разговор, считывать эмоции — или хотя бы пытаться это делать — а также выполнять разные типы задач.

Наверное, самым уверенным экспертом среди всех сторонников точки зрения неотвратимости наступления сингулярности является Рей Курцвейл, технический директор корпорации Google. Он считает, что роботы станут умнее людей где-то году в 2045. Руководитель СЕО SoftBank Масаёси Сон, сам по себе известный футурист, убежден, что сингулярность наступит уже в этом столетии, примерно в 2047 году. Бизнесмен всеми силами старается ускорить наступление сингулярности, создавая собственные проекты и покупая чужие. Так, SoftBank относительно недавно выкупил стартап Boston Dynamics у Google. Также компания вкладывает миллиарды долларов в технологическое венчурное инвестирование.

Далеко не все разделяют оптимизм приверженцев ускорения процесса сингулярности, считая сильную форму ИИ опасной.

Среди тех, кто опасается разумных машин — Илон Маск, Стивен Хокинг и другие ученые и бизнесмены. Они утверждают, что появление сильной формы ИИ станет началом конца человеческой цивилизации. Вот мнения некоторых экспертов. Луис Розенберг, СЕО Unanimous AI

«По моему мнению, которое я высказывал на TED этим летом, искусственный интеллект станет разумным и опередит человека в развитии, как раз это люди называют сингулярностью. Почему я так уверен, что это случится? Это просто. Мать-природа уже доказала, что разум может появиться в результате появления массивного числа однородных вычислительных элементов (т.е. нейронов) из которых формируются адаптивные сети (то есть, мозг).

В начале 90-х я размышлял над этим вопросом, и мне казалось, что ИИ превысит возможности человека в 2050 году. Сейчас я верю, что это случится быстрее, вероятно, уже в 2030.

Я считаю, что создание искусственного интеллекта на Земле ничуть не опаснее чужого ИИ, пришедшего с иной планеты. В любом случае, у этого ИИ будут собственные ценности, мораль, чувства и интересы.

Полагать, что интересы ИИ будут совпадать с нашими абсурдно наивны, а для того, чтобы понять, каков может быть эффект от конфликта интересов, стоит подумать, что человек сделал с природой и живыми существами на Земле.

Таким образом, нам необходимо подготовиться к неизбежном появлению рразумного ИИ. У этого такая же степень вероятностти, как и у прибытия корабля с иной солнечной системы. Все это — угроза существованию нашего собственного вида.

Что можно сделать? Я не считаю, что мы сможем задержать сознающий себя ИИ. Мы, люди, просто неспособны совладать с опасными технологиями. Это не потому, что у нас нет благих намерений. Просто мы редко понимаем потенциальную угрозу наших собственных изобретений. Когда начинаем созавать, уже обычно слишком поздно.

Означает ли это, что мы обречены? В течение продолжительного времени я думал, что это действительно так и написал два романа о неизбежном уничтожении человека. Но сейчас я считаю, что человечество выживет, если мы станем умнее, гораздо умнее, и сможем опережать машины.

Пьерр Барро, СЕО в Aiva Technologies

Я считаю, что существует сильное заблуждение в отношении того, насколько быстро появится „супер разум“, связанное с уверенностью что экспоненциальный рост производительности (технологий) нужно принять, как данность.

Во первых, на аппаратном уровне мы уже практически достигли предела, установленного законом Мура. В то же время, нет никакой уверенности в том, что современные технологии, вроде квантовых вычислений, могут использоваться для продолжения роста эффективности компьютерных систем, причем теми же темпами, что мы видели до сих пор.

Во-вторых, что касается программного уровня, нам еще нужно пройти длинный путь. Большинство ИИ-систем нуждается в многократных циклах обучения для того, чтобы получить возможность выполнять ту либо иную операцию. Мы, люди, гораздо более эффективны в плане обучения, нам нужно всего лишь несколько примеров и повторений.

Сфера применения ИИ очень узкая. Так, подобные системы фокусируются на решении специфических проблем, вроде распознавании фотографий котов и собак, машин, составления музыкальных композиций. Но пока еще нет систем, которые могут одновременно выполнять все это вместе.

И это если не говорить о том, что мы не должны быть слишком уж оптимистичны в отношении развития ИИ. Мне кажется, что в этой теме слишком много хайпа, но вскоре все наши иллюзии могут рассеяться, иллюзии в понимании того, что может и чего не может делать ИИ.

Если это случится, тогда может наступить новая „ИИ зима“, что приведет к нижению уровня финансирования разработок искусственного интеллекта. Это, вероятно, худшее, что может случиться в этой сфере, и нужно сделать все, чтобы предотвратить возможность реализации такого сценария.

Но когда наступит сингулярность? Я думаю, это зависит от того, что понимать под этим термином. Если мы говорим о прохождеении ИИ теста Тьюринга и повышении уровня разумности искусственной системы до уровня человека, то это случится где-то году в 2050. Это вовсе не означет, что ИИ обязательно будет умнее нас.

Если же мы говорим об ИИ, который превосходит человека абсолютно во всем, то здесь нужно сначала понять, как работает наш собственный разум. И только потом уже можно задуматься о создании чего-либо, что превохсодит нас. Мозг человека до сих пор остается сложнейшей проблемой, решить которую пока не могут лучшие из лучших. Мозг человека определенно сложнее, чем самые сложные нейросети или комплексы нейросетей.

Раджа Чатила, глава Института разумных систем и робототехники (ISIR) при университете Пьера и Марии Кюри.

Концепт технологической сингулярности не имеет под собой ни технологической, ни научной основы.

Основной аргумент — так называемый „закон ускорения развития“, который создан стараниями пророков технологической сигнулярности, включая, главным образом, Рея Курцвела. Этот закон вроде бы проистекает из закона Мура, который, как мы знаем, не является научным законом — это эмпирический вывод, который основан на результатах развития электронной индустрии.

Мы все знаем ограничения закона Мура — время, когда мы достигнем квантовых технологий например — и то, что эта архитектура может все изменить. Это важно для понимания того, что закон Мура не является на 100% законом.

Но сторонники сингулярности пытаются провести параллель с эволюцией видов и технологий без особого на то основания. Они считают, что постоянное повышение мощности компьютеров дадут в конце концов искусственный интеллект, который превзойдет человеческий разум. В частности, они предполагают, что это случится в промежутке между 2040 и 2050 годами.

Но обычные вычислительные устройства — это вовсе не разум. У нас около 100 миллиардов нейронов в мозге. Не только их количество, но прежде всего, их структура и принцип взаимодействия дает нам возможность думать и действовать.

Все, что мы можем делать — создавать определенного рода алгоритмы для достижения определенных целей и решения задач (называя это интеллектом). На самом деле, все эти системы очень ограничены в своих возможностях.

Мой вывод — сингулярность — это вера, но не наука.

Гидеон Шмуэль, СЕО eyeSight Technologies

Пытаясь понять, как сделать машины самообучающимися, в широком смысле, мы потратим много времени. Вызов в том, что как только подобные системы будут созданы, они смогут обучаться чрезвычайно быстро, экспоненциально. И за считанные часы или даже минуты они смогут превзойти человека.

Я бы хотел сказать, что технологии не плохие и не хорошие, это лишь инструмент. Еще я хотел бы сказать, что этот инструмент становится плохим или хорошим только в руках, которые его держать. Что касается сингулярности, то люди, пользователи, здесь ни при чем, все это касается лишь машин. Они могут вырваться из наших рук, и единственное, что можно сказать с уверенностью — то, что мы не сможем предсказать последствия.

Большое количество научно-фантастических книг и фильмов показывают нам супер-разумные машины, то, как они уничтожают человечество, или всех закрывают, или выполняют еще какие-то действия, которые ни вам ни мне не нравится.

То, что нужно в реальности сделать — подумать над способами развития ИИ-технологий. Например, если взять машинное зрение, то риск относительно мал. Если система сможет понимать значение вещей и распознавать объекты — ничего плохого не случится.

В наших собственных интересах получить машины, которые могут самообучаться для того, чтобы понимать, что происходит. Риск здесь в промежуточном слое, который воспринимает данные и переводит внешние факторы в какие-либо действия.

Эти действия могут быть очень быстрыми, иметь отношение к обычной реальности (автомобили с ИИ, например) или же виртуальной реальности (обработка информации, контроль ресурсов, идентификация и т.п.).

Должны ли мы этого бояться, в особенности, последнего? Лично я опасаюсь, да.

Патрик Уинстон, профессор информационных технологий, специалист по ИИ.

Меня уже несколько раз спрашивали о том, что я думаю по этому поводу. Люди считают, что ИИ человеческого уровня появится через 20 лет последние 50 лет (то есть каждое поколение ждет скорого появления ИИ). Мой ответ — ничего страшного, и в конце концов это может быть правдой.

На мой взгляд, создание ИИ не имеет ничего общего с, например, отправкой человека на Луну. У нас уже есть все технологии для Луны, но нет почти ничего для создания ИИ. Требуется больше технологических прорывов для этого, и сейчас сложно думать об этом с точки зрения каких-либо временных рамок.

Конечно, все зависит от того, насколько много ученых будет работать над проблемой создания ИИ. Сейчас огромное число специалистов вовлечено в машинное обучение и глубокое обучение. Возможно, некоторые из этих специалистов поймут, как работает разум человека.

Когда мы получим машинный эквивалент прорыва Уотсона-Крика? Я думаю, лет через 20, в конце концов я верю, что это случится.

Источник: geektimes.ru

Комментарии: