Сэм Харрис: «Мы создаём что-то вроде бога»

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Сэм Харрис — философ, нейробиолог, публицист, сооснователь и директор организации Project Reason.

Хочу описать сценарий, который и ужасен, и вероятен одновременно. Я расскажу, как наши достижения в области искусственного интеллекта могут в конечном счёте уничтожить нас.

Если вы похожи на меня, то согласитесь, что продумывать фантастические сценарии гибели человечества забавно. И такая реакция — часть проблемы. Больше всего в развитии ИИ меня пугает именно то, что мы неспособны выстроить правильный эмоциональный отклик на надвигающуюся угрозу.

Продолжая улучшать системы искусственного мышления, в какой-то момент мы построим машины, которые будут умнее нас. И как только это произойдёт, они начнут совершенствоваться сами.

Просто подумайте, как мы относимся к муравьям. Мы их не ненавидим. Но как только их существование начинает создавать для нас малейшее неудобство, мы уничтожаем их без тени сомнения. Однажды мы построим машины, которые будут относиться к нам с таким же пренебрежением.

Некоторые из вас, вероятно, сомневаются в возможности и тем более неизбежности сверхумного ИИ. Но тогда вам придётся оспорить следующие три утверждения.

Первое. Интеллект — это продукт обработки информации в физической системе.

Мы встроили ограниченный интеллект в машины, и некоторые из них уже проявляют сверхчеловеческие способности. Это может привести к расцвету так называемого общего искусственного интеллекта, обладающего способностью к гибкому мышлению в той же мере, как и наш мозг. Важно осознать, что нынешний уровень развития ИИ особого значения не имеет. Закон Мура и экспоненциальный рост так или иначе приведут нас к конечной точке.

Второе. Мы продолжим улучшать мыслящие машины.

Есть проблемы, которые мы не решили, и только ИИ может в этом помочь. Например, мы хотим излечивать болезни, такие как Альцгеймер или рак. Хотим лучше понимать законы экономики и развивать климатологию.

Третье. Мы не стоим на вершине развития интеллекта.

Очевидно, что диапазон интеллектуальных возможностей гораздо дальше, чем мы думаем. И если мы построим машины, которые будут умнее нас, они раздвинут нынешние границы так, как мы и представить себе не можем.

Представьте, что мы создали сверхразвитый интеллект — умнее целой группы исследователей в Стэнфорде или MIT. Не забудьте, что электронные схемы функционируют в миллион раз быстрее, чем биохимические, поэтому машина и думать будет в миллион раз быстрее. Как мы вообще сможем её понимать, не говоря уже о том, чтобы сдерживать разум, прогрессирующий таким образом?

Но предположим, нас всё-таки озаряет, как создать безопасный вариант сверхразумного интеллекта. Он сможет проектировать машины, выполняющие любую физическую работу. Придёт конец тяжёлому труду, но вместе с ним и интеллектуальной работе — в значительной мере.

Спросите себя: что случится с экономикой и политическим порядком? Вероятно, мы станем жертвами финансового неравенства и безработицы невиданного масштаба. Вдобавок такая машина способна вести войну, наземную или кибернетическую, с беспрецедентной мощью.

К несчастью, я не знаю, как решить эти проблемы, но советую хотя бы поразмыслить о них. Нам нужно что-то вроде Манхэттенского проекта по вопросу ИИ. Не для того, чтобы создать его — это неизбежно, — но чтобы понять, как избежать гонки вооружений и построить ИИ так, чтобы он считался с нашими интересами.

Необходимо признать, что мы находимся в процессе создания в некотором роде бога. И сейчас отличный момент подумать, как нам ужиться с этим богом.

Can we build AI without losing control over it? (Sam Harris)

(Из выступления на конференции TED)


Источник: m.vk.com

Комментарии: