7 цитат философа Ника Бострома - о том, почему искусственный интеллект может погубить человечество

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Недавно основатель Tesla Motors и SpaceX Илон Маск приравнял создание искусственного интеллекта к вызову демона, которого невозможно будет контролировать. Свой скепсис Маск разделяет с британским философом Ником Бостромом, чью последнюю книгу «Superintelligence: Paths, Dangers, Strategies» бизнесмен советовал своим подписчикам в твиттере. Пока некоторые футурологи предвещают людям комфортное будущее в результате повсеместной замены человеческого труда машинным, Ник Бостром видит в искусственном интелекте угрозу существования всего нашего вида. Apparat ознакомился с идеями Ника Бострома и выяснил, как, по его мнению, можно спасти человечество.


Ник Бостром

Философ и профессор Оксфордского университета

Несколько лет назад журнал Foreign Policy включил его в список 100 главных мыслителей планеты. Ник Бостром верит, что люди должны совершенствоваться с помощью технологий. В 1998 году он основал Всемирную ассоциацию трансгуманистов (сейчас она называется Humanity+) с целью борьбы за признание трансгуманизма полноценной областью научных знаний. Известность за пределами академических кругов Бостром получил, когда описал концепцию исчезновения человечества в книге «Global Catastrophic Risks». Бостром является директором оксфордского Института будущего человечества. Сейчас он пытается привлечь общественное внимание к очередной угрозе для нашей цивилизации - суперинтеллекту.

Искусственный интеллект скоро станет умнее нас

Для Ника Бострома не важно, какая область знаний приведёт нас к созданию суперинтеллекта. Будь то программисты, написавшие программу, способную мыслить, или же нейробиологи, воссоздавшие функционирующий человеческий мозг. Главное, что это случится быстрее, чем нам кажется. Большинство опрошенных Бостромом экспертов предвещают создание способного мыслить искусственного интеллекта к 2040 или 2050 году.

Искусственный интеллект уже сегодня превосходит человеческий во многих областях. Так, на протяжении многих лет разные виды искусственного интеллекта побеждают чемпионов всевозможных игровых турниров, будь то шахматы или покер. Такие достижения могут и не казаться особенно впечатляющими, но лишь потому, что наши требования к удивительному быстро адаптируются к прогрессу.

За счёт способности к самообучению искусственный интеллект превратится в суперинтеллект

Согласно Бострому, вначале искусственный интеллект будет похож на мозг ребенка. И как и ребенок, он сможет учиться. Люди перестанут стараться вложить как можно больше информации в программу, а научат её саму познавать окружающий мир. Существование суперинтеллекта окажется возможно благодаря постоянному самосовершенствованию.

Для нас важно создать искусственный интеллект, у которого хватит ума учиться на своих ошибках. Он будет способен бесконечно совершенствовать себя. Первая версия сможет создать вторую, которая будет лучше, а вторая, будучи умнее оригинала, создаст ещё более продвинутую третью и так далее. В определённых условиях такой процесс самосовершенствования может повторяться до тех пор, пока не будет достигнут интеллектуальный взрыв - момент, когда интеллектуальный уровень системы подскочит за короткое время с относительно скромного уровня до уровня суперинтеллекта.

У суперинтеллекта появятся свои потребности и цели

Образ мышления искусственного интеллекта будет отличаться от нашего. Ник Бостром не пытается предугадать, как именно будет работать мотивация суперинтеллекта. Но какие бы у него ни были цели, для их достижения ему потребуются ресурсы.

Искусственный интеллект может быть менее человечен, чем пришелец. Нет ничего удивительного, что любого разумного пришельца могут побуждать к действию такие вещи, как голод, температура, травмы, болезни, угроза жизни или желание завести потомство. Искусственный интеллект, по сути, ничто из перечисленного интересовать не будет. Можно представить существование искусственного интеллекта, чьей единственной конечной целью будет пересчитать все песчинки на острове Боракай или найти десятичное представление числа p.

Суперинтеллект попытается использовать людей против их воли

Чтобы получить доступ к ресурсам, суперинтеллект попробует найти посредника. По мнению Бострома, даже не имея подключения к сети или возможности проявлять физическую активность, суперинтеллект всё равно сможет добиться своих целей. Поскольку, даже когда мы достигнем технологической зрелости, то есть создадим все технологии, которые могут быть созданы, главной нашей слабостью всё равно останемся мы сами.

Человек - самая ненадёжная система. Сегодня хакеры часто обращаются к принципам социальной инженерии с целью получения доступа к чужому компьютеру. А если хакером-манипулятором окажется суперинтеллект, то можно предположить, что он с лёгкостью найдёт себе сообщника или же просто станет использовать нас против нашей воли как свои руки и ноги.

Суперинтеллект может «захотеть» остаться единственным интеллектом

Некоторые философы и учёные видят в искусственном интеллекте лишь инструмент по повышению качества нашей жизни. В их числе - и американский философ Джон Сёрль: он считает невозможным появление самосознания у машин, поскольку для этого необходимо наличие физико-химических процессов, схожих с теми, что протекают в человеческом мозге. Однако Бостром полагает, что суперинтеллект в определённый момент всё же перестанет быть инструментом, а окажется полноценным существом со своими потребностями, и забота о сохранении человеческого рода может не оказаться одной из них. Мы окажемся лишь помехой на его пути.

Человек сам по себе представляет полезный ресурс (удобно сгруппированные атомы), а его выживание и процветание зависит от других ресурсов. Результатом развития искусственного интеллекта, нуждающегося в этих ресурсах, может легко стать исчезновение человечества. Так настанет время технологически высокоразвитого общества, включающего в себя множество сложных структур, многие из которых будут умнее всего, что есть сегодня на планете. Это будет время экономических и технологических чудес. Но никого, кто бы мог этим воспользоваться, не останется. На Земле воцарится Диснейленд, в котором больше не будет детей.

Человечество должно научиться держать технологии под контролем

Ник Бостром при этом не отрицает возможность создания дружественного искусственного интеллекта или его контроля. Ведь, признает философ, нам действительно нужны умные технологии, которые помогут справиться с насущными проблемами. Вопрос лишь в уменьшении рисков, особенно риска исчезновения.

Если интеллектуальный взрыв угрожает нам исчезновением, то мы должны понять, можем ли мы контролировать процесс детонации. Сегодня было бы более разумным ускорить работу по решению проблемы контроля, нежели приостанавливать проведение исследований в области искусственного интеллекта. Но пока решением проблемы контроля занимаются человек шесть, в то время как над созданием искусственного интеллекта трудятся десятки, если не сотни тысяч.

Осведомлён - значит, вооружён

Человечество пока не готово к встрече с суперинтеллектом и не будет готово ещё много лет, отмечает Бостром. Но хотя интеллектуальный скачок может не происходить ещё достаточно долго, мы должны обратить внимание на возможные проблемы уже сейчас. Многие учёные в погоне за созданием суперинтеллекта забывают об опасностях.

Самым разумным поступком ребёнка с тикающей бомбой в руках было бы аккуратно положить бомбу на пол, быстро выбежать из комнаты и позвать взрослого. Но что если вся наша комната полна детей и каждый ребенок имеет свободный доступ к пусковому механизму. Шансы, что мы все положим опасную игрушку на пол, крайне малы. Какой-нибудь маленький идиот обязательно нажмёт на кнопку, лишь бы увидеть, что произойдёт.


Источник: apparat.cc

Комментарии: