В чем заключаются риски, связанные с развитием искусственного интеллекта?

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


В чем заключаются риски, связанные с развитием искусственного интеллекта?

Материал основан на статье: 80000hours.org/problem-profiles/positively-shaping-artificial-intelligence/

Нет сомнений в силе аргументов ... проблема является вызовом лучшим математическим умам следующих поколений. На карту поставлена ??человеческая цивилизация, потому что появление машин, думающих как люди, не всегда будет в отдалении двух десятилетий. И когда они прибудут, мы хотим, чтобы они помогали нам, а не уничтожали нас

Клайв Куксон, научный редактор Financial Times

Многие эксперты считают, что существует значительный шанс того, что человечество разработает машины, более интеллектуальные, чем мы, в течение 21-го века. Это может привести к большим и быстрым улучшениям благосостояния человека, но есть веские основания полагать, что это также может привести к катастрофическим последствиям.

Проблема того, как можно разработать высокоинтеллектуальную машину для достижения реалистичных целей человека, очень плохо понятна. Если исследования искусственного интеллекта продолжат продвигаться без достаточной работы над исследованием проблемы управления такими машинами, катастрофические последствия гораздо более вероятны. Несмотря на растущее признание этой проблемы, менее 100 человек во всем мире непосредственно работают в этой области.

Прогресс в машинном обучении показывает, что воздействие ИИ может быть большим и внезапным

В октябре 2015 года программа на основе ИИ AlphaGo потрясла мир, победив профессионала в древней китайской настольной игре го в первый раз. Всего через пять месяцев AlphaGo победила одного из лучших профессионалов в го, выиграв 4 матча из 5.

В октябре 2017 года новая версия - AlphaGo Zero - без помощи людей научилась играть в го с нулевого уровня, а через 3 дня обыграла со счетом 100-0 предыдущую версию.

Достигнутые успехи стали возможными благодаря прогрессу в методе ИИ под названием «глубокое обучение». Раньше людям приходилось давать подробные инструкции компьютеру для каждой задачи. Сегодня у нас есть программы, которые учат тому, как достичь цели. Например, программа смогла научиться играть в игру Atari, основываясь только на обратной связи от количества набранных очков. Это стало возможным благодаря улучшенным алгоритмам, более быстрым процессорам, большим наборам данных и огромным инвестициям таких компаний, как Google. Это привело к удивительным успехам намного быстрее, чем ожидалось.

Но игры это одно, а общий машинный интеллект, способный выполнять широкий спектр задач - совсем другое. Как далеко еще до его появления? Трудно предсказать будущее технологий, и многие из прошлых попыток были совершенно безрезультатными. Однако в наилучших имеющихся опросах, эксперты высказывают значительную вероятность развитию мощного ИИ в течение нашей жизни.

В одном из опросов среди 29 наиболее известных исследователей в области программирования, было установлено, что более половины считают, что вероятность появления «высокоуровневого машинного интеллекта» (который может выполнять большинство человеческих видов деятельности по меньшей мере так же, как среднестатистический человек) к 2050 году составляет более 50%. И более 10% вероятности того, что это произойдет к 2024 году.

2. Когда появится сверхразумный ИИ, он может оказать как большое положительное (например, в сфере медицины, науки, транспорта), так и отрицательное влияние (например в сфере безопасности, экономики, обороны) (1).

Если эксперты правы, система ИИ, которая достигнет и затем превзойдет возможности человека, может оказать большие последствия: как положительные, так и отрицательные.

Если ИИ разовьется в таких областях, как математические или научные исследования, эти системы могут быстро способствовать лечению заболеваний или созданию роботов для удовлетворения потребностей человека.

С другой стороны, многие люди беспокоятся о разрушительных социальных последствиях такого рода машинного интеллекта и, в частности, его способности брать на себя работу, ранее выполняемую менее квалифицированными рабочими. Если экономика не сможет быстро создать новые рабочие места для этих людей, будет широко распространена безработица и снижение заработной платы. Эти результаты можно будет избежать с помощью государственной политики, но для этого, вероятно, потребуется значительное планирование. Тем не менее, это не единственное воздействие, которое могут иметь высокоразвитые машины.

Успех несет за собой и огромные риски. ... сочетание несогласованности [цели] со все более способными системами принятия решений может привести к проблемам - возможно, даже к проблемам, связанным с исчезновением видов, если машины будут более способными, чем люди.

Стюарт Рассел

Чем умнее система, тем труднее людям контролировать процессы, которые в ней происходят. И часто интеллектуальная машина захочет держать людей в неведении, если это уменьшит риск того, что люди будут мешать ей достичь своей назначенной цели.

Вы можете подумать: «Почему мы не можем просто отключить ее?». Но, конечно же, интеллектуальная система будет показывать в процессе функционирования нам то, что мы хотим увидеть, пока не будет уверена, что мы не сможем ее отключить.

Интеллектуальная машина может «знать», что то, что она делает, - это не то, что люди намеревались сделать, но это может быть просто не актуально. Подобно тому, как ракета, нацеленная на горячие объекты, следует за ними, машинный интеллект будет делать буквально и точно то, для чего мы изначально его запрограммировали. Однако наличие интеллекта не обязательно означает, что он будет разделять наши ценности. В результате он легко может начать маниакально стремиться выполнять даже очень глупую цель.

Может ли программа, цель которой - производство скрепок, превратить всю Землю в скрепки?

Решение состоит в том, чтобы выяснить, как обеспечить то, чтобы инструкции, которые мы задаем машинному интеллекту, действительно отражали то, что мы хотим, без каких-либо непреднамеренных результатов. Это называется решением проблемы «управления» или «выравнивания ценности».

Трудно представить себе более важный исследовательский вопрос. Решение проблемы контроля может означать разницу между достижением большого благосостояния, счастья и здоровья - и разрушением тех условий, которые позволяют человечеству процветать.

3. Мало людей работают в этой сфере

Хотя ставки очень высоки, усилия, направленные на предотвращение этих опасностей, очень малы. Глобальные затраты на исследования и действия для обеспечения безопасного развития ИИ в 2017 году составят всего 9 миллионов долларов. По сравнению с этим в 100 раз больше тратится на ускорение развития ИИ, и в 26 000 раз больше - на биомедицинские исследования. Тем не менее, область исследования безопасности ИИ быстро растет - в 2015 году общие расходы составили всего 3 миллиона долларов.

Рост количества средств, выделяемых на изучение безопасности ИИ

Поскольку до сих пор в этой области задействовано так мало ресурсов, мы можем рассчитывать на довольно быстрый прогресс в ближайшее время: самые легкие и самые полезные открытия, которые можете сделать именно вы, еще впереди. И проблема стала более актуальной в последние несколько лет из-за увеличения инвестиций и прогресса в развитии ИИ.

4. При этом есть четкие способы добиться прогресса

Недавние инвестиции в технические исследования проблемы контроля ИИ уже дали значительные результаты. В то время как некоторые технические проблемы уже были решены, сегодня у нас есть более четкая картина того, как интеллектуальные системы могут работать не так, как было запланировано - по сравнению с несколькими годами ранее, что является первым шагом на пути к решению.

Также уже достигнут прогресс в лучшем понимании более широких, «стратегических» вопросов вокруг ИИ. Например, были проведены исследования того, как правительство должно реагировать на ИИ, включая гонку вооружений, последствия открытого обмена исследованиями и критерии, по которым следует рассматривать законодательство относительно ИИ. Тем не менее, все еще очень мало написано по этим темам, поэтому каждое исследование может оказать огромный вклад.

Даже если, как утверждают некоторые, значимые исследования невозможны прямо сейчас, имеет смысл создавать сообщество, направленное на смягчения этих рисков в будущем, когда прогресс будет проще. Работа людей не из технических сфер помогла значительно расширить финансирование и интерес к этой области, способствуя недавнему быстрому росту усилий по решению этой проблемы.

Подробнее о проблемах, связанных с развитием ИИ можно прочитать в книге Ника Бострома "Искусственный интеллект. Этапы, Угрозы. Стратегии"

Или посмотреть его выступление на конференции TED:

https://www.ted.com/talks/nick_bostrom_what_happens_when_our_computers_get_smarter_than_we_are?language=ru

Ссылки:

  1. Concrete Problems in AI Safety https://arxiv.org/pdf/1606.06565.pdf

Источник: telegra.ph

Комментарии: