23 принципа искусственного интеллекта, одобренные Стивеном Хокингом и Илоном Маском

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


В начале января в Калифорнии проходила конференция Beneficial AI 2017. За пять дней в ней приняли участие исследователи, академики, эксперты из различных индустрий, посвятив общение теме полезного искусственного интеллекта. Среди них были Рэй Курцвейл, Илон Маск, Стивен Хокинг, Демис Хассабис, Ян Лекун и несколько десятков ученых и специалистов в области ИИ и других сферах. Результатом конференции стали Азиломарские принципи ИИ, в рамках которых должны происходить дальнейшие исследования в сфере искусственного интеллекта. Они обеспечат безопасность и использование во благо человечества систем ИИ.

Искусственный интеллект уже предоставил нам полезные инструменты, которые люди используют по всему миру каждый день. Его дальнейшее развитие на основе следующих принципов предоставит невероятные возможности для помощи и расширения возможностей человечества в следующие десятки и сотни лет.

Проблемы исследований

1. Цель исследований.  Целью исследований в области искусственного интеллекта должно быть создание не неориентированного, а полезного интеллекта.

2. Финансирование исследований.  Инвестиции в ИИ должны сопровождаться финансированием исследований, которые удостоверят его полезное использование, включая острые вопросы в области компьютерных наук, экономики, права, этики и социальных наук, таких как:

Как мы можем сделать будущие ИИ-системы высоконадежными, чтобы они делали то, что хотим мы без сбоев или возможностей для взлома?

Как мы можем двигаться к процветанию через автоматизацию при этом сохраняя человеческие ресурсы и цели?

Как мы можем обновить нашу юридическую систему, чтобы она была более честной и эффективной, соответствовала скорости развития ИИ и управляла рисками, связанными с ним?

Какой набор ценностей должен включать в себя ИИ и какой юридический и этический статус он должен иметь?

3.  Связь «наука-политика».  Должно существовать конструктивное и здоровое взаимодействие между исследователями ИИ и политиками.

4.  Культура исследований.  Среди исследователей и разработчиков ИИ должна поддерживаться культура сотрудничества, доверия и прозрачности.

5.  Избежание гонки. Команды, разрабатывающие системы ИИ, должны активно сотрудничать и не «срезать углы» в вопросах безопасности.

Этика и ценности

6.  Безопасность.  Системы искусственного интеллекта должны быть безопасны и защищены на протяжении всего срока эксплуатации. Они также должны быть проверяемы по этим аспектам там, где это применимо и выполнимо.

7.  Прозрачность ошибок.  Если система ИИ нанесет вред, должно быть возможно установить причину произошедшего.

8.  Судебная прозрачность.  Любое использование автономной системы для принятия судебных решений должно сопровождаться удовлетворительным объяснением, которое способно проверить компетентное человеческое учреждение.

9.  Ответственность.  Разработчики и создатели продвинутых систем ИИ являются стейкхолдерами моральных последствий, не добропорядочного использования и других действий, с ответственностью и возможностью формировать эти последствия.

10.  Согласование ценностей.  Высокоавтономные системы ИИ должны проектироваться так, чтобы их цели и поведение согласовывались с человеческими ценностями во всех аспектах их работы.

11.  Человеческие ценности.  Системы ИИ должны проектироваться и управляться так, чтобы быть совместимыми с идеалами человеческого достоинства, прав, свобод и культурного разнообразия.

12.  Личная приватность.  Люди должны иметь право доступа, управления и контроля данных, которые они генерируют, давая системам ИИ возможность анализировать и использовать эти данные.

13. Свобода и приватность.  Применение ИИ к личным данным не должны необоснованно ограничивать реальную или воспринимаемую свободу людей.

14.  Общая выгода.  Технологии искусственного интеллекта должны приносить пользу и расширять возможности максимально возможного количества людей.

15.  Общее процветание.  Экономическое процветание, созданное ИИ, должно широко распределяться, чтобы все человечество получало выгоду.

16.  Человеческий контроль.  Люди должны выбирать как и нужно ли делегировать решения системам ИИ, чтобы достичь выбранных людьми целей.

17.  Отсутствие подрывной деятельности.  Власть, получаемая с помощью контроля высокоразвитых систем ИИ должна уважать и улучшать, а не подрывать, социальные и гражданские процессы, от которых зависит здоровье общества.

18.  Гонка ИИ-вооружений.  Гонки вооружений в сфере летального автономного оружия необходимо избежать.

Более долгосрочные проблемы

19.  Осторожное отношение к возможностям.  Если не найден общий консенсус, мы должны избегать сильных допущений относительно верхних границ будущих возможностей искусственного интеллекта.

20.  Важность.  Продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле и должен планироваться и управляться с соответствующим вниманием и ресурсами.

21.  Риски.  Риски, связанные с системами ИИ, особенно катастрофические и экзистенциальные риски, должны быть предметом планирования и усилий по предотвращению соизмеримо с ожидаемым от них влиянием.

22.  Рекурсивное самоулучшение.  Системы ИИ спроектированные для рекурсивного самоулучшения или самовоспроизведения так, что это может привести к быстрому росту качества или количества, должны быть предметом строгих мер безопасности и контроля.

23.  Общее благо.  Сильный искусственный интеллект должен разрабатываться только во имя служения широко разделяемым этическим идеалам и во благо всего человечества, а не одного государства или организации.

Комментарии: