Этика нового разума: как поладить с искусственным интеллектом

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Искусственный интеллект становится реальностью. Мобильные приложения научились распознавать речь, социальные сети — друзей на фотографиях, автомобили все лучше и лучше ездят без водителей, а системы безопасности учатся без помощи человека автоматически определять подозрительные события. И вот недавно несколько технологических компаний — Google, Amazon, IBM, Facebook и Microsoft — объявили о партнерстве для обсуждения этических вопросов развития искусственного интеллекта и формирования стандартов этой быстрорастущей отрасли. Хотя в этом объединении пока нет многих ключевых игроков как из США, так и из других стран, это очень полезная инициатива для всего общества, ведь в ближайшие годы из-за стремительного развития машинного интеллекта нам предстоит столкнуться со множеством сложных этических вопросов.

Цели существования искусственного интеллекта — помощь человеку в автоматизации рабочих процессов и повышение эффективности самых разных аспектов жизни общества, от транспорта до здравоохранения. Благодаря его развитию нас уже очень скоро ждут значительные перемены во многих сферах — об этом, в частности, говорится в докладе Стэнфорда. Как жить с этим явлением, нужно ли ограничивать его развитие и использование? И как всегда происходит со всем новым, развитие машинного интеллекта сопровождается не только восторгами, но и ростом недоверия. Тем более что поводов хватает, хотя чаще это именно поводы, а не реальные причины. Публичное обсуждение как раз и должно уменьшить опасения.

Попробуем разобрать некоторые этические проблемы, для которых нам всем — и технологическим компаниям, и пользователям — придется искать решения.

Вопросы приватности

И для обучения машинного интеллекта, и для его применения нужно собирать самые разные данные. Например, информацию о том, как и куда мы ездили, что покупали, чем болели и как лечились. Но нам неприятно, когда за нами кто-то следит, даже если это полностью автоматизированная система. Данные и сейчас собираются в больших объемах, но в подавляющем большинстве случаев они используются в агрегированном виде. Чтобы проанализировать информацию о конкретном человеке, например, проследить за его перемещениями по записям с камер, нужно потратить массу ресурсов. Технологии искусственного интеллекта существенно упростят эту задачу, что может привести к злоупотреблениям, например, при несанкционированном доступе к информации. Значит, возникнут новые, более жесткие требования к сбору и хранению данных, а также к доступу к ним. Возможно, будут регулировать, что допустимо извлекать из пользовательских данных, а что нет.

Показательный пример — поиск информации в сети о конкретном человеке по его фотографии. Парадокс в том, что все хотят иметь возможность найти кого угодно, но не хотят, чтобы кто угодно мог найти их. Вспоминается запуск проекта FindFace, который вызвал реакцию от восхищения до неприятия. Конечно, можно предоставить самому пользователю определять, что оставлять в публичном доступе, а что «убирать под замок». Но подавляющее большинство пользуется настройками по умолчанию и ничего не меняет. Поэтому есть смысл выработать общие принципы того, что должно быть открыто по умолчанию, а что нет.

Вопросы ответственности

У человечества сформировались общепринятые понятия об ответственности. Хотя спорные моменты возникают довольно часто, в любом происшествии мы более или менее одинаково определяем виновного. Но что если беспилотный автомобиль собьет пешехода? Кто будет отвечать за эту трагедию? Мы не можем возложить ответственность на пассажира, потому что он просто сидел в автомобиле, которым управлял искусственный интеллект. Но также сложно возложить всю ответственность на целую систему технологий, поскольку тысячи других автомобилей того же производителя не попадали ни в какие инциденты. И даже если беспилотные автомобили будут в разы безопаснее тех, что управляются человеком (а так, скорее всего, и произойдет), общество все равно еще долго будет относиться к ним с особым недоверием. Свежий пример — недавний запуск беспилотных автомобилей Uber в Питтсбурге, которые уже начали нарушать ПДД; и хотя все эти нарушения не привели ни к каким катастрофам, критики с готовностью накинулись на этот повод.

Кроме того, существует много профессий, где цена ошибки очень высока. Чем выше квалификация специалиста, тем меньше процент ошибок, но полностью их исключить невозможно. Для минимизации сбоев существуют инструкции, и за неверное решение человека часто не наказывают, если он их соблюдал. С искусственным интеллектом нужно что-то похожее: у него, как и у человека, должно быть право на ошибку, но нужны и безоговорочные правила. Их и предстоит создавать.

Вопросы работы

Уже не раз в истории развитие технологий снижало потребность в рабочих руках — исчезали целые профессии. Каждый раз обществу удавалось с этим справиться, и в конечном счете всем становилось понятно, что в технологиях больше пользы, чем вреда. Изобретение трактора или электровоза тоже лишило кого-то привычной работы, но сегодня никто не предложит создавать рабочие места, отказавшись от тракторов в пользу мотыг. Более того, искусственный интеллект не сразу займет место человека на каких-то работах, а во многих ситуациях и вовсе заменит собой не столько профессии, сколько рутинные задачи. Например, охраннику не нужно будет самому просматривать видеозаписи, чтобы обнаружить проникновение постороннего за охраняемый периметр: машина сама определит момент появления в записи объектов, которых не должно быть в кадре, и сделает «нарезку» из архивного видеоматериала.

Впрочем, переходные периоды часто отмечены волнениями социальных групп, которых задели перемены. Можно было ожидать, что против беспилотных машин выступят таксисты. Поэтому правительствам все нужнее экспертное мнение о том, какие технологии повлияют на рынок труда. Это, в свою очередь, может помочь им своевременно предпринять меры для поддержки социальных групп, которые несут потери из-за развития технологий.

Навстречу новым нормам

Этика и мораль — это сложившиеся нормы общества. Они не статичны и меняются с его развитием. Новые технологии и, в особенности, искусственный интеллект потребуют довольно резкого изменения этих норм. Какого именно — мы пока не можем сказать, потому что новые вопросы будут возникать постоянно по мере развития этих технологий. И чем более открытым будет этот процесс, чем активнее в него будут включаться специалисты отрасли, тем меньше будет ошибок, потрясений и недоверия на пути интеграции искусственного интеллекта в нашу жизнь.

Точка зрения авторов, статьи которых публикуются в разделе «Мнения», может не совпадать с мнением редакции. 


Источник: www.rbc.ru

Комментарии: