Неопределенность в алгоритмах — способ сделать ИИ более этичным |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2019-01-21 18:30 Алгоритмы должны уметь принимать сложные этические решения. ИИ, который помогает судьям выносить приговоры, должен учитывать риски как для общества, так и для обвиняемого. Автомобили без водителя должны принимать решения в случае неизбежного столкновения с двумя пешеходами, а автономному оружию придется анализировать относительную ценность жизни солдат и мирных жителей. Подобные дилеммы неразрешимы не только для алгоритмов, но и для людей. Этики изучали их десятилетиями и называют их теоремами невозможности. Питер Эккерсли — директор Partnership on AI & EFF — выпустил статью, которая исследует принятие этических решений в контексте искусственного интеллекта. Для того, чтобы нейронная сеть могла работать с несколькими конкурирующими целями, ученый предлагает встроить неопределенность в сами алгоритмы. Для реализации подхода предлагается использовать частичное упорядочение (partial ordering) и неопределенное упорядочение (uncertain ordering). В первом случае алгоритм программируется на принятие однозначных решений только между частью элементов, но не всеми. Например, автономное оружие будет делать выбор в пользу своих солдат перед вражескими и в пользу гражданского населения перед вражескими солдатами. Но выбор между своими солдатами и гражданским населением не программируется. Во втором случае у алгоритма есть несколько списков с абсолютными предпочтениями, но к каждому из них прикреплена вероятность. Например, в 75% случаев алгоритм сделает выбор в пользу своих солдат перед гражданским населением и вражескими солдатами. А в 25% случаев выбор будет сделан в пользу гражданского населения в ущерб своим солдатам и вражеским солдатам. Алгоритм сможет учитывать имеющуюся неопределенность и предоставлять людям несколько решений с соответствующими компромиссами. Например, в медицине, вместо того, чтобы рекомендовать одно лечение вместо другого, он мог бы представить три возможных варианта: один для максимизации продолжительности жизни пациента, другой для минимизации страданий пациента и третий для минимизации затрат. «Пусть система будет явно неуверенной и передаст решение этической проблемы людям» — отмечает автор. «Есть много ситуаций с высокими ставками, когда на самом деле неуместно и даже опасно программировать в одной целевой функции» — говорит Эскерли. Программирование неопределенности поможет избежать этических парадоксов. В тоже время, люди будут получать математически просчитанные варианты действий с учетом большинства значимых факторов, что поможет принятию взвешенных решений. Источник: neurohive.io Комментарии: |
|