Как искусственный интеллект влияет на судьбы людей |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2019-12-29 11:00 Искусственный интеллект помогает судьям, полицейским и врачам, но чем он руководствуется при принятии решений? Мы уже писали о том, какие серьезные ошибки может совершать искусственный интеллект в том виде, в котором он существует сейчас. И тем не менее, люди доверяют машине в очень важных вопросах. Уже сегодня самообучающиеся системы помогают принимать решения судьям и врачам и даже предсказывают еще не совершенные преступления. При этом пользователи таких систем далеко не всегда знают, на основе чего те делают свои выводы. «Встать, суд загружается!» В США искусственный интеллект помогает суду выносить приговоры, избирать меры пресечения и принимать решения о смягчении наказания. Если машина, изучив данные о подозреваемом, сочтет его склонным к рецидиву, ему могут дать реальный срок вместо условного или отказать в освобождении под залог. Так, американца Эрика Лумиса (Eric Loomis) приговорили к шестилетнему заключению за управление автомобилем, пассажир которого обстрелял на ходу здание. Причиной тому — выводы системы COMPAS, оценивающей опасность человека для общества. Машина изучила историю взаимоотношений подсудимого с законом и его анкету — и признала Лумиса опасным. Защита пыталась оспорить это решение: принцип работы COMPAS не разглашается, а значит, нельзя говорить о справедливости выводов системы. Однако суд счел этот аргумент несущественным. Электронные ясновидящие: ИИ предсказывает преступления В некоторых регионах Китая пошли еще дальше — там находят при помощи искусственного интеллекта потенциальных преступников еще до того, как они нарушат закон. Камеры с системой распознавания лиц наблюдают за гражданами и сообщают правоохранительным органам, если в объектив попало что-то подозрительное. Например, если кто-то купил слишком много удобрений за раз — ведь их могут использовать для подготовки теракта. Человека, уличенного в сомнительном поведении, полиция имеет право арестовать или направить на принудительное перевоспитание. Пытаются предсказывать преступления и в других странах. В некоторых регионах США и Великобритании полицейские используют компьютерную систему, которая определяет, где в ближайшее время может произойти инцидент. Она учитывает множество факторов: криминальную историю района, его социально-экономический статус и даже прогноз погоды. Удивительно, но с появлением «оракула» в тех районах Чикаго, где он работал, количество инцидентов со стрельбой уменьшилось примерно на треть. Считайте на здоровье! Новые технологии широко применяют и в медицине. Искусственные доктора консультируют пациентов, ставят диагнозы, анализируют результаты обследований и ассистируют хирургам при проведении операций. Одна из самых известных самообучающихся систем в здравоохранении — IBM Watson Health. Врачи натаскивают искусственный интеллект диагностировать заболевания и назначать подходящую терапию. О Watson Health сказано много хорошего: так, в 2013 году вероятность того, что суперкомпьютер назначит пациенту оптимальное лечение, оценивали в 90%. Однако летом 2018 года выяснилось, что система выдавала ошибочные рекомендации по борьбе с раком. В частности, онкобольному с обильным кровотечением Watson рекомендовал лекарство, которое могло привести к еще большей потере крови. К счастью, речь шла о тестовых материалах, а не о реальных пациентах. Конечно, ошибки допускают и живые доктора, но с привлечением ИИ зона ответственности за принятые решения размывается. Рискнет ли врач ослушаться железного коллегу, который, по уверениям создателей, «изучил» сотни тысяч научных статей, книг и историй болезни? И если не рискнет — признает ли ошибку своей? ИИ должен быть прозрачным Одна из главных проблем с искусственным интеллектом, решающим судьбы людей, в том, что зачастую механизмы его работы непрозрачны, и в случае ошибки невозможно определить, что к ней привело и как избежать ее повторения в будущем. Разработчиков самообучающихся систем можно понять: кто захочет делиться своими ноу-хау с потенциальными конкурентами? Но стоит ли ставить коммерческую тайну во главу угла, если речь идет о жизни и судьбе людей? Политики в разных странах пытаются урегулировать проблему непрозрачности принципов работы ИИ. В Европе, если решение автоматизированной системы затрагивает ваши интересы, вы имеете право узнать, на основе чего она сделала свои выводы. В Японии тоже собираются пойти этим путем, правда, соответствующий закон пока только рассматривается. Встречаются сторонники прозрачности и среди разработчиков, хотя таких пока единицы. Например, компания CivicScape в 2017 году открыла исходный код своей системы предсказания преступлений. Однако это скорее исключение, чем правило. Ожидать, что человечество откажется от помощи машин, не стоит. А до тех пор, пока нет уверенности, что искусственный интеллект принимает решения справедливо и точно, остается надеяться на законы и компетентность людей, создающих и использующих умные системы. Источник: www.kaspersky.ru Комментарии: |
|