Пять заблуждений относительно искусственного интеллекта |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2017-04-17 09:54 Одним из главных аргументов израильского историка Юваль Ной Харари в книге «Sapiens. Краткая история человечества» было то, что люди отличаются от других видов, потому что они могут гибко взаимодействовать в больших масштабах, количественно и духом, не только ради реальных причин, но и ради коллективного воображения. Примерами такого коллективного воображения можно назвать богов, нации, деньги и права человека, которые поддерживаются религиями, политическими структурами, торговыми сетями и законодательными институтами соответственно. Если вы предприниматель, вы должны особо ценить и благодарить силу коллективного воображения. Создание технологической компании является чрезвычайно непростым процессом. Здесь вы столкнётесь с неудачными сделками, хрупким эго, ошибками в коде, сорванными сроками, авралами при выполнении запросов клиентов и депрессией в процессе работы. Всё это способно погасить первоначальное возбуждение от создания нового предприятия. Миссия является ещё одним вымыслом, необходимым для того, чтобы команда была объединённой и целеустремлённой, когда она сталкивается с описанными выше проблемами. Сильная группа харизматичных лидеров играет ключевую роль в создании и поддержании миссии компании, но сами компании работают не в вакууме. Они играют по правилам рынка и принимают участие в больших коллективных вымыслах того времени, в котором они существуют. Эти границы размыты и видоизменяются; руководство может использовать эту неопределенность для подпитки духа компании и показать, что она находится на правильном пути, что они сражаются за нужные вещи в нужное время. В наши дни весьма престижно и вдохновляюще работать на компании, которые занимаются созданием программных продуктов с искусственным интеллектом (ИИ). ИИ является сокращенным обозначением продуктов, которые используют данные для предоставления сервисов или аналитической информации пользователям. ИИ — это то, что компьютеры не умеют делать, до тех пор пока не научатся. Вокруг ИИ не было бы такого ажиотажа, если бы этот предмет был таким же скучным, как создание продуктов с применением статистических данных. Публику привлекает коллективный вымысел, который мы создаем вокруг ИИ, вокруг того, что искусственный интеллект может и должен означать для общества. Всё это становится более захватывающим, когда мы представляем ИИ как компьютеры, способные делать вещи, которые всегда делали только сами люди. Компьютеры начинают говорить, писать и даже создавать предметы искусства, как это делают люди, нам больше не нужно применять искусственные неживые фразы, когда мы говорим с Google или Excel. Проблема заключается в том, что определённая часть наших коллективных фантазий относительно ИИ, хотя и вызывает интерес, способна отвлечь от решения реальных проблем. Эти проблемы могли бы быть решены при помощи ИИ, но на самом деле они могут усугубиться, если не соблюдать осторожность. В этой статье будут описаны пять заблуждений, которые фигурируют в современном обществе относительно искусственного интеллекта. Заблуждение 1: безработица Когда раздаются речи о том, что искусственный интеллект придёт на смену известной нам рабочей силе, можно вспомнить фильм 1957 года «Кабинетный гарнитур» с Кэтрин Хепберн. Здесь описывается группа библиотекарей в телекомпании, которые опасаются за свои рабочие места, когда к ним приходит инженер и устанавливает EMERAC (названный в честь IBM ENIAC). Это электронный мозг, который обещает лучше справляться с вопросами зрителей. Фильм обаятельный и в тоже время предсказуемый, он покажется весьма знакомым каждому, кто читал статьи о мире без работы. Лучшая сцена этого фильма показывает виртуозный подвиг ассоциативной памяти, который ярко раскрывает персонаж Кэтрин Хепберн. Эту яркость примитивный электронный мозг не способен повторить. Фильм заканчивается тем, что машина случайно печатает приказы об увольнении всех сотрудников компании, которые сорвали её деятельность. Этот фильм способен послужить нам уроком. В 1950-е годы в обществе был подъём энтузиазма относительно искусственного интеллекта. В 1952 году Клод Шеннон из компании Bell Labs представил искусственную мышь Thezeus, способную справиться с лабиринтом. В 1957 году Франк Розенблатт создал Mark I Perceptron, предшественника современных нейронных сетей. В 1958 г. Х.П. Лун написал потрясающую статью о бизнес-аналитике, в которой предлагается система управления информацией, которую мы до сих пор пытаемся реализовать. Артур Сэмюэль придумал термин «машинное обучение» после выпуска своей программы по игре в шашки в 1959 году. У Тома Митчелла есть современный манифест о том, что такое машинное обучение и что оно значит. Мир был взволнован. Общество должно было быть полностью преобразовано. Работать больше не придётся или, по крайней мере, работа кардинально изменится и будет представлять собой сотрудничество с интеллектуальными машинами. Этого не случилось. Наступила зима искусственного интеллекта. Глубокое обучение высмеяли как бесполезное. Технологии работы и жизни продолжали меняться, но не так, как думали в 1950-х годов предвестники ИИ. Было создано много новых рабочих мест. Никто в 1950 году не представлял себе область залива Сан-Франциско, полную кремниевых транзисторов и инженеров-подростков, которые зарабатывают миллионы на мобильных приложениях. Никто не представлял себе Марка Цукерберга и Питера Тиля. Мы должны задавать разные вопросы, обращаться к разным людям и решать проблемы, чтобы ИИ мог работать на предприятии. Ознакомившись с возможностями более чем ста крупных предприятий за последние два года, можно сказать, что предстоит пройти долгий путь, прежде чем умные машины заменят людей. Продукты ИИ, основанные на данных и статистике, дают вероятностные результаты, точность и производительность которых улучшается с увеличением количества данных с течением времени. Как сказал когнитивист Амос Тверски, «человек — это детерминированное устройство, заброшенное в вероятностную вселенную». Люди ошибочно принимают взаимосвязь за причину. Они предпочитают определённые, чёткие инструкции неопределенным и доверительным отношениям. Маура Гроссман и Гордон Кормак потратили годы на то, чтобы показать, что люди не такие совершенные, как им кажется, особенно когда речь идёт о больших объёмах электронной информации, с которыми мы сталкиваемся сегодня. Отделы оценки риска в юридических фирмам, как говорит генеральный директор Intapp Джон Холл, испытывают затруднения с кропотливым анализом по выявлению конфликтов или потенциальных улик. Здесь нужно пользоваться преимуществами ИИ. Мораль этой истории такова, что прежде чем писать об отсутствии в будущем работы, мы должны начать думать о том, как обновить наши умственные привычки, чтобы соответствовать требованиям вероятностей и статистики. Для этого нужно обучение, чтобы высшее руководство принимало решения о терпимости к рискам в отношении неопределённости. Это требует от руководства принятия решений о том, где необходима прозрачность (ситуации, когда нам нужно знать, почему алгоритм дал ответ, который он дал, как в потребительских кредитах), и где важнее точность и скорость (как в беспилотных автомобилях, где важно принять правильное решение для спасения жизней и не столь важно знать причины этих решений). Для этого требуется выяснять, где вставить человека в цикл загрузки данных для будущей автоматизации. Это требует большой работы и создаёт новые рабочие места в области консалтинга и управления продуктами, чтобы обслуживать новое рабочее место ИИ. Заблуждение 2: разговорные интерфейсы Все умеют говорить, но лишь немногим есть что сказать, действительно содержательное и интересное. То же самое справедливо для чатботов — программных систем, чья внешняя часть предназначена для взаимодействия с конечным пользователем, как если бы это был другой человек в разговоре. Разговорный ИИ чрезвычайно популярен в процессах обслуживания клиентов (это новое поколение меню для авиакомпаний, страховых компаний, банковских или коммунальных компаний) или даже бронирования посещений парикмахерской или йога-студии. Принципы в основе разговорного ИИ весьма ценные: они делают технологию более дружелюбной, позволяют технофобам пользоваться преимуществами интернет-услуг, выкрикивая запросы к Amazon Alexa, обещают огромную эффективность для предприятий, которые обслуживают крупные потребительские базы, автоматизируя и улучшая обслуживание клиентов (что, несмотря на пункт 1, может значительно повлиять на сервисные службы и сократить занятость людей в них). Проблема в том, что люди так увлечены созданием умного бота, что забывают, что возможность говорить не означает, что у вас есть что сказать полезного или разумного. Многие стартапы дают напыщенные обещания создать разговорный ИИ, но при этом пренебрегают менее интересной, но значительно более важной работой по созданию интеллекта, обеспечивающего этот разговорный и удобный интерфейс. Эта работа включает сбор, очистку, обработку и хранение данных, которые могут быть использованы для обучения бота. Анализ и понимание вопросов, на которые вы хотите получить ответ от бота. Создание алгоритмов рекомендаций для сервиса обслуживания клиента. Обеспечение конфиденциальности. Построение рабочего процесса для включения в него человека в случае путаницы и т.д. Более общий момент в этом примере заключается в том, что ИИ не является магией. Эти системы находятся на ранней стадии разработки и внедрения, существует очень мало готовых продуктов. На ранней стадии разработчики экспериментируют, находя индивидуальные решения для конкретных наборов данных, ограничивая область применения, поэтому можно создать что-то полезное, что может оказаться не столь захватывающим, как рисует воображение. Можно назвать Карты Google как образцовый продукт работы с данными. Пользовательская часть тщательно разработана и предоставляет полезный и простой сервис, скрывая за собой огромную сложность и напряженную работу, которая приводит приложение в действие. В общем, разговор и язык не всегда являются лучшим способом предоставления информации. Лучшие приложения ИИ исходят от проектировщиков, которые объединяют текст, речь, изображения и навигацию с помощью клавиш и кнопок. Заблуждение 3: безусловный базовый доход Безусловный базовый доход (безусловный основной доход, БОД): правительственная программа, где каждый гражданин с любым уровнем доходов регулярно получает выплаты. Энди Стерн, автор книги «Повышение уровня», предлагает $1000 в месяц на одного гражданина США — таким он видит мир без работы. БОД интересен тем, что объединяет либертарианцев (будь то технократы Кремниевой долины или гиперконсерваторы, такие как Чарльз Мюррей, который продвигает идеал Джефферсона о соседях, поддерживающих соседей при сохранении автономии и достоинства) с социалистическими прогрессивными лидерами (Энди Стерн в течение многих лет возглавлял Международный союз рабочих) и футуристами, таких как Питер Диамандис. Однако БОД отвлекает наше внимание от гораздо более глубокой экономической проблемы, создаваемой нынешней глобальной технологичной экономикой: неравенством доходов. Это основная причина победы Трампа, Брексита и многих других националистических, регрессивных политических движений, наблюдающихся сегодня по всему миру. Очень важно решить эту проблему. Неравенство доходов — непростой вопрос. Он связан со сложным взаимодействием глобализации, технологий, государственных программ, образования и т.д. В книге «Седьмой чувство» Джошуа Купер Рамо говорит, как сетевая инфраструктура приводит к разделяющим нас последствиям, концентрируя огромную власть в руках немногих (Google, Facebook, Amazon, Uber) и распространяя микро-власть и представления среди многих (миллионов пользователей этих платформ). Николас Блум описывает аналогичные факты в статье о корпорациях в эпоху неравенства. Экономические последствия нашего сетевого мира могут быть ужасными, их нужно проверять мышлением и методами, которых не было в 20-м веке. Возвращение к меркантилизму и протекционизму не станет решением, а может привести только к насилию. Тем не менее, один из аргументов в пользу БОД — возможность восстановить достоинство и предоставить возможности для бедных. Представьте себе, что чтобы поесть, вам нужно стоять в очереди за бесплатным супом и вы можете позволить себе только нездоровую пищу, которая способствует ожирению и диабету. Представьте, сколько времени вы проведёте в государственных учреждениях и как это время можно потратить на изучение новых навыков или идей. Рекомендуется посмотреть фильм 2016 года «Я, Дэниел Блэйк». Это один из тех фильмов, которые способны довести до слёз при одном воспоминании о нём. Здесь добрый, трудолюбивый, честный человек проходит через мясорубку бюрократической системы, лишаясь достоинства, после чего бунтует против неё. Хотя БОД может и не стать ответом на эту проблему, у людей есть моральное обязательство сочувствовать тем, кто может не разделять наши политические взгляды. Люди, которые боятся и хотят лучшей жизни, также имеют что сказать. Заблуждение 4: экзистенциальный риск Просвещение — это выход человека из состояния своего несовершеннолетия, в котором он находится по собственной вине. Несовершеннолетие есть неспособность пользоваться своим рассудком без руководства со стороны кого-то другого. Несовершеннолетие по собственной вине — это такое, причина которого заключается не в недостатке рассудка, а в недостатке решимости и мужества пользоваться им без руководства со стороны кого-то другого. Sapere aude! — имей мужество пользоваться собственным умом! — таков, следовательно, девиз Просвещения. Это первый абзац очерка 1784 года Иммануила Канта «Ответ на вопрос: что такое Просвещение?». Современная дискуссия об ИИ как об экзистенциальной угрозе напоминает Средневековье, когда такие философы, как Фома Аквинский и Уильям Оккам, выдавали аргументы на основе авторитета. «Это правда, потому что однажды Аристотель сказал, что …». Декарт, Лютер, Дидро, Галилео и другие авторитеты эпохи Просвещения считали это ерундой и причиной всякого рода путаницы. Они свергли старую гвардию и поставили во главу власть человека. Каждый из нас рождается с одинаковыми рациональными способностями, умея выдвигать аргументы и приходить к выводам. Такая радикальная автономность проявлялась и исчезала на протяжении всей истории. Просвещение сменилось пульсирующей страстью романтизма, чтобы возродиться с атавистической рациональностью Торо или Эмерсона. Похоже, что нынешние темпы изменений технологий и общества склоняют чашу весов назад к зависимости и руководству. Так сложно успевать за всеми изменениями, что мы отказываемся от суждений в пользу экспертов. Это означает, что если Билл Гейтс, Стивен Хокинг и Илон Маск, великие умы инженерии, науки и предпринимательства, думают, что ИИ — угроза человечеству, то нам, простым смертным, остаётся только соглашаться. Проблема здесь в том, что логика подготовки к самому худшему из всех возможных результатов отвлекает нас от реальных социальных проблем. ИИ уже обостряет проблемы. Однако альтернативный подход к ИИ быстро набирает обороты. Движение «Справедливость, подотчётность и прозрачность в машинном обучении» фокусируется не на идущих под откос негодных машинах (ещё одна старая идея, на этот раз из стихотворения Гёте «Ученик чародея» 1797 года), а на понимание того, как алгоритмы увековечивают и усиливают существующие социальные тенденции и стараются изменить это. Есть интересная литература, посвященная практической этике ИИ. Стажёр Fast Forward Labs только что опубликовал статью об инструменте под названием FairML, который использовал для изучения неявного расового уклона в алгоритмах уголовного наказания. Математик Кэти О’Нил регулярно пишет статьи о злоключениях технологий для Bloomberg (её риторика может отпугнуть технологов и прагматичных модераторов). Гидеон Манн, который пишет о теориях анализа и обработки данных для Bloomberg, работает над «клятвой Гиппократа» для учёных в сегменте обработки данных. Инженер по программному обеспечению Блейз Агуера и Аркас и его команда машинного обучения в Google постоянно изучают и корректируют потенциальную предвзятость в своих алгоритмах. Учёный-аналитик Клэр Кортелл мобилизует практиков в Сан-Франциско для обсуждения и развития этических методов обработки научных данных. Список можно продолжать. Разработка этических алгоритмов будет марафоном, а не спринт Источник: www.continent-opt.ru Комментарии: |
|