Убей в себе SkyNet |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2017-12-15 09:00 Нейросети ворвались в нашу жизнь относительно недавно и наряду с новыми возможностями породили немало новых проблем. В частности, оказалось, что нейросети могут быть мощным оружием в руках злоумышлеников или просто интернет-троллей. С вопросом о том, что с этим делать, как к этому относиться и какие новые этические вопросы это перед нами ставит, мы обратились к культурологу, доценту РАНХиГС и МВШСЭН Оксане Мороз. Однако одновременно функционирование нейросетей рассматривается как целая совокупность угроз: поскольку нейронные сети не программируются, а обучаются, контролировать их «креативные способности» довольно сложно. И, не всегда отчетливо видя, как система проводит приоритизацию задач и принимает решения, люди нередко всерьез опасаются результатов подобного конструктивного отношения машинного разума к человеку и его миру. Пока кибероптимисты дискутируют со скептиками и пессимистами, так ли уж утилитарно полезна и безопасна работа над искусственным интеллектом и нейросетями, стоит задуматься: а насколько этот спор феноменологически нов? Наверняка каждое новое инженерное решение, совершавшееся в процессе цифровой революции, вызывало дискуссии между своего рода луддитами и поборниками технического прогресса. Так почему сегодня появление самосовершенствующихся нейросетей, наследующих кибернетическим моделям мозга, провоцирует жаркие дебаты? И что так пугает и восхищает разработчиков, готовых публично расписываться в собственной некомпетентности и рассказывать чуть ли не о восстании машин? Кажется, этому можно найти несколько объяснений. Во-первых, оглядываясь на активность собственных изобретений, человечество как будто в кривом зеркале видит себя, свою сущность. Мы научаем алгоритмы выполнять простейшие задания, помогать нам в управлении средой и взаимодействии с другими людьми, а на выходе получаем кибернетических расистов, садистов и троллей — и скорее всего именно потому, что машины повторяют за своими создателями. Вроде бы искусственный интеллект должен наследовать «человеческое, слишком человеческое», то есть специфичную для людей систему взглядов и поведенческих паттернов, сценариев разрешения этических дилемм. А она в современном — по-прежнему во многом европоцентричном мире — кажется выстроенной на принципах инклюзивной культуры уважения, борьбы за права и достоинство. Однако нейросети — эти то ли имитации, то ли относительно примитивные слепки человеческого мышления — ведут себя часто весьма негуманно: оказываются склонны к насилию разного рода, не гнушаются издевательствами. Видимо, это значит, что и хваленый человеческий гуманизм — выдумка, тонкая амальгама культурных значений, придуманных человечеством для самоуспокоения. Мало того, что «гуманность» и «этичность» как работающие категории и предпосылки принятия решений не могут быть рационально описаны и представлены нейросети. Они, судя по результатам машинного обучения, еще и статистическая редкость. Во-вторых, нейросети выглядят ожившим пророчеством научной фантастики. Машины, которые могут думать, выносить собственные решения по ряду вопросов, даже «диагностировать» какие-то потенциально опасные для абстрактного мира качества человека — абсолютное воплощение известных фантастических историй. Их сюжеты обычно апокалиптичны, поэтому заканчиваются тотальной войной между несовершенными людьми и железками. Или, кстати, порабощением человечества холодным искусственным интеллектом. Очевидно, что многие из инженерных решений современные дизайнеры и разработчики действительно почерпнули в любимых ими книгах и фильмах в духе киберпанка (а те, в свою очередь, из философии), так что типологическое сходство некоторых современных систем и SkyNet — не такой уж сюрприз. И даже забавно, что sci-fi о цифровых технологиях не превратился в палеофутурологию — морально устаревшие повествования о будущем, безответственно порождаемые ничего о нем не знающим прошлым. А даже наоборот — судя по всему, надолго запрограммировал развитие технологий. В общем, люди любят рассказывать друг другу страшные истории. Просто теперь этот жанр несколько перерос границы художественного повествования, поэтому его можно встретить на серьезных профессиональных конференциях. И угадывать знакомые интонационные нотки в комментариях разработчиков, которые вовсе не хотели создавать нейросети-злодеев, но с ужасом наблюдают, как математическая логика оказывается тождественна жестокости. И нелояльна к отклонениям от системы — в коих во многом и заключается суть человеческого существования. Нейросети пугают и восхищают, потому что люди склонны переоценивать свои достижения и, соответственно, видеть в существующих алгоритмах действительные и действенные аналоги собственного сознания. Конечно, нейросети умеют всякое, но их антропологизация, заявление о том, что они осознанно совершают некие действия деструктивного характера, — большое преувеличение. Гораздо важнее задаться вопросом, а что такое вообще этика, этичность поступка в мире, где все большую субъектность обретают машины, а люди все чаще отстаивают право на свободное от всяческих ограничений и предустановленных культурных норм поведение. Возможно, мы оказались в точке бифуркации, и нам надо сделать выбор — либо в пользу долгих обсуждений этических парадоксов, которое смогут породить гибкую систему социальных компромиссов, либо в пользу торжества строгой математической логики. И на первый взгляд кажется, что современное состояние Буриданова осла мы все-таки сможем сменить на симбиотическую систему взаимно полезного пользования разными системами принятия решений и их оценки. Источник: nplus1.ru Комментарии: |
|