Максим Федоров — РБК: «Перекладывание функций на ИИ — опасный тренд»

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Фото: из личного архива

Профессор Сколтеха Максим Федоров рассказал РБК Тренды, к чему может привести неконтролируемое использование искусственного интеллекта и почему повторение сюжета фильма «Она» про любовь к машине вполне реально

Об эксперте: Максим Федоров, вице-президент Сколтеха в области искусственного интеллекта и математического моделирования, профессор, член экспертной группы ЮНЕСКО по выработке рекомендаций этических принципов разработки и использования искусственного интеллекта.

— Давайте начнем с определения, что такое искусственный интеллект (ИИ). Некоторые специалисты считают, что ИИ — это маркетинговый ход: сейчас компьютеры не умеют мыслить и не обладают интеллектом. Какова ваша точка зрения на этот счет?

— Существует более ста определений ИИ. Для меня искусственный интеллект — это система из нескольких компонентов, анализ, сбор и обработка данных, принятие решений на их основе и выполнение таких решений. Подобные системы могут называться искусственным интеллектом.

Изначально термин произошел от английского слова intelligence, в котором заключены два смысла. Первый смысл — это сбор и обработка данных. Второй — непосредственно интеллект. В 1950-х годах термин был введен именно в значении «искусственная система сбора и обработки данных». Не подразумевалось ничего, связанного с сознанием или когнитивными функциями человека.

Сейчас с этим термином связана неопределенность, журналисты поддали жару. В техническом сообществе принято разделять искусственный интеллект на сильный и слабый.

Сильный ИИ — это системы, которые могут воспроизводить и превышать весь спектр когнитивных способностей человека.

Слабый ИИ — это простые алгоритмы, с которыми мы сталкиваемся ежедневно: голосовые помощники, распознавание лиц, шахматные программы и т.д. В основном весь хайп, который мы сейчас наблюдаем, связан со слабым ИИ. Сильного искусственного интеллекта пока нет, и вряд ли он появится в обозримом будущем.

Однако и слабый искусственный интеллект может представлять некоторые угрозы.

— О каких угрозах вы говорите?

— Важно понимать, что технология ИИ — это субъект, железка, как, например, калькулятор или молоток. И опасность может представлять по мере того, как ей пользоваться. Не следует считать, что они обладают какой-то сущностью объекта. Почему люди сознательно и бессознательно наделяют систему ИИ какими-то личностными качествами? Потому что это особенность человека: нам свойственно антропоморфизировать все вокруг. Мы даем имена животным, машинам. Но антропоморфизация систем искусственного интеллекта не оправдана. Мы не приравниваем кукол к людям, хотя внешне они очень похожи.

— Но, с другой стороны, если вы входите в группу ЮНЕСКО для разработки глобальных рекомендаций по этике искусственного интеллекта, значит, вы признаете, что все-таки есть сложность в интерпретации ИИ, сложность в коммуникации с ним?

— Вы сейчас затронули очень интересную тему. В рамках этой рабочей группы мы много обсуждали, что ее название выбрано не совсем корректно. Потому что этики ИИ как таковой быть не может. Этика — это человеческая характеристика. Скорее, мы говорим про этику использования ИИ.

— То есть, как люди должны правильно использовать искусственный интеллект?

Да, абсолютно верно. Понимаете, молотком можно гвоздь забить, а можно нанести физический вред человеку. От этого у молотка этики не наблюдается. Этика должна быть у того, кто его использует. То же самое с искусственным интеллектом.

Более того, в рамках дискуссии мы старались исключить все возможные упоминания о субъектности искусственного интеллекта. От ряда стран было много предложений о придании искусственному интеллекту статуса квази-члена общества. Я считаю, что это очень вредное направление. Оно может привести к технорасизму, так как за каждой вещью стоит ее создатель или обладатель. То есть если я молотком нанесу вред кому-то (стукну, например), будет однозначно понятно, что виноват — я. Но если придать молотку субъектность, то начинается простор для размышлений: может, молоток сам ударил — давайте накажем молоток, разберем его и так далее. А я, вроде как, и не виноват уже, хотя стукнул-то я. То же самое в плане сложных систем.

Пока в правовом поле более или менее понятно, как поступать в случае нанесения вреда. Но это нравится не всем: есть группы заинтересованных лиц, которым хочется получать выгоду, но не хочется получать негативные рекламации. Поэтому они пытаются сделать хитрый ход — дать искусственному интеллекту права и законно его поощрять или наказывать.

Техническим специалистам это кажется бредом, но идея активно продвигается на международных площадках. Зачем? Потому что производитель получает прибыль от продажи устройства, обладатель может получать прибыль от использования, а если устройство наносит какой-то вред, то человек не виноват. История очень непростая и, я бы сказал, политизированная. В ней крутится много денег.

— Вы упомянули сильный ИИ. Что он собой будет представлять?

— На самом деле сейчас непонятно, что это такое. Можно идти разными системными подходами.

Если считать, что сильный искусственный интеллект — это машина, обладающая сознанием и чувствами на уровне человека, то возникает вопрос: а что такое человек? Что такое сознание? Что такое эмоции? Однозначного ответа до сих пор нет. Лично я сомневаюсь, что сильный ИИ вообще можно создать. Если мы не понимаем, кто мы такие, как мы его создадим?

С другой стороны, есть и другая концепция — о нечеловекоподобном ИИ. Действительно, кто сказал, что сознание должно быть обязательно антропоморфно? Мы можем придумать много новых форм сознания, отличных от существующих или даже мощнее. Однако возникает вопрос меры измерения. И есть ли вообще линейка для измерения существенных человеческих качеств? В рамках рабочей группы мы стараемся четко разделять людей и технологию, которая должна быть сделана во благо человека. И если развитие последней ущемляет права человека, значит, развитие такой технологии надо прекратить. Например, так было с клонированием человека — из-за спорных этических моментов в результате долгого обсуждения было решено его запретить.

— Какие этические моменты в составе рабочей группы вы обсуждаете? Пытаетесь ли вы, например, отрегулировать постепенное вытеснение искусственным интеллектом людей с их рабочих мест?

— Да, этому вопросу уделяется большое внимание. Даже, скорее, вопросу сохранения рабочих мест и вопросу цифрового неравенства. Цифровое неравенство — это неравный доступ к технологиям на уровне отдельных лиц, компаний или государств. Это особенно четко видно на платформе ЮНЕСКО, потому что там присутствуют представители различных государств, в том числе Северной Африки и Ближнего Востока. Их взгляды на проблему отличаются от взглядов представителей технологически развитых государств, к числу которых я отношу Россию. Они говорят: какой вообще может быть вопрос, связанный с ИИ, когда у нас во многих местах интернета нет, учебников в школах не хватает? Проблема неравного доступа к технологиям касается не только искусственного интеллекта. Подобные вопросы можно поднять и в технологиях аграрной области. Известно, что во многих странах сельскохозяйственные корпорации вытеснили локальных производителей, что привело к большому количеству экологических, социальных и других проблем.

— То есть технологии неизбежно приводят к цифровому неравенству?

— Каждый рывок технологического прогресса приводил к изменению ландшафта, рабочих мест, экономики и так далее. Но надо понимать отличие ИИ от ряда других технологий.

Первое — это его распределенность. Многие сравнивают риски искусственного интеллекта с рисками атомного оружия. Где-то я, может быть, и соглашусь: действительно, угрозы могут быть сопоставимы по эффектам на экономику, на людей.

Но есть одно глобальное отличие. Атомное оружие локализовано, а ИИ делокализован по определению. Это целый стек технологий, комбинация из наборов программных продуктов и железа, который распределен по всему миру через интернет. Поэтому искусственный интеллект может практически мгновенно распространять решения по всей планете. И человек может просто не отреагировать. Скорости, на которых работают технологии искусственного интеллекта, существенно выше скоростей человеческого мозга. Человек просто не в состоянии контролировать ряд процессов, которые искусственный интеллект выполняет за малые доли секунды. Но насколько мы готовы к тому, что все больше и больше функций будет передано ИИ, насколько это безопасно? Это достаточно опасный тренд. Наконец, ИИ — это денационализация. В случае с ИИ сложно понять его принадлежность, какие интересы преследует технология.

— Настанет ли когда-нибудь время, когда сохранение человеческого контроля над системами, над алгоритмами станет проблематичным?

— Нужно рассуждать под другим углом. Сегодня нет ни одной надежной системы без изъянов. Многие алгоритмы взламываются простыми школьниками. Мы в дырявом решете пытаемся воду носить, но вода — это человеческая жизнь. Очень много рисков именно технического характера. И на волне интереса мы многие функции хотим переложить на искусственный интеллект — от лени и потому что сейчас мы будто бы получаем прибыль. Но это ведет к колоссальным убыткам, о которых просто не говорят. Как один из примеров — что вы знаете о хакерских атаках на химическую промышленность?

— Практически ничего.

— Потому что об этом не говорят активно. А на самом деле очень много химических производств по миру было взломано в течение последних лет. Преступники вымогали деньги и получали их. Потому что одно дело, когда хакнули систему банка — это неприятно, плохо, но все-таки до взрыва дело не дойдет. А другое дело, когда хакнули химический реактор, в котором происходит реакция с серной кислотой с выделением тепла и ядовитых газов. Существует множество проблем, связанных с переавтоматизацией производств.

— Но ведь есть статистика, доказывающая, что автоматизация снижает количество аварий, связанных с человеческим фактором.

— Знаете, почему я большой противник широкого внедрения автономного транспорта на улицах? Мне, как и всем, объясняют, что люди плохо водят, и беспилотники снизят количество аварий. Я обычно отвечаю так: отдельный водитель, если он сошел с ума или потерял сознание, может локально причинить много неприятностей. А если, например, в Москве хакнули миллион машин? Это уже глобальная катастрофа. Думая про автономный автомобиль, многие представляют автономную легковую машину. А теперь представьте, что это взломанный бензовоз. Совершенно необоснованная передача рисков.

— Как вы предлагаете это регулировать?

У меня есть позиция. В рамках рабочей группы нам нужно сфокусироваться на этике приложений. То есть человекоцентричность должна быть везде прописана сквозным пунктом. Мы, собственно, возвращаемся к трем правилам робототехники Айзека Азимова, о которых сейчас стали забывать. На самом деле он хорошо все сформулировал.

Три закона роботехники по Айзеку Азимову

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Есть и другой момент. У большей части планеты нет доступа к технологиям и разработке. В России, например, есть «Яндекс». А во многих странах, даже развитых — в Германии, например — нет своего хорошего поисковика. Они сидят на американских технологиях. То есть у многих стран нет альтернативы: им что дадут, то они и будут использовать. Но насколько этична монополизация рынка? А монополизация данных? Например, Facebook собирает данные, которыми не делится. И вообще есть масса вопросов, связанных с цифровым следом человека. Например, человек умирает, кому принадлежат его цифровые активы? Аккаунт в Facebook? Насколько этично, например, продолжать использовать этот аккаунт? Есть очень много новых этических проблем, связанных с цифровыми технологиями.

— А случаются ли в жизни случаи, похожие на сюжеты фильмов, где герои начинают что-то чувствовать к роботу?

Есть масса этических проблем, связанных с эмпатией, которую вызывают новые системы социальных роботов — это роботы, которые разработаны специально для ухода за престарелыми, больными. Насколько они должны быть близки к человеку по характеристикам и вызывать эмпатию? Или, наоборот, они должны быть специально сделаны нечеловекоподобными, чтобы не вызывать симпатию? Знаете, для многих людей это личностная трагедия. В моей практике был такой случай. Человек общался с искусственным интеллектом в диалоговой системе, они «подружились». Но роботы не умеют дружить, они просто отвечают на запросы. А потом пришел хозяин и забрал робота, закрыл аккаунт. А у человека словно друг исчез. Кстати, уже есть случаи вымогательства денег за продолжение пользования машиной.

— Это как тамагочи в начале нулевых. Были случаи, когда тамагочи умирал, и дети тоже с собой что-то делали, потому что они расстраивались, так как были к нему привязаны.

— Да, абсолютно верно. Правда, липкость новых технологий — есть такое профессиональное понятие «липкие технологии» — на порядок выше, чем у тамагочи. Потому что там и голос, и интонации — полная иллюзия. Понимаете, в чем проблема? Все — иллюзия, у технологий нет сознания, они не умеют страдать и любить, но могут вызывать какие-то эмоции у людей. И владельцы технологий могут манипулировать людьми. На этом должны быть сфокусированы разговоры об этике искусственного интеллекта. Технологии не должны быть липкими. Они должны четко демонстрировать, что вы разговариваете не с человеком.

— Юваль Ной Харари в своей книге «21 урок для XXI века» говорит, что технологии могут послужить толчком для возникновения новых диктатур. Вы с этим согласны?

Да, с этого я и начал, когда говорил про технорасизм. Вообще по ряду вопросов Харари лукавит, но, тем не менее, у него есть достойные идеи. Он действительно интересный философ. Насчет цифровой элиты он прав. Если мы посмотрим, куда сейчас вкладывают деньги владельцы Microsoft, Amazon и Facebook, то там все понятно: в лечение болезни Альцгеймера, продление жизни и т.д. Конечно, интересно, как будет развиваться общество, когда оно расслоится. Оно и сейчас частично расслоенное. Если мы начнем заниматься биохакингом, действительно, получится, что одни люди станут умнее, быстрее и проживут дольше других. Но пока что мы один человеческий вид, а то, о чем говорит Харари — это некое разделение на сверхрасы и «остальных». Примером вполне может стать технорасизм. Как с этим быть? Я считаю, что нужно в комплексе решать вопросы доступа к технологиям. Может быть, уже через них решить ряд других вопросов, связанных с социальным неравенством, доступам к благам и прочее.

— Есть ли предел в развитии искусственного интеллекта?

— Развитие искусственного интеллекта ограничено из-за большого количества электроэнергии, которое потребляют эти системы. Некоторые надежды возлагаются на квантовые технологии, но, если мы говорим про полупроводники, то на плато развития мы уже почти пришли. И дальше энергии для развития уже не хватит. То есть мы очень близки к пределу. Я бы сказал, что скоро мы увидим замедление развития технологий в текущей парадигме, но это не значит, что нет рисков. Атомная бомба изобретена более 70 лет назад, а это не сделало ее менее опасной. Так и здесь. Есть разные прогнозы касательно развития ИИ, но я думаю, что активно развиваться будет что-то другое.

— Например?

— Биотехнологии и медицина. Пока все занимаются искусственным интеллектом, упустили коронавирус.

— То есть в науку нужно вкладываться?

Да, в науку. Причем не уповать только на искусственный интеллект. До сих пор простейшая белковая структура, коронавирус, кошмарит все человечество. И это только один пример. Нам надо изучать мир вокруг себя: в нем много загадок, которые искусственный интеллект не в состоянии разрешить. Поэтому биология, физика, астрономия, социальные науки — это все нужно исследовать, а ИИ, как инструмент, может в этом помочь.


Источник: trends.rbc.ru

Комментарии: