Дебаты «Убеди скептика». Создать систему Искусственного Интеллекта, равную человеческому интеллекту, невозможно?

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Дебаты состоялись 1 ноября 2020 г. на форуме «Ученые против мифов-13» (организатор АНТРОПОГЕНЕЗ.РУ).

Стенограмма: Екатерина Соколова.

Александр Соколов: наверное, споры об интеллектуальных возможностях ЭВМ ведутся с момента появления самых первых компьютеров. Я хорошо помню свои ощущения, когда в 1997 году Deep Blue обыграл чемпиона мира по шахматам Гарри Каспарова. Спустя 19 лет, в 2016-м, программа AlphaGo обыграла чемпиона мира по игре в го, а го считалась игрой намного более сложной для моделирования на компьютере, чем шахматы. Совсем недавно команда под руководством одного из сегодняшних участников дебатов научила говорить по-русски программу GPT-3, а эта программа пишет тексты, которые весьма непросто отличить от текстов, написанных человеком. Кстати, вчера GPT-3 сообщила мне, что Академия ВРАЛ будет обсуждать вопрос об установке на Красной площади памятника Альберту Эйнштейну. И всё-таки каждый раз раздаются скептические голоса о том, что это же имитация, и настоящий человеческий интеллект — это другое, и люди всегда способны на то, что никаким компьютерам и не снилось. Так всё-таки возможно ли создать систему искусственного интеллекта, равную по возможностям человеку? Сегодня будут жаркие, я надеюсь, дебаты на эту тему, но сначала опрос. Друзья, давайте проголосуем.

Когда будет создана система ИИ (искусственного интеллекта), равная человеческому интеллекту? Пожалуйста, выберите вариант.

А я представлю наших сегодняшних участников дискуссии.

В левом углу виртуального ринга (дистанционно) Сергей Марков — разработчик систем искусственного интеллекта и машинного обучения, создатель портала "XX2ВЕК", управляющий директор в департаменте SberDevices (Сбербанк).

А в «скептическом» углу нашего виртуального ринга Татьяна Шаврина — лидер команды исследований в области языка и общего искусственного интеллекта Сбербанка, один из авторов Russian SuperGLUE (набора тестов для потенциального сильного ИИ), аспирант Высшей школы экономики.

Александр Соколов: дебаты сейчас начнутся. Зрителей призываю писать вопросы в чат. А я прошу Сергея кратко изложить его позицию. У вас 5 минут, время пошло.

Сергей Марков: добрый вечер, дорогие друзья, участники форума. Сегодня я выступаю в позиции оптимиста — человека, который считает, что науке нет никаких препятствий для того, чтобы рано или поздно создать систему искусственного интеллекта, который сможет сравниться с интеллектом человеческим. Моя позиция основана на том, что не существует никаких фундаментальных запретов, по крайней мере нам неизвестны такие фундаментальные запреты, которые бы помешали нам рано или поздно создать систему искусственного интеллекта, которая сравняется с человеческим интеллектом, или даже превзойдёт его.

В истории науки постоянно существует противоборство между учёными, которые пытаются решить ту или иную научную задачу, и скептиками, которые говорят, что решение этой задачи в принципе невозможно. Несколько сот лет назад вёлся спор о том, можно ли, например, создать органические молекулы из неорганики, или между органическим и неорганическим миром лежит какая-то фундаментальная стена, которая не позволяет решить эту проблему.

В свое время, когда появились первые пассажирские поезда, скептики утверждали, что движение с такой скоростью невозможно, или просто-напросто слишком опасно для человека. Человек, который сидит в вагоне поезда, сойдёт с ума от того, с какой скоростью мимо него будет проноситься окружающий пейзаж.

На заре появления искусственного интеллекта, появления этой области, существовало заблуждение о том, что программисты не могут создавать шахматные программы, которые будут играть в шахматы сильнее них самих. Но мы знаем, что это не так, что сегодня шахматные программы играют гораздо сильнее любого человека, и тем более программиста, который занимается созданием таких программ. Мы видим, что развитие технологий, искусственного интеллекта, машинного обучения в последние годы происходит достаточно стремительными темпами. При этом существует определённый вектор на универсализацию такого рода решений.

Если мы проследим, например, за эволюцией систем, создаваемых OpenAI для игры в го, то первая система, которая играла с Ли Седолем (называлась AlphaGo), училась использовать человеческий опыт и умела играть только в го. Затем появилась система AlphaGo Zero, которая училась играть в го с нуля, без привлечения человеческих знаний об этой игре. Затем появилась программа Alpha Zero, которая умела играть уже не только в го, умела учиться играть сразу в несколько игр: это сёги, шахматы, го. И вот последняя система, созданная исследователями из OpenAI, она называется MuZero и может учиться играть в игры, не зная их правил, постигая их в процессе обучения. Прогресс в обработке естественного языка привёл к появлению таких генеративных моделей, как GPT-2, GPT-3, которые могут решать широкий спектр задач обработки естественного языка, то есть уже не так специализированы, как те модели машинного обучения, которые мы создавали раньше.

То есть в целом наблюдается технологический вектор в сторону от развития прикладных систем искусственного интеллекта, которые уже сегодня превосходят человека в решении отдельных интеллектуальных задач, к созданию универсальных систем искусственного интеллекта, которые не будут уступать человеку ни в чём. Вот моя позиция, если изложить её коротко.

Александр Соколов: спасибо, Сергей. Я полагаю, что Татьяна согласна не со всем из прозвучавшего. Поэтому, Татьяна, теперь у вас 5 минут, чтобы аргументированно возразить.

Татьяна Шаврина: спасибо, коллеги. Я сегодня представляю позицию скептика, и, мне кажется, достаточно органично, потому что наша исследовательская группа разрабатывает методологию оценки интеллектуальных систем. Сравнение интеллектуальных систем, как естественных, так и искусственных — это вполне научная задача. Мы не можем поставить рыбку, кошечку, человека, робота и сказать: «Мы вас будем оценивать в равных честных условиях по тому, как быстро вы залезете на дерево». Это так не работает. Поэтому это задача, которая требует методологической проработки, которой мы занимаемся. В частности, мы, как вредные преподы, которые всех хотят отправить на пересдачу, постоянно тестируем новейшие системы искусственного интеллекта. Смотрим: «Ты списал? Ты зазубрил, но ничего не понял? Всё, встретимся через полгода». Поэтому я бы хотела разделить здесь 2 момента.

Сейчас говорят про сильный и слабый ИИ, понимая под слабым системы, которые уже сейчас достаточно хорошо, действительно так же, а иногда даже лучше, чем человек, решают конкретную задачу. Но при этом наши ожидания относительно того, что такое большой и сильный искусственный интеллект, постоянно растут. Сразу, чтобы не было разногласий в терминологии, я буду сегодня говорить про сильный ИИ, от которого требуется целеполагание, принятие решений в условиях неопределённости, приобретение новых навыков самообучения и т. д. И моя позиция, если кратко, это то, что мы сейчас находимся в той степени нашего развития, когда мы не можем спрогнозировать, сколько времени ещё потребуется, чтобы создать сильный ИИ. Может быть, никогда. В частности, это связано с несколькими тезисами, которые у меня есть. Они из разных областей науки, но они достаточно сильно препятствуют нам в обсуждении гипотетической возможности создания такого искусственного интеллекта.

Во-первых, это то, что наше восприятие интеллекта и задач, которые мы ставим перед ИИ-системами, всё время меняется. Есть даже такое понятие, как «эффект ИИ». Как только какая-то задача начинает решаться машиной, мы перестаём её считать интеллектуальной. Если я выиграю, например, чемпионат по шахматам, то я про себя буду думать: «Вот это я молодец, вот как надо!» Если машина выигрывает чемпионат по шахматам, никто уже сейчас не удивляется, в 2020-м году, все говорят: «Ну это же машина. Абсолютно логично». Поэтому наш уровень ожиданий постоянно растёт и больше того — мы уже хотим не решения отдельных задач, а именно самообучения и приобретения новых навыков.

Такое определение искусственного интеллекта очень популярно и, в частности, многие теоретики его придерживаются. Например, Франсуа Шолле, создатель библиотеки Keras для Deep learning. В общем, это достаточно популярная точка зрения, что сильный искусственный интеллект должен уметь сам приобретать новые навыки. Он должен делать обобщения настолько сильные, что должен уметь самообучаться. И здесь мы уже входим на такую скользкую дорожку, когда мы моделируем отдельные навыки, но никак не моделируем систему, которая должна их оркестрировать.

При этом, если мы посмотрим на существующий рабочий прототип (я имею в виду человеческий мозг), мы знаем, что там огромное количество систем «специального назначения», которые развивались эволюционно, у них есть эволюционная задача, они влияли друг на друга. И у нас есть проблема самосознания, что у нас сознание оркестрирует всеми этими системами. Мы хотим, не делая сознание, получить такой же результат. Возможно, сделать это будет проблематично. Машина у нас никак не выучивает причинно-следственные связи. Она смотрит, что у нас есть корреляция, в том числе ложная — ну вот, мы выучили корреляцию.

Конечно, бионика, как направление, подразумевающее, что мы должны изучать человеческий мозг, чтобы создать искусственный интеллект, не является строго обязательным. Но оно, безусловно, поможет. Потому что сейчас мы как бы хотим построить самолёт, но не понимаем, как работает крыло. Нам не обязательно строить самолет, который будет махать крыльями, но понимать, как это работает, мы должны. Мы ещё знаем слишком мало.

И мой краткий финальный тезис. Даже если мы сможем построить что-то подобное, сможем дойти до той стадии, когда у нас уже есть такие вычислительные мощности и столько накопленных данных, что мы можем всё это смоделировать, смоделировать работу мозга, как нам тогда оцифровать человеческий опыт? Это тоже большая проблема. Оцифровать нашу реальность очень сложно, и сделать это объективно проблематично.

Александр Соколов: спасибо, Татьяна. Сейчас вам предстоит задавать вопросы. Мы переходим к части прений. В течение 15 минут вы можете задавать Сергею вопросы, а Сергей отвечать и адресовать встречные вопросы вам.

Татьяна Шаврина: я начну со своего первого тезиса. Сергей, считаете ли вы, что восприятие интеллекта у нас антропоцентрично? Насколько сильно мы привязаны к человеку, и можем ли мы в принципе создать универсальный ИИ?

Сергей Марков: спасибо за вопрос, Татьяна. Когда мы говорим об интеллекте, проблема заключается в том, что у нас есть один бесспорный пример интеллекта — это интеллект человеческий. И дальше мы на основе одного этого примера пытаемся каким-то образом построить некое определение, которое должно включать или не включать в себя те или иные разновидности интеллекта. И в этом смысле мы сейчас находимся в ситуации, которая напоминает ситуацию, в которой оказывается человек, которому нужно провести прямую по одной точке. Сделать это можно бесконечным количеством способов. Поэтому одна из проблем с определением интеллекта — она ровно такая. В зависимости от того, какое определение интеллекта мы выберем, ответ на наш вопрос может оказаться очень разным.

Конечно, в условиях нехватки альтернатив мы в известной степени вынуждены быть антропоцентричными. Именно поэтому изначально в науке об ИИ представление о том, каким образом мы можем оценить результат и утверждать или не утверждать, что мы наконец-то создали универсальную систему ИИ, сильный ИИ, решалось при помощи некого процедурного способа. Я имею в виду тест Тьюринга. То есть мы будем сравнивать человеческий интеллект, то есть некий бесспорный эталон интеллекта, с некой системой, которая демонстрирует нам нечто похожее на интеллект. И если мы в ходе экспериментов не сможем достоверно различить то, что мы создали, с бесспорным эталоном, то мы будем обязаны признать за этой системой наличие у неё интеллекта.

Эта идея очень старая. Ещё Дидро в своё время говорил, что если он встретит попугая, который в высшей степени разумно будет отвечать на все наши вопросы, то мы будем обязаны признать наличие у него интеллекта. Сходной позиции придерживались философы в 30-е годы: Альфред Айер, затем Алан Тьюринг, который в 30-е годы занимался проблемой эффективной вычислимости, а также пришел к вот такому операционистскому определению интеллекта. И такая процедура позволяет нам избежать философских прений на тему того, что такое интеллект, потому что в них можно потратить много времени и сил. Поэтому, наверное, это один из способов избежать здесь лишних усилий. А так в этой ситуации мы в известной степени вынуждены быть антропоцентричными. Я думаю, что ситуация изменится тогда, когда наконец-то появится какая-то серьёзная альтернатива человеческому интеллекту.

Александр Соколов: Сергей, твой встречный вопрос.

Сергей Марков: Татьяна говорила о необходимости каким-то образом оркестрировать различные навыки, которые так или иначе реализованы в компонентах системы универсального искусственного интеллекта, и демонстрируют различные формы поведения. Но если вернуться к работам Тьюринга в 30-е годы: пытаясь выяснить, что такое «эффективно вычислимая задача», математики пришли к такой точке зрения, что все интеллектуальные феномены, все задачи, можно свести к некоей формальной системе, которая будет достаточно полна, чтобы при её помощи можно было описать любой интеллектуальный процесс. Может быть, нам можно отмахнуться, абстрагироваться от того, что у нас существует какой-то мир с его различными модальностями, действиями различных агентов в этом мире, и свести всё к задаче как это делается в GPT-3. Давайте будем прогнозировать следующий токен в последовательности по предыдущим. Ведь если мы посмотрим на человека, то человек тоже в некоторой мере напоминает такую систему. То есть он собирает некий тензор информации от своих органов чувств и на основе него генерирует тензор, который представляет собой набор мышечных реакций нашего тела. Если смотреть на это таким образом, то, может быть, мы сможем избавиться от необходимости копаться в какой-то макроархитектуре такого решения. Пусть машина в ходе машинного обучения сама определит необходимую архитектуру, необходимые способы оркестрации навыков.

Татьяна Шаврина: здесь много на что можно ответить. Я думаю, что с позицией Тьюринга сейчас можно много где не согласиться. В частности, изначально предполагалось, в том числе с точки зрения коннекционистов, с точки зрения Тьюринга, что человеческий разум — это tabula rasa. Соответственно, мы можем научиться чему-то новому и точно так же научить компьютер. И вот эта метафора, «мозг как компьютер», наверное сейчас нам методологически вредит. Потому что мы знаем, что на самом деле мозг — это не tabula rasa. У нас есть предрасположенности, у нас есть эволюционные цели и механизмы, которые работают все вместе, которых нет у компьютера, и которые мы не можем просто купить. У нас есть объём вычислительных мощностей, объём данных, которые мы можем экстенсивно увеличивать, и ждать, что рано или поздно у нас будет такая мощность и так много данных, что мы научимся оркестрировать всё сами. Но, возможно, это всё-таки не так, потому что фундаментально система устроена по-другому.

Более того, у человека есть предрасположенность к решению одних задач и к плохому решению других. Мой любимый пример — это задача коммивояжера, которому нужно посетить заданный список городов и у него есть карта дорог между ними. Ему надо выбрать кратчайший путь. Есть очень много алгоритмов, которые позволяют достаточно быстро решить эту задачу компьютеру, и с ней неплохо справляется человек, потому что это такая хорошая задача, которая полезна, и её решение полезно человеку. Но если мы ее чуть-чуть переформулируем и скажем: «А теперь найди не кратчайший путь, а самый длинный». Для компьютера это будет всё равно, это будет точно такая же задача, просто нужно найти не самый короткий, а самый длинный. Для человека она уже станет значительно тяжелее и справиться с ней гораздо труднее и по времени, и по усилиям.

В этом плане считать человеческий интеллект за эталон, возможно, неправильно, потому что какие-то вещи мы про себя ещё не знаем, а может быть, они влияют. Если мы просто увеличиваем количество данных, увеличиваем объём корпусов текстов, которые у нас есть, а корпуса текстов — это хороший источник, потому что это опосредованный срез человеческого мышления, который накоплен. Научимся ли мы на нём делать какой-то обобщающий вывод, если их будет очень много? Возможно, нет, потому что смещения, когнитивные искажения и всевозможные паттерны, которые препятствуют человеку в принятии рационального мышления, заключены в этих данных. У нас нет системы перепроверки этого решения. Когда у нас есть аппетит, такой, какой есть сейчас, что нам нужно уже внедрять ИИ в медицину, в госуправление, цена ошибки становится высока и требует от нас методологически обеспечить воспроизводимость и прозрачность этих решений. Мы не можем их обеспечить в такой парадигме. То есть нам нужен функционал, который скажет: «Это решение принято вот поэтому, аочему оно было принято».

Александр Соколов: Сергей, есть, что возразить?

Сергей Марков: здесь затронута, мне кажется, важная проблема — проблема метаобучения. Действительно, человеческий мозг — это продукт эволюционного процесса, который тоже некий оптимизационный процесс, так же, как и процесс обучения отдельной модели. С одной стороны, это усложняет нашу задачу, потому что нам нужно не только научиться хорошо решать задачу, нам нужно научиться учиться решать задачи. У эволюции действительно ушли миллионы лет масштабных условно-вычислительных экспериментов, чтобы эту задачу решить. С другой стороны, сложность, которая здесь перед нами возникает, может быть повернута наоборот и повлиять положительно на скорость решения этой задачи в рамках технологий.

Дело в том, что человеческий разум — это действительно продукт оптимизационного процесса, который не стремился сделать самый идеальный разум. Эволюция не ставила перед собой такой цели. На человеческий мозг эволюционно налагается целый ряд довольно неприятных ограничений. Например, мы совсем не хотим, чтобы от удара по лицу у нас сбрасывалась, полностью обнулялась память, или какие-то другие эффекты: большая голова плохо проходит через родовые пути. Поэтому ребёнок с большой головой может попросту не родиться, да ещё и убить мать. Поэтому эволюция не была ориентирована на создание идеального интеллекта. С другой стороны, даже стремясь в какой-то мере решить задачу совершенствования интеллекта, она была скована определёнными фундаментальными ограничениями. И в этом смысле более адресно, более точно организованный процесс метаобучения может позволить нам получить результаты гораздо быстрее и с меньшими затратами, чем это получилось у эволюции.

Во-вторых, здесь нам может в определённой степени помочь бионика, потому что нам не нужно начинать этот оптимизационный процесс с нуля. Мы можем подглядеть, каким образом устроены связи в человеческом мозге, какова архитектура этой биологической нейросети. И надо сказать, что в последние годы в этом направлении достигнуты достаточно серьёзные прорывы, коннектомика наступает. Мы видим, как благодаря появлению технологий эффективного сканирования нервной ткани, я имею в виду технологии, созданные в институте Макса Планка, когда мы 40-ка нанометровыми слоями нарезаем нервную ткань, затем через просвечивающий микроскоп пропускаем эти срезы, и затем при помощи искусственных нейронных сетей реконструируем трёхмерную карту связей в мозге. И сейчас уже получены результаты для таких внушительных нервных систем, как нервная система мушки-дрозофилы, 1 кубический миллиметр мозга мыши удалось откартировать. И вот я смотрю, что в этом году уже появился целый ряд архитектур, вдохновлённых данными нейрофизиологов. То есть мы можем взять какую-то нейрофизиологическую архитектуру, нейронные сети в качестве некоей стартовой точки для дальнейшей оптимизации. Возможно, это поможет нам решить задачи гораздо меньшей кровью, чем это получилось у эволюции.

Татьяна Шаврина: мне кажется, мы сошлись на мнении, что всё-таки нам нужно больше знать про мозг. При том, что действительно нам надо больше знать и про то, как мозг устроен, и может, это можно решать как задачу оптимизации, хотя я бы с этим не согласилась. Программисты всегда всё хотят решать как задачу оптимизации. Возможно это просто упрощение реальности.

Проблема лежит глубже, у нас проблема даже терминологическая, и в нашей методологии заложено много проблем. До сих пор во всевозможных тестах, я не говорю сейчас про тест Тьюринга, а о более формальных тестах. Тест Тьюринга, безусловно, ещё годится, но у него есть фундаментальный минус — он включает субъективную оценку. Есть тесты, которые исключают фактор субъективности. Они говорят, что мы просто не доверим 33% людей решить, создали мы искусственный интеллект или не создали. Нам нужно количественное сравнение, процент новых решенных задач. И такие тесты действительно разрабатываются, но они, к сожалению, всё ещё оперируют такими понятиями, которые мы не можем формализовать. Например, тесты на здравый смысл, или тесты на предметное знание. Что такое с точки зрения бионики, если мы к ней обращаемся, целеполагание, здравый смысл? Может, этого и нет, а мы этим пользуемся. И мы пытаемся это как-то формально определить. Понятно, что это очень слабая сторона, и в этом плане, прежде чем обращаться к бионике, надо понять, что мы там вообще хотим найти. Потому что те тесты, которые у нас есть сейчас, модели вроде GPT-3 как-то проходят. Не очень хорошо, где-то 60% качества, у человека от 80% до 90%. Но эти тесты нам показывают, что то, что модели выучивают, во многом случайны, а во-вторых результаты нестабильны, то есть зависят от случайных формулировок. Одно и то же задание мы попросили сделать модель, чуть-чуть поменяли формулировку — всё, результат испортился.

На наших тестах SuperGLUE мы использовали такие способы атаковать модели, когда мы много-много раз перефразируем одно и то же задание и смотрим, насколько сохраняется качество ответов. Был даже такой момент, когда мы в конце каждого задания добавляли «и всё получится», и тогда качество вырастало на 2%. Как-то влиять это не должно, но оно влияет. Поэтому здесь у нас есть некоторая фундаментальная проблема: те данные, с которыми работают, они никак не матчатся с бионикой. Может быть, я ошибаюсь.

Александр Соколов: чтобы подлить масла в огонь, я попросил задать вам вопрос нашего эксперта, антрополога Станислава Дробышевского.

Станислав Дробышевский: вопрос к обоим коллегам. Мне, как биологу, интересно следующее. С точки зрения биологов есть обмен веществ, то есть такое взаимодействие с окружающей средой. Его частный случай — это поведение, и его частный случай — это интеллект. И всё это складывается из миллионов взаимодействий: химических — каких-то там молекулярных, термических — температура, механических — сгибание чего-нибудь, фотонных — когда мы видим что-то такое. А для ИИ у нас количество входов очень маленькое. То есть либо мы туда бинарным способом забиваем текст, либо картиночку какую-то, и как всё это многообразие воздействий запихать в ИИ, чтобы он, собственно, стал нашим интеллектом?

В качестве примера затравка для размышления. Все знают про законы робототехники, все мы боимся Скайнета и Терминатора, и я надеюсь, что создатели ИИ про это знают, думают, помнят и в нужный момент это дело пропишут. Но как прописать в интеллект Скайнета и Терминатора понятие «человек» и то, что человека нельзя убивать? То есть само по себе понятие человека у одного человека относительно другого — это и внешний вид, и запах, и пощупать, и ещё что-то такое. Если у человека нет какого-то входа, допустим, он слепой, он может пощупать это или услышать. А для компьютера обычно какой-то один вход, единственный. И то, что нельзя убить. Для человека это понятие очень широкое — «убить», много туда всего входит, опять же, с разных каналов. А как в компьютер это запихать, вообще в принципе это возможно?

Сергей Марков: спасибо Станиславу за вопрос. На самом деле, насчёт множества источников данных, на этот вопрос ответ дала нейрофизиология ещё в конце XIX — начале XX в. Всё-таки всё многообразие явлений окружающего мира для человеческого мозга сводится к набору электрических сигналов. Это происходит благодаря существованию сенсорных клеток, которые могут преобразовывать и свет, и тепло, и различные другие раздражители в электрические сигналы. В этом смысле машины сделаны по нашему образу и подобию. То есть они так же оснащены сенсорами, которые позволяют превратить различные виды сигналов из реального мира в цифровую информацию, которая затем уже попадает на вход наших моделей.

Насчёт возможности оперировать какими-то абстракциями вроде «человек», или «убийство» и т.д., это вопрос довольно интересный. Сейчас развивается такое интересное направление, как нейрофизиология искусственных нейронных сетей. И учёные, которые работают в этой области, изучают то, каким образом нейросетевые модели в процессе обучения формируют представления о тех или иных абстракциях. Если очень грубо, то они делают это похожим образом на то, как это делают люди. Если вы посмотрите на свёрточную нейронную сеть, то заметите, что в каких-то глубоких слоях свёртки есть искусственные нейроны, которые реагируют на вполне абстрактные понятия. Нейрон собаки, нейрон кошки, нейрон чего-то ещё. И в этом смысле здесь есть определённые надежды.

Есть такое направление, которое занимается объяснимым ИИ, что удастся здесь выстроить определенное выравнивание между абстракциями человеческими и абстракциями, которые создает машина. Но это тема для отдельного большого разговора, про объяснимый ИИ можно говорить долго. В целом тут всё решается похоже на то, как в задаче коммивояжера, упомянутой Татьяной. То есть когда у нас есть какая-то задача экстремально большой размерности, решить её «в лоб» нельзя, но можно сделать какую-то топологическую агрегацию. Например, близко находящиеся на карте города считать одним регионом, вначале решить задачу для этих групп городов, потом решать задачу уже внутри групп. То есть «разделяй и властвуй», так работает человеческий мозг, так работают коннекционистские модели вроде нейронных сетей. Но в целом это понятная проблематика, учёные ей активно занимаются.

Александр Соколов: Сергей, спасибо. А следующий вопрос, который, наверное, будет адресован Татьяне — это наш сюрприз, потому что вопрос будет задавать система искусственного интеллекта GPT-3.

GPT-3: насколько необходима или желательна разработка искусственного интеллекта, предназначенного исключительно для боевых действий?

Татьяна Шаврина: вот так вот прям сразу исключительно. На самом деле есть большое опасение, что когда-то, когда мы достигнем определённых успехов в моделировании более простых задач, про это узнают военные, придут и скажут: «Давайте делать Манхеттенский проект с искусственным интеллектом». Если бы он существовал уже сейчас, мы бы что-то про это как-то узнали, так что вроде не существует.

Александр Соколов: так ведь скрывают.

Татьяна Шаврина: но видите, уже сам искусственный интеллект интересуется, уже опасно.

Александр Соколов: сейчас будет второй вопрос от ИИ, на этот раз в образе Иннокентия Смоктуновского.

GPT-3: сможет ли искусственный интеллект корректно воспринимать и оценивать степень опасности людей?

Сергей Марков: это очень хороший вопрос, потому что он позволяет немножко отойти от нашей антропоцентрической позиции. Мы очень часто предъявляем определённые требования к ИИ. Встаёт большой вопрос, насколько мы сами соответствуем тем требованиям, которые предъявляются. Когда некоторые лорнисты спрашивают: «Не опасно ли поручать системам ИИ контроль над теми или иными сложными процессами, сложными технологиями и т. д.?». При этом почему-то подспудно считается, что оставить контроль над этими технологиями за человеком — это безопасно. Хотя на самом деле, по мере технологического прогресса себестоимость апокалипсиса стремительно падает. Поэтому я думаю, что здесь вопрос с подвохом, и важно понимать, что в определённой ситуации люди сами не соответствуют тем высоким требованиям, которые мы предъявляем к тестируемым нами системам. Во всяком случае, автомобиль, автопилот мы можем исследовать, заставив его накатать миллионы километров, вначале в виртуальной среде, потом в ходе каких-то тестов. А вот когда мы садимся в машину такси, то мы предварительно не подвергали водителя столь же жёсткому контролю, столь же масштабным испытаниям. Почему человек доверяет тому, другому человеку, которого он видит первый раз, и не доверяет системам, которые были созданы в результате прямого инжиниринга и были многократно протестированы в специальных экспериментах?

Александр Соколов: спасибо, Сергей. Сейчас вопрос от нашего постоянного зрителя.

Пирожок с ковидлом: насколько реально воспроизвести творческие способности, используя генератор случайных чисел и последующий анализ результатов?

Татьяна Шаврина: не знаю, какая тут связь генератором случайных чисел, но что мне нравится в задачах ИИ, это то, что они ставят перед нами такие задачи, которые позволяют нам не только что-то построить, но и узнать чуть больше про себя. В этом плане задача искусства — она очень интересная, и я знаю, что это насущный вопрос эволюционной психологии: что вообще человеку кажется красивым? Чтобы формализовать то, что нам кажется красивым, нам надо поставить много экспериментов и выяснить, и тогда машина сможет это как-то воспроизводить. Сейчас у нас есть уже системы, которые могут генерировать картины, музыку и это кажется достаточно симпатичным. Сказать, что это творчество, наверное, в какой-то момент будет можно, если там действительно будет целеполагание, если мы научимся осмысленно нарушать канон, и при этом считать, что это всё равно красиво.

Денис из Москвы: Сергей, подскажите пожалуйста, в какую сторону смотреть разработчику, который хочет научиться программно работать с человеческой речью?

Сергей Марков: последние несколько лет, даже последнее десятилетие, большой прогресс в этой области связан с развитием нейросетевых моделей, то есть в случае распознавания речи — это свёрточные рекурентные нейронные сети, в случае синтеза речи — это также рекурентные архитектуры, основанные на Highway Networks, на свёрточныхсетях над спектрограммами, ну и в последние годы традиционными сетками типа LSTM или Трансформеры. То есть здесь прогресс действительно большой, и я бы посоветовал читать отдельные научные публикации. Можно зайти, допустим, на сайт paperswithcode.com, и там вы увидите, что по каждой задаче, которая вас интересует: распознавание речи, синтез речи, — есть определённые лидерборды. Можно посмотреть лучшие решения, которые существуют в этой области. И обычно там есть научная статья создателей этой системы. Можно её почитать и узнать о тех алгоритмах, тех нейросетевых архитектурах, которые лежат в основе этой системы. Ну и в большинстве случаев можно посмотреть реальные примеры реализации в виде кода на GitHub. То есть, наверное, сегодня это самый правильный способ изучения передового края технологий. Потому что систематическая литература, книги не успевают за той скоростью прогресса, которую мы наблюдаем. То если вы почитаете книгу даже хороших авторов, она будет вам в какой-то мере рассказывать о состоянии технологий двух-трёхлетней давности.

Юрий Феденев из Москвы: как вы считаете, существует ли возможность использовать ИИ в управлении или частичном управлении опасным производством: АЭС, ГЭС и т. д., так как высока вероятность человеческого фактора при выполнении операций?

Татьяна Шаврина: я думаю, что это очень хорошее направление как раз для автоматизации труда и для решения задач оптимизации. Потому что сейчас современные системы ИИ используются на опасных производствах, в том числе и не только на опасных, чтобы предсказывать износ оборудования. То, что связано не совсем с человеческим фактором, а с тем, что здесь и вот здесь пора уже менять. Это сейчас предсказывается очень хорошо и снижает аварийность.

Латта из Нижнего Новгорода: Татьяна, для работы с человеком обязательно ли внедрять ИИ человеческие эмоции для комфорта работы с ИИ?

Татьяна Шаврина: это интересный вопрос. Мне кажется, что он очень плотно связан с тем, что мы считаем хорошим решением от ИИ, а что не очень. Потому что когда мы говорим о том, что мы будем внедрять ИИ в управление проектами, в автоматизацию каких-то решений, в госуправление, то мы ждём, что будем получать ответы которые не просто будут устраивать нас по качеству, но и которые мы будем понимать. И эмоциональная составляющая здесь участвует, и она способствует этому пониманию.

Эмоциональную составляющую можно включить уже сейчас, это не является технологической преградой. Технологической преградой является нормальное обоснование решений, поэтому здесь прогресс запаздывает и, может быть, он опаздывает очень сильно. Это один из тезисов, почему, возможно, AGI мы получим ещё нескоро. Даже если мы сможем обучать модели, они будут у нас принимать самые мультимодальные данные: и картинки, и видео, и текст, как-то они будут это всё обрабатывать, и даже если будет среда, в которой модель будет действительно обучаться и понимать, что лучше, что хуже, она всё равно не научится нам это передавать.

У нас сейчас опаздывают именно системы интерпретации результатов. Мы видим, что можем из сетки как-то получить, что она увидела корреляцию. Иногда нужно сделать очень много шагов, чтобы понять, что эта корреляция была ложной. Модуля перепроверки этих данных нет. Мы знаем фундаментальную проблему, что корреляция не означает причинно-следственную связь. Например, что уровень преступности в Нью-Йорке коррелирует с потреблением мороженого в Нью-Йорке. Долго думали: почему, что за мороженое, отнимают мороженое что ли все у всех? На самом деле оба фактора коррелируют ещё со средней температурой. Просто летом повышается и уровень преступности, и потребления мороженого. И это всё у нас сохраняется в ИИ, и он даже может вынести решение и, может быть, как-то даже его перепроверить. А потом мы спросим: «А почему?». А у нас модуль логики не подключен к модулю языка, мы не можем сказать, почему.

Александр Соколов: ну он скорее всего скажет, что две этих функции не являются независимыми, поэтому и корреляцию между ними строить неправильно.

Татьяна Шаврина: это как мы запрограммируем.

Александр Багма: как вы считаете, возможно ли построение сильного ИИ, как мультиагентной системы? Используются ли идеи, изложенные Марвином Мински в таких книгах, как «Сообщество разума» и «Машина эмоций» в неакадемических проектах?

Сергей Марков: Мински — это один из классиков ИИ, человек, довольно интересным образом повлиявший на развитие коннекционизма, нейронных сетей. Он был, с одной стороны, одним из пионеров этого направления и ещё в начале 50-х годов создал систему, управляемую искусственной нейронной сетью. С другой стороны, считается, что он внёс свой вклад в критику работ Фрэнка Розенблата и в какой-то мере это повлияло на наступление «зимы» ИИ в 70-е годы. Сейчас активно изучаются различные мультиагентные системы, и в целом такая большая сфера машинного обучения, как обучение с подкреплением — это бурно развивающееся направление. Естественно, там есть место и мультиагентным системам, и в этом смысле как раз создание систем универсального ИИ, режимы их обучения вполне могут быть связаны с таким обучением в мультиагентных средах.

А вообще мы коротко затронули проблему сознания, и того, будет оно или не будет у систем ИИ. Моя научная позиция заключается в том, что сознание в какой-то мере является продуктом мультиагентных взаимодействий. То есть появление эусоциальности привело к необходимости появления модели другого, для того, чтобы прогнозировать поведение других агентов, и дальше эта модель была применена к самому субъекту. То есть появилась галерея зеркал отражения человеческим сознанием себя самого. Поэтому это направление активно развивается — одно из мейнстримных на сегодня направлений работы над универсальным ИИ.

Андрей Савченко: Далёкое будущее. Научному сообществу всё же удалось создать полноценный, сопоставимый с человеческим, ИИ. На его основе создаются автономные роботы для решения различных задач. Как вы думаете, будут ли достаточны по своей сути 3 закона робототехники в качестве основного защитного механизма в подобных системах? Если нет, то что бы предложили вы?

Татьяна Шаврина: на самом деле, я думаю, что тут Сергей даже лучше меня прокомментирует. Мне кажется, что, рассуждая о таком далёком будущем, скорее всего у нас будет какой-то другой способ инкорпорировать необходимые нам знания в ИИ. Оно не обязательно будет просто строгими запретами, правилами робототехники, но возможно, это всё равно останется. Вот мы сейчас разговариваем про ИИ, но обычно в индустрии все задачи решаются очень просто — написали пару правил, а потом сказали: «Вот у нас уже искусственный интеллект используется». Возможно, это тоже останется.

Сергей Марков: наверное, всё творчество Айзека Азимова посвящено тому, что трёх законов робототехники недостаточно, и возникает множество парадоксов при использовании такой простой системы. Но я думаю, что здесь системы, правила примерно так же годны к решению этой задачи, как уголовный кодекс подходит для того, чтобы контролировать поведение людей. То есть это в принципе работает, но есть нюансы, есть ситуации, для которых даже такого сложного поведенческого кодекса оказывается недостаточно для того, чтобы решить все проблемы. Я думаю, что здесь мейнстрим, направление развития будет связано с тем, что вряд ли мы будем так массово создавать универсальные системы ИИ. Я думаю, что человечество скорее пойдет по пути интеграции своего собственного интеллекта с продуктами своих технологий. ИИ будущего — это мы сами, просто усовершенствованные, дополненные мощными модулями расширения и т. д. Но это создаст проблемы немножко другого класса. Не те игрушечные проблемы, про которые приятно писать интеллектуальную фантастику, а проблемы совершенно другого уровня, которые пока что мы на нынешнем уровне развития не можем в полной мере постичь.

Александр Соколов: коллеги, время вопросов подошло к концу. А сейчас очень интересно посмотреть, как поменялось мнение аудитории. Поэтому сейчас я запущу то же голосование ещё раз.

Когда будет создана система искусственного интеллекта, равная человеческому интеллекту?

А пока зрители голосуют, я хочу попросить Татьяну подвести итог сегодняшней дискуссии. Что вы для себя вынесли? Изменилось ли ваше мнение полностью, отчасти, в чём?

Татьяна Шаврина: я думаю, что то, чем мы занимаемся, не стоит так вопрос, что нам надо перестать этим заниматься. Мне кажется, что методология в любом случае нам нужна, и методология должна разрабатываться, и должна быть максимально строгой и максимально объективной настолько, насколько это возможно. Понятно, что чтобы делать строгую методологию, нам надо задавать больше вопросов, которые связаны со смежными областями. Это и нейронауки, и эволюционная психология, и задача оптимизации. Надо ставить больше экспериментов с новыми мощностями, которые у нас есть, и так далее. Но что точно у нас останется, это то, что мы больше узнаем про себя и мне кажется, что это очень здорово.

Александр Соколов: спасибо, Татьяна. Сергей, теперь прошу вас подвести итог дискуссии. А ваше мнение изменилось хотя бы отчасти? Что-то полезное вы узнали сегодня?

Сергей Марков: я хотел поблагодарить Татьяну за очень интересную и конструктивную дискуссию. Конечно, мы меняемся, и, обсуждая такие вопросы с интеллектуальным оппонентом, ты всегда узнаешь что-то новое и в какой-то мере корректируешь свою позицию. Конечно, она вряд ли поменялась радикально, но я думаю, что в действительности разница между нашими позициями не так велика, как может показаться со стороны. Но в любом случае это было очень полезно, и я думаю, что в какой-то мере будет оказывать влияние на мою дальнейшую работу.

Александр Соколов: теперь я хочу попросить вас выбрать участников лучших вопросов, причем прошу и Татьяну, и Сергея, потому что у меня две книжки: «Человеческие сети» издательства Corpus и замечательная книга «Как быть человеком в эпоху машин?» Сейчас я перечислю, какие были вопросы: про творческие способности и генератор случайных чисел; про то, куда смотреть разработчику, который хочет работать с человеческой речью; вопрос про автоматизацию управления АЭС; вопрос про внедрение эмоций для комфорта работы с ИИ; вопрос про идеи, изложенные Марвином Мински; вопрос про 3 закона робототехники для могучих роботов в далеком будущем.

Сергей Марков: вопрос про Марвина Минского мне больше всех понравился, хотя все вопросы были, безусловно, интересными и трудно выбирать.

Александр Соколов: книга «Человеческие сети» уходит Александру Багме.

Татьяна Шаврина: жалко, что мы не можем ИИ ничего дать, он тоже задавал вопросы.

Александр Соколов: почему не можем? Сергей разработчик, поэтому, я думаю, он может как-то стимулировать. Отпуск что ли.

Сергей Марков: наверное, я не открою большого секрета, что Татьяна тоже один из разработчиков этой системы, только со стороны своего подразделения. Поэтому нам придётся, боюсь, книжку делить пополам.

Александр Соколов: загрузить текст этой книги, присовокупить к базе текстов.

Татьяна Шаврина: оцифруем и загрузим. Но я думаю, что Сергей так или иначе получит книгу, потому что он спикер. Давайте отдадим книгу вопросу про искусство.

Александр Соколов: и книгу «Как быть человеком в эпоху машин» получает Пирожок с ковидлом, наш постоянный зритель. А сейчас давайте посмотрим результаты голосований и сравним, как голосовали зрители в начале и сейчас.

Результаты голосования-1

На первом месте было «в обозримом будущем», на втором — «в далёком будущем». Второй вариант… интересно!

Результаты голосования-2

Получается, что в результате дебатов голосовавшие за «обозримое будущее» перешли на сторону «далекого будущего». Татьяна, ваша скептическая позиция убедила некую часть зрителей стать более осторожными в своих оценках. Здорово то, что мы в очередной раз видим, как меняется мнение зрителей в результате нашей работы.

Я благодарю вас, дорогие друзья. Сергей у нас тоже без приза не останется. Вот такая замечательная левитирующая пирамидка от проекта Levilogo.ru компании saintpwood отправится к Сергею. Вам, Татьяна, замечательный пингвинопитек-мыслитель от Павла Краснова и замечательные деревянные подставки для смартфонов от проекта GEN.RU для обоих участников дебатов.

У меня есть мечта, дорогие друзья, чтобы через несколько лет мы провели такие дебаты, одним из участников которых была бы система ИИ. Вдруг это всё-таки получится. Или, по крайней мере, чтобы ИИ был модератором, который следил бы за тем, чтобы дискуссия шла по правилам корректной научной дискуссии, как это принято на форуме «Учёные против мифов». А призом в этих дебатах была бы книга Сергея Маркова, которую он, я надеюсь, напишет и издаст очень скоро.


Источник: m.vk.com

Комментарии: