Иван Ямщиков (Институт Макса Планка): искусственный интеллект нужен, чтобы человеку не было скучно

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2019-03-11 14:27

Философия ИИ

Иван Ямщиков занимается прикладной математикой и исследованиями искусственного интеллекта в Институте Макса Планка в Лейпциге. В авторском курсе Института свободных искусств и наук ММУ «Куш. Принятие решений в условиях неопределенности» он расскажет, как дефицит информации и когнитивные искажения мешают принимать правильные решения — и как с этим справляются люди и машины. T&P поговорили с Ямщиковым о том, чему человек может научиться у искусственного интеллекта — и как вообще последний стал таким «умным».

— Вы как-то сказали, что, если сотрудники скучают, надо придумать, как автоматизировать рутинный процесс. Почему нельзя использовать рутинные задачи для обучения молодых специалистов?

— Когда мы не автоматизируем рутину, мы неэффективно используем то, в чем люди лучше алгоритмов, — а люди лучше алгоритмов в том, что требует гибкости, творческого подхода и широких компетенций.

В этом смысле не так важно, чему мы учим людей. Важно, что человек гораздо более успешен, когда речь идет об изменчивой среде, гибкости и изобретательности — в таких ситуациях человеку обычно не скучно. Когда от него требуется повторение монотонных действий, человек начинает скучать, грустить и терять мотивацию. Но позитивная сторона этой истории в том, что именно в таких случаях искусственный интеллект может сильно разгрузить человека.

— Но при этом автоматизация связана с рядом этических проблем.

— Допустим, группа исследователей создает алгоритм искусственного интеллекта, который справляется с задачами врача лучше, чем сам врач (в полном объеме это пока еще невозможно, но в отдельных случаях — например, в случае с диагностикой рака — системы современного машинного зрения показывают лучшие результаты, чем профессиональные врачи). С одной стороны, создание таких алгоритмов потенциально лишает врачей работы. С другой, речь идет о спасении жизней — и если мы можем четко показать, что использование алгоритма повышает процент выживших и улучшает качество лечения, то что нам делать? Этично ли нам осознанно занижать качество лечения просто потому, что мы хотим, чтобы врачи сохранили работу?

При этом с прикладной точки зрения у нас просто есть метрика, которой мы определяем успешность врача. И если предлагаемый алгоритм с этими задачами справляется лучше, то мы говорим, что задача автоматизации деятельности врача решена в полном объеме. Если он справляется с этими задачами хуже или частично, то мы говорим, что задача решена не в полном объеме. И на этом прикладная часть просто заканчивается.

В чем разница между алгоритмизацией и автоматизацией

Иван Ямщиков: Алгоритмизацией обычно принято называть описание последовательности действий, некоторую достаточно жесткую инструкцию с набором условий в духе «если дела обстоят так-то, делай так-то».

Машинное обучение уходит от такого жесткого, не вероятностного подхода, позволяя строить вероятностные модели, которые учатся на данных и в идеале получаются адаптивными. Мы не прописываем жесткий порядок действий, в соответствии с которым выполняется та или иная задача, а даем системе большой массив обработанных данных, и она уже сама учится их обрабатывать, самостоятельно находя закономерности и формулируя правила, — мы лишь задаем критерии точности.

Цели, задачи, метрики, обходные маневры

— На какие этапы можно разделить процесс принятия решений? Это некая универсальная формула — для людей и машин?

— Процесс принятия решений — это вообще сложная штука. Здесь нет четкого набора правил. Андрей Себрант в своих лекциях любит говорить, что если вам нужна инструкция, чтобы справиться с вашей работой, то вас можно заменить роботом: он действует по инструкции значительно лучше.

Фундаментальная проблема, связанная с принятием решений, заключается в том, что мы не знаем будущего и нам надо принять решение в условиях ограниченного времени и ограниченного количества доступной нам информации.

Мы будем много об этом говорить во время курса в ММУ — о том, как качество решений связано с объемом доступной информации и со временем, которое мы можем потратить на ее анализ. В качестве инструмента для этого анализа можно использовать хоть искусственный интеллект, хоть собственную интуицию — набор здесь не ограничен. Но есть общие, универсальные правила, которыми пользуются и люди, и алгоритмы, — эти правила позволяют использовать статистику, машинное обучение и теорию вероятностей, чтобы максимально быстро принять максимально качественное решение. Мы будем разбирать конкретные решения из мира финансов и IT и, главное, будем акцентировать внимание на неправильных решениях. Если вы анализируете только успехи, то обычно получаете сильно искаженную информацию о том, как устроен мир.

— ИИ обучается на больших данных — что, если их недостаточно?

— Если у вас есть большая и сложная задача, не надо «есть слона целиком» — задачу надо решать по частям, распиливать на куски.

Выбрать метрику качества. Понять, какая информация у вас есть, а какой нет. Возможно, поменять метрику качества,

потому что вы хотели бы измерить что-то, о чем у вас данных нет. Возможно, добавить некий алгоритм, который позволит работать с имеющимися данными в терминах текущих метрик.

Возьмем еще раз медицинский пример. Например, вы бы хотели понять, есть ли у вас сейчас проблемы с сердцем. Для этого есть большой набор диагностических инструментов, но некоторые проблемы выявляются только при долгосрочном мониторинге. Если к вам не летит скорая, значит, у вас есть время на сбор информации — это хорошая новость. Но вы вряд ли будете носить на себе устройство для ЭКГ в течение месяца. Однако вы можете купить фитнес-браслет с пульсометром, который обращает ваше внимание на неожиданные пики сердцебиения в моменты, когда вы не находитесь в состоянии физической нагрузки. В комбинации с данными короткого стационарного обследования эти пики дадут достаточно полную картину, чтобы принять максимально качественное решение. То есть напрямую измерить целевой параметр — «здоровье сердца» — вы не можете, но есть обходной путь, который позволяет принять решение (идти в спортзал или, может, уже к кардиологу) по крайней мере с большей точностью.

Таких примеров очень много, но идеи, на которых они базируются, одни и те же: вы должны понять, какие источники информации у вас есть, в каком объеме информация доступна, каковы сроки принятия решения и по какой метрике будет оцениваться качество этого решения.

© @alcino / Giphy

© @alcino / Giphy

Инструкция vs интуиция

— Люди в принятии решений часто руководствуются не статистикой и поведенческой экономикой, а интуицией или желанием попробовать что-то заведомо опасное, но привлекательное. Как это соотносится с ИИ?

— Есть прекрасная книга Дэна Ариели «Предсказуемая иррациональность», которая показывает, что люди часто принимают решения, которые на самом деле с формальной точки зрения являются не совсем логичными, но при этом предсказуемыми. Люди последовательно и с завидным упорством принимают не самые оптимальные решения, потому что они определенным образом устроены — биологически. Идея курса состоит в том, чтобы объяснить, почему происходит ошибка, и попытаться понять, почему это бывает полезно и почему вредно. И просто дать каждому участнику некий инструментарий, которым он может пользоваться или не пользоваться — в зависимости от контекста и задач, стоящих перед ним.

— Но если в результате принятия решения был достигнут положительный результат, это не значит, что в процессе не было совершено ошибок.

— Ну, идеального вообще ничего не бывает. Мы про это тоже много будем говорить. Любая задача всегда решается в контексте той или иной метрики качества решения.

Например,

нет задачи «научить искусственный интеллект играть в шахматы» — если вдуматься, не совсем понятно, что это вообще значит. Задача конкретизируется: сделать так, чтобы машина обыграла чемпиона мира.

Это пример довольно сложно формализируемой задачи, для которой тем не менее можно предложить однозначный критерий успеха, однозначную целевую метрику.

Есть более простые задачи. Например, научиться выявлять мошеннические операции с банковскими картами. Какое-то количество таких операций банки выявляют по итогам проверок. Если мы создадим алгоритм, который будет выявлять лучше и больше, значит, он справляется с задачей хорошо.

— Мы постоянно возвращаемся к понятию инструкции: то это что-то «плохое», что мешает обычному алгоритму решать нетривиальные задачи, то что-то «хорошее», что помогает человеку не совершать ошибок.

— Поиск баланса между случаями, когда надо действовать по инструкции, а когда импровизировать, — один из основных вопросов в области исследований ИИ. В информатике это формулируют как вопрос о разнице между exploration (исследованием) и exploitation (использованием). Если вы попадаете в новую для себя ситуацию, вам сначала надо понять, как она устроена, а потом начать пользоваться этим пониманием, чтобы сделать свою жизнь в этих обстоятельствах лучше. Штука в том, что

не всегда понятно, когда именно надо перестать исследовать ситуацию и начать пользоваться полученными знаниями.

Мы среди прочего об этом тоже поговорим. О том, как правильно соотносить exploration (которое про гибкость и творчество) и exploitation (которое про следование понятным правилам).

— Вы упомянули, что ошибки, совершаемые людьми при принятии решений, биологически обусловлены: принцип «лучше принять палку за змею, чем змею за палку» критически важен для выживания. Можем ли мы говорить, что отсутствие у ИИ задачи выжить открывает совершенно новые горизонты в обработке информации?

— Это очень широкая тема для разговора. Существует много математических алгоритмов, у которых есть аналог чувства самосохранения. К примеру, торговый алгоритм, который пытается спекулировать на бирже, не должен уходить в ноль (не будет денег — не получится торговать). Мне кажется, дело тут не в наличии или отсутствии того или иного инстинкта у человека — когнитивные искажения могут иметь очень разную природу: это и особенности нашей нервной системы, и особенности эволюционной динамики (эволюцию не очень заботит судьба отдельной особи, если вид в целом выживает и развивается), и рост сложности задач, которые должен решать человек.

© @alcino / Giphy

© @alcino / Giphy

Вечное стремление к автоматизации

— Есть ли у искусственного интеллекта границы применимости? Любые ли процессы и задачи можно автоматизировать?

— Ответ на этот вопрос составляет часть процесса исследований в области искусственного интеллекта; ответить на него пока что невозможно. Люди пытаются найти области, которые можно автоматизировать, где можно создать алгоритмы машинного обучения, которые бы помогали людям решать задачи эффективнее, точнее и быстрее. Это процесс, который не закончен.

— Не закончен пока или не будет закончен никогда?

— Это очень сложный вопрос. Вечно ли человеческое стремление к познанию? Я полагаю, что вечно — в том смысле, что, пока люди будут существовать, они будут стремиться узнавать новое. Однако мы знаем, что все виды эволюционируют, так что сам Homo sapiens вряд ли вечен именно как вид.

— А возможно ли, что однажды наступит предел автоматизации и мы точно будем знать, что можно автоматизировать, а что нет?

— Да, вполне возможно. Это один из самых пессимистичных, но реальных сценариев. Может оказаться, что следующий виток автоматизации невозможен, к примеру, потому, что ресурсов в рамках одной планеты / Солнечной системы / Галактики для него недостаточно.


Источник: theoryandpractice.ru

Комментарии: