Искусственный интеллект рядом: как алгоритмы галлюцинируют и учатся

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Бенджамин Браттон, программный директор Института «Стрелка», социолог, теоретик архитектуры и дизайна, рассказал о причудливом поведении искусственного интеллекта, намекая на то, что будущее, возможно, окажется намного сложнее и интереснее, чем мы привыкли думать.

Человек больше не главный герой истории

С искусственным интеллектом в нашем городе мы уже давно живем бок о бок. Черненькие кирпичики в нашем кармашке, которые мы по-прежнему наивно называем телефонами, производят искусственное изображение, искусственные звуки. Мы живем внутри синтетического сада, где находимся единовременно с искусственным интеллектом. Нам кажется, что в этом саду есть герой, он же главный персонаж. И этот персонаж — мы. Мы как будто являемся дирижерами, надсмотрщиками технологий, их гидами. Но каждый из этих сенсоров видит мир на основании своего интеллекта — и очень по-своему.

Иногда мы не главный герой истории и не главный герой в кадре. Мы лишь объект. Возможно, на нас смотрят со стороны, изучают или даже игнорируют. Мы не являемся неотъемлемой частью этого сюжета, потому что вместо нас на эту позицию выходит что-то другое.

Мы не должны видеть искусственный интеллект только через призму себя. Но при этом не стоит исключать себя полностью из этого сюжета. Мы являемся его частью. В сущности, мы к нему привязаны, прикованы. Мы с ним смешаны. Мы к нему подсоединены. Технологии и человек всегда работали вместе.

Он — совсем не такой, как нам хотелось бы думать

Мы можем это понимать интеллектуально, но нам очень трудно не проецировать на машины то, какими, как нам кажется, они должны быть. И как они (как нам хотелось бы) нас видят. Вы слышали про терапевтического робота-тюлененка, так популярного среди пожилых людей? Он успокаивает стариков. Но, конечно, он не может испытывать к ним любовь. А человек думает, что тюлененок его любит. Конечно, было бы проще создать машину, которая бы работала так, как мы бы хотели — но тогда мы не позволяем ей развернуться по-настоящему, делать то, что она действительно могла бы делать в полную меру сил и возможностей.

В наших исследованиях мы попытались найти некоторые странности, которые происходят в работе машин — и подумать над тем вопросом, о каком будущем эти странности могут нам рассказывать.

И видит мир он совершенно иначе

Вы знакомы с изображениями Deep Dream? Это проект, который создали исследовательские лаборатории Google Labs. Алгоритм пытается идентифицировать собак в картинках. Исследователь дал ему задание искать много собак на тех картинках, где этих собак нет. Рано или поздно искусственный интеллект начинает испытывать галлюцинации в виде собак. Это весьма страннно и занимательно. Искусственный интеллект может делать некоторые вещи, которые кажутся нам своего рода творческой работой. Иногда вещи подобного рода мы называем снами.

И занятно посмотреть на феномен апофении. Апофения — это термин, который обозначает распознавание ложных паттернов, закономерностей, когда мы видим паттерн, который на самом деле не присутствует в изображении. Ты точно знаешь, что облачко — не лошадка, ты по-прежнему видишь лошадку, когда смотришь на него. Так работает апофения.

Искусственный интеллект тоже подвержен явлению апофении. Если искусственный интеллект не только как-то обрабатывает мир, но и также как-то ощущает его, то понимание машинного видения становится очень важным. Многие из вас, наверное, использовали инструмент Google Translate. Это инструмент дополненной реальности. Вы можете навести телефон на какой-то текст или указатель, отметить в приложении, с какого языка и на какой язык переводить, а затем приложение попытается дать визуальный перевод. Интересный момент в такой технологии состоит в том, что программа, в принципе, довольно сносно работает, но она недостаточно хороша, чтобы избежать очень странных ошибок.

Например, сочиняет стихи

Вот, например, перевод меню в корейском ресторане в Москве. Мы переводили его с русского на английский. Смотрите, в результате получилась занятная поэзия о еде. Печеньки горячие или холодные. Киви равняется цыпленку в свинине. Как будто это какие-то зашифрованные послания, как будто этот перевод выявляет какой-то шифр, и от него возникает ощущение, будто ты делаешь что-то опасное, шпионское.

Когда мы говорим о машинном видении, важно понять один момент. Дело в том, что сегодня большинство изображений, которые производятся в этом мире, создают машины и для других машин, для того, чтобы машины на них смотрели. И эти изображения связаны с определенными инструментами интеллекта, который интерпретирует и понимает эти изображения. То есть изображение является целой логистической инфраструктурой.

Он может галлюцинировать

Когда вы учите нейронную сеть искусственного интеллекта находить собаку, то обычно показываете ей примерно 10 тыс. картинок собак, отмечаете, где есть собачка, а где ее нет, и сеть замечательно учится распознавать собачек. Но фундаментальная идея, фундаментальное понимание того, как это выглядит, сильно отличается от человеческого понимания. Даже если на практике распознавание работает, исследования показывают, что принципы этого распознавания будут совершенно другими: сеть имеет непохожее на нас представление обо этом предмете. Мы пока не понимаем, как и почему, не знаем, какой путь мышления привел к этому восприятию.

А еще интересно, что искуственный интеллект легко обмануть. Например, в этом случае нейронная сеть на 57% уверена, что это панда. Но если мы даже добавим шум, то все равно будем уверены, что это панда, а искуственный интеллект на 99% сеть будет уверен, что это гиббон, обезьяна. У искуственного интеллекта оппределенно есть какие-то собственные способы мышления и восприятия.

А когда общается с другими машинами, видит мир точнее

А вот, например, то, как беспилотный автомобиль видит город. Он использует Lidar и другие технологии для того, чтобы сформировать свое видение того, что происходит вокруг него. Но он не очень хорошо работает, если у вас машина только одна. Когда у вас только одна машина, которая пытается понять, что происходит в мире вокруг, то она не может сотрудничать с другими машинами вокруг себя. В этом случае машина потеряется в своем собственном индивидуальном мире. Нам тоже это может мешать в определенных ситуациях.

5G — скоростная сеть беспроводной связи — позволит формировать коммуникационные каналы между предметами, объектами в городе с гораздо более высокой скоростью. Это позволит создать, например, то, что мы называем совместное коллаборативное видение. Один беспилотный автомобиль может быть до конца не уверен, на что же он смотрит: человека или машину. Но другая машина очень-очень уверена, что та же самая штукенция — это на самом деле точно человек, потому что она просто смотрит с более удобного ракурса. Так вот, эта машина может поделиться своими выводами с другой машиной, и они создадут общее видение, придут к общему выводу. Это странно и весьма интересно, не правда ли?


Источник: www.forbes.ru

Комментарии: