Гэри Маркус: «Глубокое обучение — это тупик ИИ» |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2019-10-01 05:57 Глубокое обучение нейронных сетей, очень популярное сегодня у создателей различных «хайповых» алгоритмов, — тупиковый путь развития ИИ. Этот подход лишь кажется универсальной технологией, тогда как на самом деле он близок к пределу своей эффективности. Создание общего ИИ — а он необходим для решения действительно сложных задач — на основе глубокого обучения невозможно, уверен Гэри Маркус, и объясняет почему. Гэри Маркус — профессор Нью-Йоркского университета, специалист в области когнитивистики (науки о познании), в последнее время сконцентрировавшийся на проблемах искусственного интеллекта и связанной с ним технологии глубокого обучения (deep learning, DL). В большом интервью MIT Tech Review Маркус заявил, что у технологии есть явные ограничения, которых энтузиасты предпочитают не видеть. И для создания настоящего машинного интеллекта понадобится иной подход. Хайтек+ приводит самые важные моменты беседы. Маркус называет себя «краткосрочным пессимистом и долгосрочным оптимистом», когда речь идет об ИИ. Он уверен, что вести работы по созданию общего ИИ для решения многих широких проблем, а не одной конкретной, нужно. Одна из важнейших причин этого — что нынешний «узкий ИИ», то есть алгоритмы на базе глубокого обучения, подходит к своему пределу. Вы можете обучить ИИ играть на Atari лучше человека, но сделать хороший робомобиль никому не удается. Эта задача тоже довольно специализированная, но на стыке с реальным миром — который гораздо сложнее любого запрограммированного окружения. Глубокое обучение хорошо проявляет себя в анализе корреляций, но алгоритмы не видят причинно-следственной связи и плохо воспринимают любую перемену условий. Сдвиньте элементы в компьютерной игре на три пикселя — и обученный ИИ потеряет эффективность. Сделайте поле для го не квадратным размера 19x19, а прямоугольным — и модель, обыгрывающую чемпионов, придется обучать заново. Глубокому обучению недостает глубокого понимания. «Общий ИИ [совсем другой] — это возможность решать разные проблемы на лету. А это полная противоположность го, где проблема не меняется уже 2000 лет», — говорит Маркус. Поэтому, если мы хотим, чтобы алгоритмы прибавили в эффективности, их необходимо обучить видеть взаимосвязи и ориентироваться в окружающем мире. По словам Маркуса, с этим неплохо справляется «классический ИИ», но у него другой недостаток — необходимо очень подробно запрограммировать все связи. С учетом огромного количества разноплановой информации, которая нас окружает, просто написать «разумную машину» не получится. Человек интуитивно ориентируется в окружающей обстановке на основе своего опыта, даже если условия меняются. «Наберите студентов-стажеров — и через несколько дней они начнут думать над любой проблемой — от юридической до медицинской. Просто потому потому, что они имеют общее представление о мире и умеют читать. Так что они могут внести вклад в самые разные вещи» — рассуждает в интервью Маркус. Решения человека могут быть не идеальными, но чаще всего они достаточно хороши — благодаря эволюции, которая убивает за плохие решения. Однако у компьютеров такого механизма нет. Маркус видит решение в некоем симбиозе классического ИИ, который видит взаимосвязи и получает решения понятным образом, и глубокого обучения. По-видимому, это будет некий свод правил касательно того, как работает окружающий мир и того, как выглядят наборы данных, которые можно получить и обработать. Однако серьезная проблема в том, подчеркивает он, что большинство сторонников DL и слышать ничего не хотят о классическом программировании — машинное обучение кажется им всесильной технологией. «Они хотят делать все с нейронными сетями и не использовать ничего, что выглядит как классическое программирование. Но есть проблемы, которые обычно решаются именно так — например, создание маршрута на картах Google», — возмущается ученый. В поисках эффективности Маркус убежден, что глубокое обучение лишь кажется универсальной технологией: невозможно, используя один единственный подход, и эффективно осмысливать тексты, и распознавать образы. С ростом сложности задач эти ограничения станут очевидными. Робомобили — лишь один из примеров того, что при решении многих проблем реального мира DL недостаточно. На том же плато довольно скромного уровня эта технология остановится и при решении серьезных задач из других областей знаний — химии, биологии или социологии. Даже умелый и разносторонний домашний робот-помощник выглядит сегодня нереальной задачей. Дополнительный барьер в том, что энтузиасты требуют доверять алгоритмам, которые не могут объяснить свои решения и даже не видят причинно-следственные связи. Это значит, что риски их использования многократно возрастают при любом изменении условий на входе в «черный ящик». Таким алгоритмам понадобится сотня лет, чтобы завоевать доверие людей, даже если они будут работать без сбоев, подчеркивает Маркус. А сбои случаются регулярно. Профессор уверен, что настоящий общий ИИ должен осознать мир вокруг, уловить причинно-следственные связи и переключиться с одной задачи на другую. Это задачи не из области глубокого обучения, и, чтобы избежать «зимы ИИ», специалистам следует как можно скорее заняться интеграцией других подходов. О том, как настоящий общий или сильный ИИ изменит окружающий нас мир, в интервью Хайтек+рассказал футуролог Сергей Переслегин. Он убежден, что контролировать такой ИИ с позиции силы у людей не выйдет, и нам придется вступить с ним в тяжелое эволюционное соревнование. Источник: hightech.plus Комментарии: |
|