Почему спустя 60 лет в искусственный интеллект снова поверили

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


ерез 60 лет после своего сенсационного появления на свет термин «искусственный интеллект» вдруг снова оказался центре внимания. Почему? Объясняет научный журналист, специалист в сфере искусственного интеллекта Леонид Черняк.В последнее время можно наблюдать настоящее возрождение ИИ, и тому есть две основные причины.
  1. Это результат естественной эволюции, присущий любому научному направлению.
  2. Искусственный интеллект снова оказался на слуху благодаря компьютерным технологиям и науке о данных.

Сначала поговорим о внутренних, или эволюционных, причинах возрождения. В области ИИ осуществился переворот с головы на ноги, а точнее - восторжествовало качественно иное представление об ИИ. Оно существенно отличается от подхода, который устойчиво доминировал на протяжении многих лет, начиная с первых дней существования ИИ.

Полвека истории ИИ были, главным образом, красивой «игрой в бисер». Этим занимался небольшой круг академических ученых, свято веривших в свою способность наделить машину рукотворным интеллектом, который мог бы на равных конкурировать с человеческим разумом.

В советское время о таких исследованиях говорили: «Удовлетворение собственной любознательности за государственный счет». Чтобы оценить уровень притязаний ученых, достаточно посмотреть труды одного из известных футурологов, Рэймонда Курцвейла, и особенно - его книгу «Эпоха духовных машин» (The Age of Spiritual Machines). Но как бы привлекательно ни выглядели рассуждения о «думающих машинах», никакой практической пользы от огромного числа диссертаций, книг, статей, конференций не было тогда - и нет поныне.

Искусственный интеллект тогда

Основоположником и первым евангелистом «классического» подхода к искусственному интеллекту был Джон Маккарти, профессор Дартмутского колледжа. В 1956 году Маккарти выступил с докладом, где впервые использовал новый термин - artificial intelligence (AI). В русском языке прижился дословный перевод, «искусственный интеллект» (ИИ).

Иного, к сожалению, не придумаешь, но термин трудно назвать удачным: слова в переводе и в оригинале имеют немного разное значение. 

На протяжении всех последующих лет Маккарти и его последователи сохраняли верность данному им тогда же определению: «ИИ - это наука и инженерное искусство создания интеллектуальных машин, в частности - интеллектуального программного обеспечения». Обратите внимание на использование словосочетания «интеллектуальные машины»!

Разработчики легендарного советского суперкомпьютера «Каисса», который обладал способностью оперировать большими объемами информации - по сути, это был советский ИИ. Слева направо: Владимир Арлазаров, Кеннет Лейн Томпсон, Михаил Донской

Особенно созданию своего рода веры в «бога из машины» помогли популярные писатели-фантасты: в тридцатые годы Карел Чапек изобрел термин «робот», в сороковые годы Айзек Азимов сформулировал законы робототехники- и так далее.

А потом великий Алан Тьюринг тоже поверил в «мыслящую машину» и в 1950 году сформулировал идею теста, который, по его мнению, позволяет определять, мыслит ли машина. Упрощенно процедура теста выглядит так: эксперт обращается к невидимому собеседнику с вопросами и в конце решает, кто перед ним - машина или человек. Тест Тьютинга обрел популярность, регулярно проводятся многочисленные конкурсы, в том числе и на русском языке, где с переменным успехом экспертов пытаются ввести в заблуждение программы-роботы, не обладающие интеллектом, но заточенные на прохождение теста. Утверждается, что первой прошедшей тест Тьюринга программой стала Eugene Goostman, созданная тремя русскоговорящими программистами. Она представлялась 13-летним мальчиком. Это был 2014 год. А уже в 2015 году в Сколково на конкурсе «Тест Тьюринга на русском языке» победил робот из Санкт-Петербурга, «Соня Гусева».

Но эти специализированные программы, успешно проходящие тест, не имеют ничего общего с целями ИИ, скорее, они его дискредитируют. Кроме того, сфокусированность на человеческом мышлении теста Тьюринга приводит к тому, что тест не может быть по-настоящему полезным при разработке в полном смысле этого слова разумных машин.

Современные исследования в области искусственного интеллекта ставят перед собой куда более скромные и специфические, а часто вообще - прикладные цели.

Отцом, можно так сказать, практического искусственного интеллекта признают профессора Стэнфордского университета Нильса Нильсона..

В 1971 году Нильсон предложил следующее определение:

Нильс Нильсон много лет проработал в Центре исследований ИИ в составе Стэнфордского исследовательского института SRI International. Наиболее полно концепция Нильсона изложена в трудах его учеников. В 2007 году на русском языке была издана книга Стюарта Рассела и Питера Норвига «Искусственный интеллект: современный подход».

«Цель работ по ИИ - создать машины, которые будут выполнять функции, обычно требующие применения человеческого интеллекта». Сравним с приведенным выше определением Маккарти: Нильсон делает ставку не на гипотетические интеллектуальные машины, а на те, которые всего лишь способны подменить или дополнить возможности человека. Казалось бы, отличие в нескольких словах, но постановка задачи качественно иная!

В чем разница? Например, широко известны роботы, способные управлять автомобилем. Они не обладают никакими собственными когнитивными способностями, но тем не менее могут безопасно переместить автомобиль из одной точки в другую. Именно это имеет в виду Нильсон.

WALK-man - робот, способный управлять автомобилем

Искусственный интеллект сейчас

Вторая причина возрождения ИИ - в том, что во втором десятилетии XXI века возникло несколько технологических трендов, ставших катализаторами обновления ИИ. Среди них: 

  • Закон Мура, отражающий постоянный рост производительности компьютеров. В 1965 году, вскоре после изобретения интегральной схемы, Гордон Мур обратил внимание на то, что в новых моделях микросхем, которые появляются примерно раз в полтора года, количество транзисторов возрастает приблизительно вдвое. Мур предположил, что такой темп роста может сохраниться в ближайшие 10 лет. Спустя пять лет профессор Калифорнийского технологического института и автор программных технологий проектирования больших интегральных микросхем Карвер Мид сделал шаг к закреплению этого наблюдения - он первым использовал всем привычное словосочетание «закон Мура». С тех пор справедливость закона сохраняется, невзирая на прогнозы о его неизбежной кончине.

Закон Мура на примере Intel

  • Большие данные. Точнее - осознание самостоятельной роли данных и важности задач, связанных с анализом данных. Плюс к тому, появились новые источники данных - интернет, социальные сети, разнообразные сенсоры (от камер слежения до датчиков RFID).
  • Интернет и облака. Они оказывают двустороннее влияние - с одной стороны, открывают доступ к огромным объемам данных, а с другой - позволяют объединить усилия специалистов, например, в таких проектах, как Amazon Mechanical Turk (MTurk).
  • Успехи в развитии новых алгоритмов, прежде всего - в области машинного обучения.


Под влиянием этих факторов сложились условия для практической трактовки ИИ. Сегодня под ИИ понимается группа технологий, которые часто называют когнитивными (сognitive technologies). Вот некоторые из них:

  • Компьютерное зрение (computer vision) - поддерживает способность компьютера идентифицировать объекты, сцены и действия в изображениях. Диапазон приложений компьютерного зрения распространяется от медицинских до промышленных и специальных приложений.
  • Машинное обучение (machine learning) - основано на том, что компьютер повышает производительность системы, обращаясь к данным, при этом не следуя заранее определенным правилам. Ключевым моментом машинного обучения является обнаружение тех или иных образов в данных.
  • Автоматическая обработка текстов (natural language processing) - поддерживает способность компьютера работать с текстом так, как это делает человек, то есть извлекать смысл и даже генерировать грамматически правильный текст. При этом не идет речи о каком-то понимании компьютером текста, как можно было бы представить в рамках старой парадигмы ИИ.
  • Роботехника (robotics) сочетает другие когнитивные технологии с электромеханикой.

«Машины будущего»

А дальше все «просто». Как это было много раз в истории, если есть технологии - то создаются новые продукты и машины. Когнитивные технологии открывают возможности для создания нового класса машин - решающих когнитивные задачи. Это будет фактором для наступления «второй эры машин» (the second machine age). Важно, что в новой эре будут не фантастические «одухотворенные машины», а вполне реальные, дополняющие собой традиционные физические машины.

Какие именно машины появятся в ближайшее десятилетие, пока с уверенностью не может сказать никто. Но уже сейчас понятно, что среди них будут и совсем тривиальные - скажем, распознающие лица на фотографиях, - и действующие самостоятельно, и радикально меняющие условия жизни.

Примерами машин новой эры могут быть устройства, помогающие слабовидящим лучше ориентироваться в окружающей среде - эти устройства используют алгоритмы, которые переводят надписи в акустические сообщения.


Источник: rusbase.com

Комментарии: