Сильный и слабый искусственный интеллект

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Базовые понятия, чтобы разобраться в связи между анализом больших данных и разработкой искусственного интеллекта

Информация и данные, алгоритмы и структуры данных

Строго говоря, у информации (information) нет общепринятого конструктивного определения, любая ее формализация упирается в проблему герменевтического круга: она определяется только через себя рекурсивным уточнением. Зато есть много дистинктивных определений. Например, Норберт Винер в 1948 году постулировал, что информация — это не материя и не энергия! А данные (data) — это информация, представленная в форме, пригодной для обработки человеком или компьютером (в нашем случае именно компьютером). Данные, предназначенные для управления конкретными компонентами системы обработки информации для реализации определенного алгоритма, называют программами. Алгоритм (algorithm) в простейшем определении — это четкое описание последовательности элементарных действий исполнителя над исходными данными для достижения некоторой цели. Интересно, что все сложнейшее поведение современных компьютеров, включая основные формы искусственного интеллекта, построено на классических детерминированных алгоритмах, а вот о том, как реализовано интеллектуальное поведение, свойственное человеку, до сих пор продолжаются споры.

По ссылке можно посмотреть прекрасное введение в проблематику алгоритмизации и рассказ о сложности ответа на вопрос «Что такое алгоритм?».

Большие данные (Big Data)

Объемные, быстро растущие в количестве и многообразные по структуре и типам информации данные. Также под этим термином понимается совокупность технологий для работы с большими массивами данных. В бытовом смысле большими данными часто считают то, что принципиально не помещается на отдельный «сервер». Термин появился в 2008 году благодаря статье редактора Nature Клиффорда Линча и сразу был подхвачен маркетологами. Всплеск интереса к большим данным во многом связан с ростом вычислительных мощностей, позволяющих их обрабатывать. Одни из наиболее важных источников больших данных — интернет вещей и социальные медиа.

Эксплицитное и имплицитное знание

Исторически у знания (knowledge) даже больше определений, чем у информации. Можно сказать, что знания — это данные вместе с методами применения этих данных либо знания — это данные, объясняющие, как использовать другие данные. Можно долго обсуждать необходимость учета субъекта, обладающего знаниями и применяющего знания, — человека. Задачу усложняет формализация в информатике понятия метаданных (metadata), то есть данных, описывающих другие данные. Метаданные участвуют в определении классической тройки «формат — интерфейс — протокол».

Особо важным в связи с развитием искусственного интеллекта стало различение явного (эксплицитного) и неявного (имплицитного) знания. Это различие связано с ответом на вопросы «Можно ли передать знание от одного субъекта другому и насколько полно?» и «Сможет ли субъект применить переданное ему знание для решения задачи?». Сейчас эти вопросы обсуждаются сразу в нескольких областях, из которых выделим онтологическое моделирование, где онтологией называются такие знания, которые Том Грубер в 1993 году определил как «эксплицитную спецификацию концептуализации».

Сильный и слабый искусственный интеллект

Предполагается, что искусственный интеллект может быть способен мыслить и осознавать себя, пусть и не так, как это делает человек, — такой искусственный интеллект называют сильным (Strong AI или True AI). Сильный искусственный интеллект может принимать решения, действовать в условиях неопределенности, решать головоломки, и, что особенно важно, у него есть общая система знаний, представлений о мире и реальности, что позволяет ему обучаться, планировать и общаться на любую тему. Слабый искусственный интеллект (Weak AI или Narrow AI) на это не способен, но позволяет решать задачи, которые традиционно считались творческими. Большинство сегодняшних разработок относятся к слабому ИИ. С его помощью мы пытаемся автоматизировать некоторые процессы принятия решения, задачи распознавания и генерации образов. В частности, традиционно к слабому ИИ относят классическое машинное обучение.

Тест Тьюринга

Тест, предложенный Аланом Тьюрингом в 1950 году. Цель теста — определить, может ли машина мыслить неотличимо от человека. Предполагается, что программа, поддерживая диалог с экспериментатором в текстовом режиме, должна ввести его в заблуждение и убедить, что он беседует с настоящим человеком. Тест проводится в форме разговоров как с человеком, так и с компьютером. Тест считается пройденным, если экспериментатор примерно в половине случаев верно отвечает на вопрос «Говорите ли вы с компьютером?». У теста Тьюринга существует множество вариантов, а также проводится конкурс на премию Лёбнера (Loebner prize), на котором разработчики представляют свои программы для прохождения теста Тьюринга.

Зима AI

Термин впервые появился в 1984 году и означает период спада интереса к разработке искусственного интеллекта. Выделяется две «зимы»: 1974–1980 годы и 1987–1993 годы. С первым периодом связан первый неудачный опыт машинного перевода (1966), неудачи в развитии идей коннекционизма (моделирование мыслительных или поведенческих явлений как процессов становления в сетях из связанных между собой простых элементов) и в целом спад количества исследований на эту тему в ведущих международных центрах. В 1987 году резко снизился интерес к Лисп-машинам (в том числе из-за закона Мура), хотя десятилетием ранее они считались перспективной платформой для разработки искусственного интеллекта, а к 1993 году из активного обращения вышло первое поколение так называемых экспертных систем, основанных на текстовом человеко-машинном интерфейсе: их вытеснили графические системы. Одной из наиболее пострадавших областей считается область исследования нейронных сетей. Многими исследователями обсуждается приход в начале 2020-х годов новой зимы AI.


Источник: postnauka.ru

Комментарии: