Аристотель и чат-бот: Как древние правила логики помогли сделать искусственный интеллект более человечным

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Многие попытки создать искусственный интеллект опираются на мощные системы математической логики. Они, как правило, дают результаты, которые имеют логический смысл для компьютерной программы—но результат не очень человеческий.

В нашей работе по созданию терапевтических чат-ботовмы обнаружили, что использование другого вида логики-впервые формализованной греческим философом Аристотелем более 2000 лет назад-может привести к результатам, которые более подвержены ошибкам, но также гораздо больше похожи на реальных людей.

Различные виды логики

Основой науки наших чат-ботов является формальная логика. Современная формальная логика опирается на математику, но так было не всегда.

Открытие и формализация логики приписывается Аристотелю (384-322 до н. э.) в его собрании сочинений "Органон"(или "инструмент").

Здесь он задокументировал первый принцип вывода из множества посылок. Это позже будет называться умозаключением, руководствуясь правилами, известными как силлогизмы.

Начиная с XX века, область логики отошла от подхода Аристотеля к системам, использующим предикатную и пропозициональную логику. Эти типы логики были разработаны математиками для математических приложений; поэтому они называются математической логикой. Их рассуждения должны быть непогрешимыми.

С другой стороны, человеческий разум не всегда безошибочен. Мы в основном рассуждаем с помощью дедукции, индукции и похищения.

Вы можете думать о дедукции как об использовании обобщенных правил для рассуждения о конкретном примере, в то время как индукция и похищение включают в себя просмотр набора примеров и попытку разработать правила, которые объясняют их.

В то время как дедукция имеет тенденцию быть наиболее точной, индукция и похищение менее надежны. Это сложные процессы, которые нелегко запрограммировать в машинах.

Возможно, индукция и похищение-это то, что отделяет человеческий интеллект, обширный и общий, но часто неточный, от узкого, но все более точного интеллекта машин.

Логика чата

Мы обнаружили, что использование математической логики делает наших чат-ботов менее способными к осмысленному взаимодействию с людьми.

Например, одно человеческое высказывание часто имеет мало смысла без большого контекста того, что лингвисты называют влечениями, пресуппозициями и импликациями .

В то время как наш мозг учитывает этот контекст автоматически, машины должны использовать некоторую форму эквивалентной логики.

Искусственный общий интеллект

Одна школа мысли предполагает, что части логики Аристотеля, в настоящее время называемые термином логика, и его правила вывода, могли бы сформировать основные компоненты искусственного общего интеллекта (ИИ).

OpenCog и OpenNars-это известные исследовательские платформы AGI, в основе которых лежит логика терминов. В настоящее время эти платформы способны к общецелевым рассуждениям для потенциальных применений в здравоохранении и робототехнике.

Термин логика

Термин логика состоит из основных единиц значения, которые связаны между собой тем, что лингвисты называют "связкой". Чтобы написать "птица-это животное" в терминологии, мы могли бы использовать связку, обозначенную " ->", что интуитивно означает "это особый вид", например:

Птица - > Животное

Это очень простой пример, но возможны и более сложные и выразительные высказывания .

Термин логика и силлогизмы также избегают некоторых логических парадоксов, которые часто возникают при вписывании естественного языка в логическую структуру.

Примеры различных форм рассуждений, которые удачно поддерживает термин логика. Выводы даны красным цветом. Дедукция непогрешима, в то время как индукция и похищение ошибочны.

Например, в большинстве систем формальной логики абсурдное утверждение типа "если Луна сделана из сыра, то миру приходит конец" считается обоснованным аргументом. (Это называется парадоксом материальной импликации, и происходит потому, что если часто имеет очень разные значения в естественном языке и в формальной логике.)

Аристотель, однако, утверждал, что силлогизмы-это то, что должно следовать из двух независимых посылок, которые разделяют один (и только один) термин. Это правило позволяет нам отказаться от приведенного выше аргумента, поскольку две части аргумента ("Луна сделана из сыра "и" мир подходит к концу") не имеют общего термина.

Ошибочное рассуждение

Исследователи аги расширили силлогизмы Аристотеля, допуская выводы, которые могут быть истинными с некоторой степенью неопределенности (ошибочное рассуждение), а также те, которые должны быть истинными (например, из дедуктивного рассуждения). Термин логика легко поддерживает эти формы рассуждения.

Верования и истины

Теперь, когда мы можем сделать выводы, которые могут быть истинными, мы должны идентифицировать их как убеждения с соответствующим значением истинности.

В том, как определить истинностную ценность убеждения, некоторые исследователи аги расходятся во мнениях. Подход проекта OpenNars больше всего похож на человеческую систему верований, где он подсчитывает количество независимых доказательств за и против веры, чтобы определить, сколько доверия к ней нужно вложить.

Виртуальные компаньоны ИИ

Так как же голос Аристотеля может быть услышан в нашей технологии чат-бота?

В австралийском исследовательском Центре электронного здравоохранения CSIRO мы разрабатываем чат-боты, чтобы помочь людям лучше управлять своим здоровьем и благополучием.

Мы начали использовать AGI в нашей технологии чат-ботов для тех, у кого есть проблемы с коммуникацией и кто извлекает выгоду из технологических взаимодействий. Наша Версия в основном вдохновлена платформой OpenNars, но наполнена другими компонентами, которые мы нашли полезными.

Вместо того, чтобы просто вычислять ответ из последовательности слов, ответы от чат-бота выводятся из отношений между миллиардами терминов. Убеждения с низкой степенью уверенности могут быть отправлены обратно пользователю (например, человеку, спрашивающему чат-бота о симптомах) в виде вопросов.

Мы думаем, что в будущем это позволит обеспечить более активное, глубокое и естественное взаимодействие между человеком и машиной. Убеждения и" личность " чат-бота будут адаптированы к пользователю.

2000-летняя логика Аристотеля оказала глубокое влияние на западную цивилизацию. Переосмысление его древних работ вполне может вывести нас на новый рубеж взаимодействия человека и компьютера.


Источник: techxplore.com

Комментарии: