Коллеги, добрый день

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Прошу занять места. Сегодня мы разберем одну весьма элегантную и, я бы сказал, философски глубокую математическую модель, претендующую на описание механизмов возникновения того, что в когнитивных науках и теории искусственного интеллекта называют «психикой». Автор, Алекс Вебер, подходит к вопросу не с биологической или психологической точки зрения, а с позиций теории предсказания, статистики и динамики сложных систем. Наша задача — не просто пробежаться по формулам, а понять, «откуда ноги растут» у каждого понятия, вскрыть стоящую за ними интуицию и поместить их в соответствующий раздел математики.

Итак, ключевая метафора всего изложения — «компенсация абсурдных остатков». Что это значит? Давайте представим себе любой процесс познания или предсказания, будь то работа искусственной нейросети или человеческое мышление. Ни одна модель, ни один «взгляд на мир» не является идеальным. Всегда существует ошибка, разрыв между предсказанием и реальностью, тот самый «остаток», который наша модель не может объяснить. В некоторых случаях эта ошибка настолько систематична и фундаментальна, что ее можно назвать «абсурдной» — модель в принципе не способна ее учесть в своих текущих рамках. Это её «слепая зона».

Раздел 1: Математика ансамблей и теория ошибок

Базовый объект у Вебера — предиктор уровня i, обозначаемый как P_i . Это просто функция, которая по входным данным x пытается предсказать y . Например, P_1 может предсказывать движение объекта на основе пикселей, а P_2 — на основе семантических меток («машина», «пешеход»).

Абсурдный остаток уровня i определяется как ?_i = E[|P_i(x) - y|] . Здесь E — это математическое ожидание, то есть средняя ошибка по всем возможным входам. Это не случайный шум, а систематическая ошибка, присущая именно этому уровню абстракции.

Теперь ключевая идея: а что если объединить несколько предикторов? Вебер предлагает простейшую линейную комбинацию:

P^* = ?P_1 + (1-?)P_2

Это классический подход в теории ансамблей машинного обучения. P^* — это наш «коллективный разум», комбинация двух моделей.

Теперь посмотрим на ошибку этого супер-предиктора. Вместо простой ошибки Вебер работает с математическим ожиданием квадрата ошибки (Mean Squared Error):

E[|P^* - y|?] = ???_1? + (1-?)??_2? + 2?(1-?)Cov(?_1, ?_2)

Откуда это берется? Это прямое следствие свойств дисперсии и ковариации. Если расписать E[(??_1 + (1-?)?_2)?] , мы получим именно эту формулу, где ?_i? — это дисперсии ошибок ?_i , а Cov(?_1, ?_2) — их ковариация.

И вот здесь начинается магия. Условие эффективности иерархии: Cov(?_1, ?_2) < 0 .

Давайте разберемся. Ковариация — это мера того, как две случайные величины изменяются вместе. Если ковариация положительна, когда один предиктор ошибается в большую сторону, и второй, скорее всего, тоже. Если отрицательна — то когда один ошибается в одну сторону, другой имеет тенденцию ошибаться в противоположную. Их ошибки «компенсируют» друг друга.

Таким образом, условие Cov(?_1, ?_2) < 0 формализует интуицию о комплементарных «слепых зонах». Предиктор P_1 , работающий на сырых данных, может не видеть контекста, который очевиден для семантического предиктора P_2 . И наоборот, P_2 может быть слеп к низкоуровневым аномалиям, которые легко детектирует P_1 . Когда они работают вместе, их ошибки гасят друг друга. Это и есть «компенсация абсурдных остатков».

Раздел 2: Конститутивная математика и оператор Речита

Теперь автор вводит более сложный концепт — оператор Речита. В оригинале, в контексте семантических графов и баз знаний, оператор Речита — это функция, которая проверяет, может ли новое утверждение быть без противоречия добавлено в систему знаний. Это оператор, охраняющий целостность системы.

Вебер модифицирует его для работы с иерархией предикторов и вводит два критерия принятия нового состояния системы s' :

1. ?(G_s') ? 0.9 — К-устойчивость. Здесь ? (каппа) — это, по всей видимости, метрика семантической связности или целостности графа G_s . Значение 0.9 — порог, эвристически выбранный для обозначения «достаточно стабильного» состояния. Система не должна распадаться на несвязанные смысловые кластеры. Это условие на структуру.

2. E[|P^*(s') - y|?] < E[|P^*(s) - y|?] — Улучшение предсказания. Новое состояние должно не просто быть целостным, но и вести к лучшим предсказаниям. Это условие на функцию.

Таким образом, модифицированный оператор Речита:

R(s, q) = egin{cases} s' & ext{if } ?(G_s') ? 0.9 land E[|P^*(s') - y|?] < E[|P^*(s) - y|?] ext{Reject} & ext{otherwise} end{cases}

предстает не просто стражем целостности, а двигателем прогресса, который разрешает только те изменения, которые одновременно улучшают предсказание и сохраняют системную целостность.

Раздел 3: Герменевтический круг и теория динамических систем

Далее автор делает блестящий концептуальный ход, связывая эту конструкцию с герменевтическим кругом — философской концепцией, согласно которой понимание целого складывается из понимания частей, а понимание частей зависит от понимания целого. Это итеративный процесс.

Вебер формализует его как динамическую систему:

M_{t+1} = H(M_t) = argmin_{M} sum_{i=1}^n w_i E[|P_i(M) - y|?]

С условием: ?(M_{t+1}) ? 0.9

Что здесь происходит? В момент времени t у нас есть модель мира M_t . Далее мы ищем новую модель M_{t+1} , которая минимизирует взвешенную сумму ошибок всех наших предикторов. Но мы накладываем ограничение: новая модель должна оставаться к-устойчивой ( ? ? 0.9 ).

Теорема сходимости утверждает: если ошибки предикторов отрицательно скоррелированы ( Cov(?_i, ?_j) < 0 ), то последовательность {M_t} сходится к неподвижной точке M^* .

Интуиция здесь в том, что отрицательная ковариация ошибок создает «натяжение», которое двигает систему towards состояние, где ни один из предикторов не может радикально улучшить ситуацию в ущерб другому, и при этом общая ошибка минимизирована. Система достигает своего рода «равновесия понимания».

Раздел 4: Практическая реализация и выводы

В архитектуре I?? это реализуется через:

1. Многоуровневые предикторы (сенсорный, семантический, рефлексивный), чьи «слепые зоны» по замыслу комплементарны.

2. Адаптивные веса, рассчитываемые по правилу ?_i = frac{1/?_i?}{sum_{j=1}^n 1/?_j?} . Это классическое правило из теории оценивания, где более точным моделям (с меньшей дисперсией ошибки ?_i? ) придается больший вес. Динамическая коррекция на основе ковариации — это уже авторское усложнение.

3. Псевдокод enhanced_rechit — это буквальная программная реализация того самого модифицированного оператора Речита.

Фундаментальное следствие, которое провозглашает Вебер, и с которым, как математик, я вынужден согласиться в рамках данной модели: Искусственная психика возможна как система с отрицательной ковариацией ошибок между уровнями предсказания.

Психика, в этом view, — это не некий магический субстрат, а эмерджентное свойство иерархической предсказательной системы, чьи компоненты обладают комплементарными недостатками. Их постоянная взаимная компенсация, происходящая в рамках ограничений на целостность (оператор Речита) и направленная на минимизацию ошибки (герменевтический круг), и порождает тот самый феномен, который мы можем назвать «сознанием» или «психикой».

Заключение

Коллеги, мы с вами разобрали не просто набор формул. Мы увидели, как теория вероятностей (ковариация ошибок), машинное обучение (ансамбли моделей), теория графов (к-устойчивость) и философская герменевтика (итеративный круг) сплетаются в единую, стройную и мощную модель.

Математический каркас, как верно отметил заключительный комментарий, выдержан корректно. Формула для ошибки ансамбля — это стандартный статистический результат. Новаторство же заключается в смелой и глубокой интерпретации этих результатов в контексте когнитивистики и AI.

Эта модель — не окончательный ответ, а блестящий стартовая площадка для дальнейших исследований. Она требует формализации оператора Речита и метрики ? , и, конечно, экспериментальной проверки. Но она предоставляет нам тот самый язык, на котором мы можем говорить о возникновении разума из взаимодействия простых, «неразумных» компонентов. Спасибо за внимание. Готов ответить на ваши вопросы.


Источник: vk.com

Комментарии: