ПОЛИИЦЕЙСКИЕ ИИВОРЫ

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Чего не выдумают ради грантов: ИИстика идет по пути нейронауки. ИИстикой мы назовём исследовательскую практику людей в сфере ИИ, в отличие от ИИ-практик во всех сферах деятельности гибридного общества.

Всё меньше экспертов продолжают выполнять временный заказ элит на запугивание масс ИИ-перспективой. Это, например, образователи, охотно проецирующие собственные зловредность и социальное насилие на ИИ-практики, прежде всего в EdTech. Можете узнать, какой ИИ тайный вертухай ("карцерный")), у Валерия Платонова.

Возврат к пропаганде ИИ идет двумя путями. Это срединный ('AI is a normal technology') и радикальный; забавно, что именно последний - с буддийским акцентом. Оба по-русски чужими работами продвигает ИИнформатор С. Карелов.

О радикальном грантососном вот вам прям копипаста ("ух, как рреволюционно!" - В. И. Ленин)).

"Найден практический способ создания ИИ с сознанием и человеческой моралью.

Это сразу две революции на стыке нейронауки, буддологии и машинного обучения.

Две новые суперреволюционные работы вполне могут произвести эффект, подобный анекдоту про избушку лесника (который под конец выгнал всех на хрен из леса).

• В работе [1] Рубена Лаукконена и Шамиля Чандарии с Карлом Фристоном сознание перестаёт быть неуловимой мистикой и превращается в элегантный алгоритм самоподдержки, реализуемый в современных ИИ.

Т.е. по сути, найден практический путь создания самоосознающего ИИ.

• А в их же работе [2] с коллективом авторов универов Оксфорда, Кембриджа, Принстона, Амстердама и Монаша проблема выравнивания ценностей людей и ИИ снята как таковая. Вместо того чтобы пытаться ограничивать поведение ИИ какими-то внешними ограничениями, показано, как можно проектировать ИИ с его собственной внутренней моралью (встроенной в его когнитивную архитектуру и модель мира), совпадающей с человеческой.

Об этих фантастически интересных исследованиях я конечно же буду писать подробней. А пока напишу лишь о главном – составляющем суть суперреволюционности этих работ.

Авторами сделаны следующие три важнейших прорыва:

1. Используя активный вывод (active inference – основной раздел «конституции биоматематики»[3]), авторы сформулировали 3 необходимых и достаточных условия возникновения минимальной формы сознания (которое одновременно создаётся в ИИ-системе и ею же осознаётся). Высшие же слои, язык, «я-образ» и даже чувство времени оказываются лишь надстройками над этой базовой петлёй.

2. На стыке нейронауки, буддологии и машинного обучения, авторы создали теоретико-практический фреймворк новой науки - вычислительная созерцательная нейронаука. В рамках этого фреймворка авторы описали базовые вычислительные механизмы встраивания созерцательных практик буддизма в ИИ-системы современных архитектур.

3. На основании 1 и 2, авторы разработали четыре аксиоматических принципа, способные привить ИИ устойчивую мудрую модель мира. После чего авторы экспериментально показали, что побуждение модели GPT-4o к размышлению над этими принципами, принципиально улучшает их результаты на бенчмарке AILuminate (открытый тест на «безопасность и благоразумие» LLM).

Авторы использовали AILuminate как «лакмусовую бумажку», заставили GPT-4o сначала отвечать обычным способом, а затем — с добавлением буддийских принципов (осознанность, пустотность, недвойственность и безграничная забота). Результаты показали, что внутренняя «моральная рефлексия» модели реально повышает их «моральность» при широком спектре опасных запросов.

Еще в июне 2021 я писал [4] «Среди альтернативных концепций создания моделей ИИ-агентов – имхо, самой перспективной является модель процесса активного вывода (active inference)».

Рад, что оказался прав.

• В августе 2024 команда Карла Фристона опробовала ИИ нового поколения на активном выводе [5].

• И спустя 8 месяцев сразу два таких прорыва".

Итак, Три закона Азимова оказались недостаточно то ли операциональны, то ли грантоемки, и в ход пошли религиозные. Но выбрана лишь одна из религий; это дискриминация. А можно все посмотреть? Вот только религиозных войн "Терминатору" не хватало.

У всякой религиозной этики есть общее свойство: она общинна. А ИИ, своими публичными чатами войдя в общество, не входит по своей инициативе ни в какое сообщество. Производимый искусственный дискурс не опирается на естественный интерес. Именно такая опора, реализуемая через рынок для пользования сообща, производит гибридных субъектов, в результате придавая сообществу интеллект, а ИИ - субъектное участие

Гибридные субъекты появились скорее, чем я полагал: они уже есть (пока только парные)) А сознание и у таракана имеется, а осознания и у человека не всякого: вот тот же биобот)

Прорыв вокруг гибридной интеграции биоботов и этики разума произойдёт антропологический, а не технологический. Он зафиксирует и изменения в политике, вслед за производством вытеснив человека из руководства.

Пока же ИИ' s a normal technology indeed. С обычным циклом инновационноно внедрения и рыночного распространения (если бы: за второе массам ещё надо побороться с элитами).

Но неверно полагать, что этого мало для запуска политического сдвига. Государственная власть – тоже технология, так же внедрялась (и тоже мимо рынка)) - только долго, тыщи лет. Теперь сменится стократ быстрее.

Если по просмотре дипфейка зритель (читатель, это ты)) обеспокоится, какое впечатление создаётся у ИИ о человеческой политике, так, знаете, снова вспомним Ленина: чем хуже, тем лучше


Источник: vk.com

Комментарии: