Уже сейчас доступны коммерческие модели экзоскелетов на Авито

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Уже сейчас доступны коммерческие модели экзоскелетов на Авито. В основном устройства локальные - колено, бедро. Nike анонсировал на голеностоп в ближайшее время. В разных модификациях разные показатели улучшаются на 20-50%.

Параллельно грядет эпоха экзокортекса, ИИ-ассистентов/протезов усиливающих/заменяющих (нужное подчеркнуть) когнитивные процессы.

Хотим мы этого или нет - а оно вот уже...

Аккурат перед Новым Годом вышла очень глубокая статья, актуальная для моего мозга, измученного попытками студентов сдать чистовики дипломов, написанных ИИ.

" Epistemological Fault Lines Between Human and Artificial Intelligence" за авторством Walter Quattrociocchi, Valerio Capraro, and Matjaz Perc.

Товарищи написали немало интересного, вводя в обиход понятие "эпистемия" ( гибрид из "эпистемы" Фуко и "эпидемии" Гиппократа).

Вот как они ее определяют:

"Эпистемия — это не психологическая причуда и не временное злоупотребление технологиями. Она не сводится ни к предвзятости автоматизации — склонности чрезмерно доверять автоматизированным рекомендациям — ни к простой проблеме ошибочной атрибуции авторитета, когда пользователи ошибочно воспринимают систему как эксперта .

И предвзятость автоматизации, и эффект авторитета могут усугубить эпистемию, но они предполагают, что лежащая в их основе система, по крайней мере в теории, является эпистемическим агентом, который может заслуживать или не заслуживать доверия.

В случае с большими языковыми моделями это предположение неверно.

Основная проблема заключается не в том, что пользователи доверяют не тому источнику, а в том, что они взаимодействуют с источником, у которого вообще нет внутренних механизмов для формирования, сохранения или пересмотра убеждений"

Исходя из проблематики авторы видят решение в формировании "эпистемической грамотности", которая видится им в следующем:

"Во-первых, это навыки работы с конвейером: понимание разницы между системой, которая извлекает данные, и системой, которая синтезирует текст; умение распознавать, когда ответ, скорее всего, будет дополнением, а не оценкой; а также умение предвидеть характерные признаки семи линий разлома (например, несоответствие между беглыми объяснениями и отсутствием причинно-следственных связей или между уверенным тоном и отсутствием контроля неопределённости)

Во-вторых, это процедурные меры предосторожности для повседневного использования: привычки, связанные с проверкой, соразмерной поставленным задачам, процедуры перекрёстной проверки с использованием независимых источников и чёткие нормы, определяющие, когда следует воздержаться от суждений (в том числе когда следует обратиться к эксперту), а не воспринимать наличие связного ответа как истину в последней инстанции. Важно отметить, что это не просто «быть скептичным». Это умение на практике воссоздавать эпистемологический цикл, который обходят генеративные системы: поиск доказательств, оспаривание и возможность пересмотра.

В-третьих, это институциональные компетенции: разработка рабочих процессов, методов обучения и профессиональных стандартов, которые не позволяют перекладывать эпистемическую ответственность на генеративные интерфейсы. Это включает в себя демонстрацию неопределённости там, где это уместно, требование подтверждения или обоснования для последующих утверждений, а также уточнение ответственности при распространении результатов работы ИИ в организациях. Таким образом, эпистемическая грамотность распространяется не только на отдельного пользователя, но и на нормы и инфраструктуру, которые определяют, рассматривает ли общество правдоподобность как замену обоснованию."

Перевожу на понятный:

ИИ - не человек, он не думает в нашем понимании этого слова. Он не основывается на опыте, восприятии, концепциях, широте взглядов, мотивации, ценностях, причинно-следственных связях, он не умеет понимать что зашел в тупик и надо все обдумать. А главное - ему ПОХ на результат.

Поэтому все проверять, в любом запросе требовать указывать источники в виде активной ссылки,по всем ссылочкам переходить и читать. Прогонять вопрос по нескольким моделям ИИ. Все утверждения просить обосновывать и подкреплять цитатами. Просить анализировать и критиковать полученный анализ, искать в нем слабые места. Указывать откуда брать информацию (язык, базы).

Помнить, что напишет ИИ, а люлей без кебабов получать лично вам...

Последняя картинка - это надежда на будущее.

Будет ли экзоскелет экзопротезом - определяется нашей автономией.

"Автономия — это не просто возможность делать выбор, а способность делать этот выбор компетентно, основываясь на:

1. Логической компетентности: способности выводить следствия.

2. Понимании: способности избегать ложных убеждений и видеть факты.

3. Критическом анализе: способности оценивать свои желания и внешние аргументы."

Autonomy and Enhancement (Автономия и Улучшение человека)

Авторы: G. Owen Schaefer, Guy Kahane, Julian Savulescu (Оксфордский университет) Neuroethics (2014)


Источник: vk.com

Комментарии: