ТЁМНЫЙ ИНТЕЛЛЕКТ

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2025-07-08 12:00

Психология ИИ

обучение ни при чем

Якобы большие языковые модели (LLM) общего (генеративного) искусственного "интеллекта" (ОИИ) учатся все быстрее и умеют все больше. Сегодня им пытаются ставит сложные задачи. От важных – вроде заполнения вакансии, до пустых, бесполезных и надуманных, например, – управления беспилотным автомобилем.

Алгоритмы кое-как с ними справляются. Легкость их работы – кажущаяся. А конечные результаты – совершенно непрофессиональны. Они тупо не дают и даже не обещают точности. Хотя бы смешных 98%. Все остальные недостатки ОИИ для бизнеса и власти в общем-то второстепенны.

Если ребятёнок (не важно сколько ему – 5 или 50) пишет сочинение или рисует картинку – ОИИ ему в помощь. Но на железную дорогу или в сталелитейное производство допуск такой фиче закрыт по определению. "Пропасть нельзя перепрыгнуть на 98 процентов", – говорили ТОП-менеджеры старых времен.

Другое дело – когда ОИИ отказывает в кредите, отвергает кандидата или предлагает неверный маршрут такси – областях, где на кону не стоят человеческие жизни – о исправлении ее недостатков можно разглагольствовать сколько угодно.

Подобное умничанье даже вошло в моду. О нем пишут Блюмберг и Форбес: "Плохо, если разработчики не могут объяснить, почему именно LLM-модель не точна". Якобы это – один из главных тормозов внедрения ОИИ-агентов. "Таинственность" массовых галлюцинаций уже назвали "проблемой черного ящика". Вроде как важно – как именно она генерит юридические, финансовые, репутационные и пр. ошибки по запросу госслужб и корпораций.

Глупость, конечно. Но и ее иной раз важно послушать. Чтобы понять какие уловки применяют, вешая ИИ-лапшу вам на уши.

Да, ОИИ-разработчики не могут с уверенностью объяснить, КАК LLM вроде ChatGPT, Gemini или Deepseek, пришли к тому или иному выводу. И тут адепты "интеллекта артифактов" делают свой главный подлог: ПРОБЛЕМА – В ПРИНЦИПАХ ОБУЧЕНИЯ МОДЕЛЕЙ.

Дело в том, что сначала ОИИ-разработчики собирают датасет для обучения: книги, статьи, сайты, диалоги и пр. Затем тексты очищают и преобразуют в машиночитаемый вид, чтобы модель на них "училась".

ВАШУ ЦИФРУ! Спойлер. Далее идет напёрсточное "следи за руками" – как выявлять ошибки алгоритмов, работающих с негодными, старыми, мёртвыми, вторичными данными, которые искажают действительность в момент их появления. Например – строками великого Льва Толстого или заметками захудалого писАки из NYT.

Выдумали даже термин "Объяснимый ИИ" (XAI) – набор методов объяснить, почему модель пришла к конкретному выводу и какие факторы это повлияли. Используют два типа методов – универсальных и привязанных к конкртеретной архитектуре LLM.

Первый – "независимые методы" (model-agnostic) для LLM любой сложности. Например, LIME (Local Interpretable Model-Agnostic Explanations) строит локальную интерпретируемую модель, которая объясняет поведение исходной модели в рамках конкретного ответа. Другой вариант – SHAP (Shapley Additive Explanations) – на теории игр – векторе Шепли. Он рассчитывает и демонстрирует вклад признаков, показывая их влияние на решение.

"Встроенные методы", требуют, чтобы модели были интерпретируемы по определению – с LLM "деревьями решений" и прочей хнёй. "Механизмы внимания" (attention. Их используют, например, в GPT и BERT, ВЦ!) "позволяют увидеть", на какие части текста или данных модель обратила внимание при генерации ответа.

И – прочий умный бред. Он решительно всё объясняет, но ничему не помогает. Этакий по Хармсу "человек без глаз и ушей", о котором лучше больше не говорить


Источник: vk.com

Комментарии: