ТЁМНЫЙ ИНТЕЛЛЕКТ |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-07-08 12:00 обучение ни при чем Якобы большие языковые модели (LLM) общего (генеративного) искусственного "интеллекта" (ОИИ) учатся все быстрее и умеют все больше. Сегодня им пытаются ставит сложные задачи. От важных – вроде заполнения вакансии, до пустых, бесполезных и надуманных, например, – управления беспилотным автомобилем. Алгоритмы кое-как с ними справляются. Легкость их работы – кажущаяся. А конечные результаты – совершенно непрофессиональны. Они тупо не дают и даже не обещают точности. Хотя бы смешных 98%. Все остальные недостатки ОИИ для бизнеса и власти в общем-то второстепенны. Если ребятёнок (не важно сколько ему – 5 или 50) пишет сочинение или рисует картинку – ОИИ ему в помощь. Но на железную дорогу или в сталелитейное производство допуск такой фиче закрыт по определению. "Пропасть нельзя перепрыгнуть на 98 процентов", – говорили ТОП-менеджеры старых времен. Другое дело – когда ОИИ отказывает в кредите, отвергает кандидата или предлагает неверный маршрут такси – областях, где на кону не стоят человеческие жизни – о исправлении ее недостатков можно разглагольствовать сколько угодно. Подобное умничанье даже вошло в моду. О нем пишут Блюмберг и Форбес: "Плохо, если разработчики не могут объяснить, почему именно LLM-модель не точна". Якобы это – один из главных тормозов внедрения ОИИ-агентов. "Таинственность" массовых галлюцинаций уже назвали "проблемой черного ящика". Вроде как важно – как именно она генерит юридические, финансовые, репутационные и пр. ошибки по запросу госслужб и корпораций. Глупость, конечно. Но и ее иной раз важно послушать. Чтобы понять какие уловки применяют, вешая ИИ-лапшу вам на уши. Да, ОИИ-разработчики не могут с уверенностью объяснить, КАК LLM вроде ChatGPT, Gemini или Deepseek, пришли к тому или иному выводу. И тут адепты "интеллекта артифактов" делают свой главный подлог: ПРОБЛЕМА – В ПРИНЦИПАХ ОБУЧЕНИЯ МОДЕЛЕЙ. Дело в том, что сначала ОИИ-разработчики собирают датасет для обучения: книги, статьи, сайты, диалоги и пр. Затем тексты очищают и преобразуют в машиночитаемый вид, чтобы модель на них "училась". ВАШУ ЦИФРУ! Спойлер. Далее идет напёрсточное "следи за руками" – как выявлять ошибки алгоритмов, работающих с негодными, старыми, мёртвыми, вторичными данными, которые искажают действительность в момент их появления. Например – строками великого Льва Толстого или заметками захудалого писАки из NYT. Выдумали даже термин "Объяснимый ИИ" (XAI) – набор методов объяснить, почему модель пришла к конкретному выводу и какие факторы это повлияли. Используют два типа методов – универсальных и привязанных к конкртеретной архитектуре LLM. Первый – "независимые методы" (model-agnostic) для LLM любой сложности. Например, LIME (Local Interpretable Model-Agnostic Explanations) строит локальную интерпретируемую модель, которая объясняет поведение исходной модели в рамках конкретного ответа. Другой вариант – SHAP (Shapley Additive Explanations) – на теории игр – векторе Шепли. Он рассчитывает и демонстрирует вклад признаков, показывая их влияние на решение. "Встроенные методы", требуют, чтобы модели были интерпретируемы по определению – с LLM "деревьями решений" и прочей хнёй. "Механизмы внимания" (attention. Их используют, например, в GPT и BERT, ВЦ!) "позволяют увидеть", на какие части текста или данных модель обратила внимание при генерации ответа. И – прочий умный бред. Он решительно всё объясняет, но ничему не помогает. Этакий по Хармсу "человек без глаз и ушей", о котором лучше больше не говорить Источник: vk.com Комментарии: |
|