Объяснение всех 20 концепций LLM (больших языковых моделей) так, чтобы понял 10-летний ребёнок: |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-05-27 13:36 Основы: как ИИ «читает» и «понимает» 1. Tokenization (Разделение на кусочки) Представь, что ты разрезаешь текст на кусочки, как пиццу — чтобы модель могла «съесть» и понять каждый кусок отдельно. 2. Attention Mechanism (Механизм внимания) Как если бы ИИ надевал волшебные очки и смотрел только на самые важные слова в тексте. 3. Transformer Architecture (Архитектура трансформера) Это как скелет и мозг ИИ — специальная схема, которая помогает ему читать, думать и отвечать. Как настраивают ИИ 4. Parameter Size (Размер мозга) Чем больше «клеточек мозга» у ИИ (параметров), тем больше он может запомнить и понять — как супербольшой мозг! 5. Fine-tuning (Подстройка под задачу) Как если бы ты учил ИИ не всему на свете, а только готовить бургеры или решать задачки по математике. 6. Prompt Engineering (Правильный вопрос) Это как волшебные слова, чтобы ИИ дал лучший ответ. Спрашиваешь по-умному — получаешь хороший ответ. 7. Context Window (Объем памяти) Это как длина истории, которую ИИ может удерживать в голове. Если история слишком длинная — он забудет начало. 8. Temperature Setting (Температура — уровень креативности) Когда температура низкая — ИИ отвечает строго и точно. Когда высокая — начинает фантазировать, как поэт. Как ИИ представляет знания 9. Embedding (Слова в виде чисел) Он не понимает слова, как мы. Он превращает их в цифры, как в секретном шпионском коде. 10. Few-shot Learning (Покажи пример — я пойму) Как если бы ты показал ИИ пару примеров — и он понял, как решать остальное. 11. Zero-shot Learning (Пойму без примеров) А тут вообще не нужно показывать — он угадывает, основываясь на том, что уже знает. 12. Chain-of-Thought Prompting (Думай по шагам) Вместо «просто ответь», ты говоришь: «Подумай вслух» — и он решает задачу шаг за шагом. Как ИИ думает и делает выводы 13. Inference (Вывод) Это когда модель «думает» и выдает тебе ответ — как калькулятор, но умный. 14. Self-attention (Само-внимание) Это как если бы ИИ сам себя переспросил: «А что тут важно?» — и учёл все детали. 15. Pre-training (Общее обучение) Как если бы ты читал все книги в библиотеке до того, как тебе задали первый вопрос. Разные типы ИИ-мозгов 16. Decoder-only Models (Генератор текста) Эти модели просто болтают — ты что-то говоришь, а они продолжают. 17. Encoder-Decoder Models (Переводчики) Это как переводчик: один блок читает, второй — говорит по-другому (например, с английского на испанский). Когда ИИ ошибается 18. Hallucination (Придумывает небылицы) Бывает, он говорит с умным видом, но на самом деле выдумывает! Как ребёнок, который фантазирует. 19. RLHF (Обучение с человеком) Это как если бы ты говорил ИИ: «Вот это хорошо, а это плохо» — и он учится делать лучше. 20. Alignment (Чтобы не ляпнул лишнего) Это как воспитание: учат, чтобы ИИ был вежливым, не врал и слушался правил Фикрат Шабанов Источник: vk.com Комментарии: |
|