30 базовых концепций LLM |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-02-07 11:36 1. LLM (Large Language Model) — модель, которая генерирует текст, предсказывая наиболее вероятный следующий токен. 2. Token (токен) — фрагмент текста, например, слово или знак препинания. 3. Tokenization (токенизация) — процесс преобразования текста в последовательность токенов. 4. Embeddings (эмбеддинги) — числовые векторы, которые отражают значение токенов. 5. Latent Space (латентное пространство) — математическое пространство, где эмбеддинги организуются по смыслу. 6. Parameters (параметры) — внутренние переменные, хранящие усвоенные моделью паттерны. 7. Pre-training (предварительное обучение) — обучение на огромных объёмах текстовых данных для освоения языковых паттернов. 8. Base Model (базовая модель) — предварительно обученная модель, которая предсказывает текст, но не следует инструкциям. 9. Instruct Model (модель с инструкциями) — базовая модель, дополнительно обученная следовать инструкциям и давать полезные ответы. 10. Fine-Tuning (дообучение) — дополнительное обучение на меньшем наборе данных для формирования поведения модели. 11. Alignment (выравнивание) — обеспечение того, чтобы поведение модели было полезным, честным и безвредным. 12. RLHF (Reinforcement Learning with Human Feedback — обучение с подкреплением с обратной связью от человека) — использование ранжированных человеком ответов для корректировки поведения модели. 13. Prompt (промпт) — полный ввод, отправляемый модели, включая инструкции и контекст. 14. System Prompt (системный промпт) — высокоуровневые инструкции, определяющие роль и ограничения модели. 15. User Prompt (пользовательский промпт) — конкретный вопрос или инструкция, предоставленная пользователем. 16. Context Window (окно контекста) — максимальное количество токенов, которое модель может обработать за один раз. 17. Zero-Shot Learning (обучение без примеров) — выполнение задачи без примеров в промпте. 18. Few-Shot Learning (обучение на нескольких примерах) — включение примеров в промпт для направления формата вывода или поведения. 19. Chain of Thought (цепочка мыслей) — побуждение модели демонстрировать пошаговое рассуждение. 20. Inference (вывод) — процесс генерации выходных токенов с помощью обученной модели. 21. Latency (задержка) — время между отправкой промпта и получением вывода. 22. Temperature (температура) — параметр, контролирующий случайность при выборе токенов. 23. Hallucination (галлюцинация) — уверенная генерация неверной или вымышленной информации. 24. Grounding (привязка к реальности) — ограничение вывода предоставленной или проверяемой информацией. 25. RAG (Retrieval-Augmented Generation — генерация, дополненная поиском) — извлечение внешних данных и добавление их в промпт перед генерацией. 26. Workflow (рабочий процесс) — фиксированная, предопределённая последовательность шагов, которых придерживается LLM. 27. Agent (агент) — система, в которой LLM планирует действия, а затем динамически выбирает шаги и инструменты. 28. Multimodality (мультимодальность) — способность обрабатывать несколько типов входных данных, таких как текст и изображения. 29. Benchmarks (бенчмарки) — стандартизированные тесты для сравнения возможностей модели. 30. Guardrails (ограничители) — системы, блокирующие небезопасные или неподходящие входные и выходные данные. Источник: vk.com Комментарии: |
|