Stanford выпустил новый курс: “Transformers & Large Language Models” |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-10-21 14:06 Авторы - братья Amidi, и уже вышли три бесплатные лекции на YouTube. Это, пожалуй, один из самых системных вводных курсов по современным LLM. Содержание курса: • Transformers: токенизация, эмбеддинги, attention, архитектура • Основы LLM: Mixture of Experts, типы декодирования • Обучение и настройка: SFT, RL, LoRA • Оценка моделей: LLM/VLM-as-a-judge, лучшие практики • Трюки: RoPE, аппроксимации attention, квантизация • Резонирование: масштабирование при обучении и инференсе • Agentic-подходы: RAG, tool calling Если ты уже знаком с этой темой — отличный повод освежить знания и попробовать реализовать некоторые приёмы с нуля. https://cme295.stanford.edu/syllabus/ Источник: cme295.stanford.edu Комментарии: |
|