Александр Филатов "Эконометрика". Лекция 3.1. Регрессионный анализ. МНК |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2019-05-17 16:58 Лекция 3.1. Введение в регрессионный анализ. Линейная регрессия: матричная форма. Метод наименьших квадратов: общий случай и случай парной регрессии. Численный пример: условие, идентификация, интерпретация. Свойства оценок: состоятельность, несмещенность, эффективность. Лекция 3.2. Свойства классической линейной модели множественной регрессии. Значимость регрессоров. Построение доверительного интервала для коэффициентов регрессии. Значимость модели. Ошибки спецификации модели. Исключение значимых переменных. Полная и частичная мультиколлинеарность. Эвристические методы выявления мультиколлинеарности. Смещенные методы оценивания. Отбор наиболее существенных переменных. Метод главных компонент. 1. Видеозаписи лекций. 2. Презентации лекций. 3. Практика: презентация и датасет. УЧЕБНИКИ ПО КУРСУ И ДРУГИЕ МАТЕРИАЛЫ ЗДЕСЬ: https://vk.com/baikalreadings?w=wall-49284819_2360 Телеграм: t.me/ainewsline Источник: vk.com Комментарии: |
|