Александр Филатов "Эконометрика". Лекция 3.1. Регрессионный анализ. МНК |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2019-05-17 16:58 Лекция 3.1. Введение в регрессионный анализ. Линейная регрессия: матричная форма. Метод наименьших квадратов: общий случай и случай парной регрессии. Численный пример: условие, идентификация, интерпретация. Свойства оценок: состоятельность, несмещенность, эффективность. Лекция 3.2. Свойства классической линейной модели множественной регрессии. Значимость регрессоров. Построение доверительного интервала для коэффициентов регрессии. Значимость модели. Ошибки спецификации модели. Исключение значимых переменных. Полная и частичная мультиколлинеарность. Эвристические методы выявления мультиколлинеарности. Смещенные методы оценивания. Отбор наиболее существенных переменных. Метод главных компонент. 1. Видеозаписи лекций. 2. Презентации лекций. 3. Практика: презентация и датасет. УЧЕБНИКИ ПО КУРСУ И ДРУГИЕ МАТЕРИАЛЫ ЗДЕСЬ: https://vk.com/baikalreadings?w=wall-49284819_2360 Источник: vk.com Комментарии: |
|