Смешанные регрессионные модели в R — Иван Иванчей |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2017-05-09 20:17 Смешанные регрессионные модели в R — Иван Иванчей Классические методы статистического вывода часто требуют сбалансированных по условиям независимых наблюдений. Однако на практике мы постоянно сталкиваемся с разного рода зависимостями в данных: повторными измерениями, кластеризацией наблюдений, несбалансированностью сравниваемых условий. Это может привести к ненадёжным выводам. Один из самых эффективных способов борьбы с такими неприятностями — регрессионные модели, учитывающие отдельно главные и случайные эффекты. Иван Иванчей об одной из самых удачных реализаций этого метода — пакете lme4 для R. Телеграм: t.me/ainewsline Источник: vk.com Комментарии: |
|