YES WE KAN: нейросети родом из СССР |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-09-12 15:32 Крупные архитектурные прорывы в искусственном интеллекте случаются не так часто. Горячей темой последних лет стали так называемые сети Колмогорова–Арнольда (KAN). Они опираются на одноименную теорему 1957 года. Многомерная непрерывная функция может быть представлена как композиция конечного числа функций одной переменной и операции сложения ? Фактически это позволяет выразить любую страшненькую функцию, описывающую наши данные, двухслойной нейросетью с простыми функциями. Удобно! Однако теорема советских математиков десятилетиями считалась теоретической конструкцией, невозможной для применения в ИИ из-за технических ограничений. И вот 30 апреля 2024 года на arXiv неожиданно вышла статья специалистов из MIT, Калтеха и других институтов, где они продемонстрировали работающую KAN и библиотеку для нее — pykan. Ученым удалось обойти проблемы с гладкостью функций и, главное, — сделать сеть глубокой. После чего за считанные месяцы расцвел целый сад различных KAN’ов. Оказалось, что новаторская архитектура работает не хуже, а где-то и лучше привычных нам нейросетей (на базе многослойного перцептрона). Например, KAN’ы показали мощь в научных задачках: решения диффуров в частных производных, извлечения признаков из МРТ-снимков, анализ данных на графах, молекулярной динамике. В KAN обучаемы сами функции активации, а архитектура более интерпретируема в отличие от классических сеток — «черных ящиков». С помощью KAN можно выводить уравнения физических законов прямо из данных! Видеть имя Колмогорова в области ИИ неудивительно. Андрей Колмогоров — «советский фон Нейман», внес вклад в самые разные области математики, многие из которых крайне важны для компьютерных наук и ML: логика, теория алгоритмов и информации, теория вероятностей и статистика... И здесь на ум еще приходит критерий Колмогорова–Смирнова, предложенный в 1933 году. Его используют для проверки гипотезы о соответствии эмпирического распределения теоретическому. Чаще всего — нормальному. Но что если ваша выборка провалила проверку на нормальность — «гудбай t-тест»? Или это неправда? ? Об этом мы завтра и порассуждаем вместе с Еленой Убогоевой: надо ли вообще проверяться на нормальность? в каких случаях применять непараметрику? как быть с «выбросами» и множественным тестированием? Острейшие вопросы — сам Колмогоров заглянул бы на вебинар ? Ждем и вас. Пятница в 18:30 мск Все ссылочки в комментариях к посту Источник: vk.com Комментарии: |
|