Наблюдение: нейронные сети в глубинном обучении размножаются методами генетического программирования |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2016-12-13 18:58 алгоритмы машинного обучения, реализация нейронной сети, генетические алгоритмы Наблюдение: нейронные сети в глубинном обучении размножаются методами генетического программирования. Докажем это, предъявив алгоритм генерации новых статей в области. Шаг 0. Х = 10. Шаг 1. Если последить за каналом deep learning и почитать работы, то можно заметить, что статьи в основном, примерно так устроены: а нахерачим-ка мы то, не знаем что, с функцией потерь такой, что не знаем какой, и начнём это обучать. Получим больше, чем +Х%, точности относительно случайного угадывания. Шаг 2. Ура! У нас больше, чем +X%, точности и в заголовке статьи стоит deep learning! Немедленно публикуемся, пока китайцы не сделали то же самое! Шаг 3. Надо писать следующую статью. Посмотрим, у какой из архитектур нейронных сетей получается делать что-то лучше, чем у других. Возьмём эту архитектуру и каким-то случайным образом добавим к ней куски из другой архитектуры. Ух ты! Уже +(X + 1)% к случайному гаданию. Шаг 5. Ура! У нас +(X + 1)% относительно случайного поиска. Знаем ли мы, как это работает? Нет! Но нам и не надо, нас и так опубликуют, ведь X+1 и deep learning же! Надо спешить, пока китайцы не сделали то же самое. Шаг 6. X = X + 1. И на шаг 1. И тут возникает вопрос: а на кой тут нужны учёные и публикации? Просто пишем генетический перебор архитектур, и вперёд. Количество публикаций автоматически сокращается раз в 10. Леса целы, суперкомпьютеры загружены, бизнесы оптимизированы. Экономия и эффективность повышаются. Человек исключается из процесса принятия решений, да и вообще, кому нужны эти людишки? Счастье же. Нет, ну в самом деле. Комментарии: |
|