Наблюдение: нейронные сети в глубинном обучении размножаются методами генетического программирования

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Наблюдение: нейронные сети в глубинном обучении размножаются методами генетического программирования. Докажем это, предъявив алгоритм генерации новых статей в области.

Шаг 0. Х = 10.

Шаг 1. Если последить за каналом deep learning и почитать работы, то можно заметить, что статьи в основном, примерно так устроены: а нахерачим-ка мы то, не знаем что, с функцией потерь такой, что не знаем какой, и начнём это обучать. Получим больше, чем +Х%, точности относительно случайного угадывания.

Шаг 2. Ура! У нас больше, чем +X%, точности и в заголовке статьи стоит deep learning! Немедленно публикуемся, пока китайцы не сделали то же самое!

Шаг 3. Надо писать следующую статью. Посмотрим, у какой из архитектур нейронных сетей получается делать что-то лучше, чем у других. Возьмём эту архитектуру и каким-то случайным образом добавим к ней куски из другой архитектуры. Ух ты! Уже +(X + 1)% к случайному гаданию.

Шаг 5. Ура! У нас +(X + 1)% относительно случайного поиска. Знаем ли мы, как это работает? Нет! Но нам и не надо, нас и так опубликуют, ведь X+1 и deep learning же! Надо спешить, пока китайцы не сделали то же самое.

Шаг 6. X = X + 1. И на шаг 1.

И тут возникает вопрос: а на кой тут нужны учёные и публикации? Просто пишем генетический перебор архитектур, и вперёд. Количество публикаций автоматически сокращается раз в 10. Леса целы, суперкомпьютеры загружены, бизнесы оптимизированы. Экономия и эффективность повышаются. Человек исключается из процесса принятия решений, да и вообще, кому нужны эти людишки? Счастье же.

Нет, ну в самом деле.

Комментарии: