Andrej Karpathy, Research Scientist, OpenAI - RE•WORK Deep Learning Summit 2016 #reworkDL

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


"We took an open-access book on algebraic geometry (*the Stacks project*) and fed it into our RNN. Now it can generate books in algebraic geometry. It generates lemmas, proofs, latex code, even tries to create diagrams."

И между прочим получается очень похоже. Понятно, что текст в целом бессвязный, даже отдельные предложения не несут особого смысла, но результат уже спокойно может работать в Корчевателе. Вполне возможно, что если обучать нейронную сеть не just for fun, а всерьёз, на большом корпусе текстов по математике и при больших затратах времени, то на выходе она будет выдавать текст, локально неотличимый от средней математической статьи. Чтобы понять, что это бред, надо будет вчитываться.

На фоне этого вовсе не выглядит фантастикой, что нейронные сети в недалёком будущем уничтожат математику. Они уже умеют читать и писать, пока на посредственном уровне, но не забываем, что этого добились меньше чем за 10 лет. Основная же суть математики (выискивание общих признаков у совершенно разных объектов и доказательств) для них вполне доступна. Если нейронные сети могут найти панду на картинке, то что им мешает выделить понятие группы?


Источник: youtu.be

Комментарии: