На днях в офисе кто-то из разработчиков среднего звена продемонстрировал пробелы в своем понимании нейронных сетей.

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


На днях в офисе кто-то из разработчиков среднего звена продемонстрировал пробелы в своем понимании нейронных сетей. Пришлось проводить разъяснительную работу, потому что юный прогер считал, что нейросети — это прям уже AI, следом за которым сейчас придет Скайнет и армия Терминаторов.

Начнем с того, что нейронки являются всего лишь одним из инструментов в арсенале средств машинного обучения. А машинное обучение, с свою очередь — это коллекция математических и статистических методов, которые сами оптимизируют свое выполнение в процессе работы с данными. Мы берем набор тестовых сигналов и гоняем на них наш программный код до тех пор, пока он не выдаст нам необходимый результат с нужной нам точностью. После каждого прогона мы сравниваем вывод нашей программы с эталоном и немножечко корректируем переменные, отвечающие за работу алгоритма.

Кроме нейронных сетей в машинном обучении существует еще пачка других методов: регрессии, машины на опорных векторах, кластеризаторы, байесовские методы, деревья решений, вероятностные модели и т.д. Все они имеют свои особенности, сферы применения, достоинства и недостатки. Перед тем, как углубиться в нейроники, полезно пробежаться и по остальным алгоритмам, попробовать их в деле. Иногда сложные на вид задачи решаются проще и быстрее классическими методами, чем с помощью многослойных нейросетей.

Сами же нейронки действительно немного похожи на кору головного мозга. Но лишь в общих чертах, как и серое вещество в черепушке, они состоят их взаимосвязанных элементарных элементов, уложенных в слои и взаимодействующих между собой.

Попробуйте нагуглить и написать самим перцептрон — простейшую, однако очень интересную реализацию этой архитектуры.

Долгое время нейронки были простой академической забавой, а для решения настоящих прикладных задач использовались другие алгоритмы машинного обучения. До тех пор, пока кто-то не придумал делать очень большие многослойные сети, соединяя вместе разнородные вычислительные элементы. Тут и поперло. Нейросети большого размера начали щелкать задачи, которые до этого решались плохо и дорого: распознавание сложных объектов, классификация всяких хитрых типов данных, анализ текстов, анализ видео и графики.

Естественно, для обсчета сложных вычислений нужны мощные процессоры, иначе работа с данными и построение моделей будет занимать сотни часов. И тут кто-то заметил, что нейронки куда быстрее считаются на видеочипах, просто архитектура видях куда больше соотвествует внутренней логике нейросеток, чем классические процессоры. Ну а дальше началась сплошная вакханалия — здоровенные фермы видеочипов, которые способы в реальном времени обрабатывать сложнейшие сигналы, местами не уступая (и даже превосходя) по качеству человеческий мозг. И хотя это все, конечно, выглядит круто, но мы все еще находимся далеко от реализации полноценного ИИ.

Комментарии: