На днях в офисе кто-то из разработчиков среднего звена продемонстрировал пробелы в своем понимании нейронных сетей. |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2020-02-18 18:52 основы теории нейронных сетей, Нейронные сети для начинающих На днях в офисе кто-то из разработчиков среднего звена продемонстрировал пробелы в своем понимании нейронных сетей. Пришлось проводить разъяснительную работу, потому что юный прогер считал, что нейросети — это прям уже AI, следом за которым сейчас придет Скайнет и армия Терминаторов. Начнем с того, что нейронки являются всего лишь одним из инструментов в арсенале средств машинного обучения. А машинное обучение, с свою очередь — это коллекция математических и статистических методов, которые сами оптимизируют свое выполнение в процессе работы с данными. Мы берем набор тестовых сигналов и гоняем на них наш программный код до тех пор, пока он не выдаст нам необходимый результат с нужной нам точностью. После каждого прогона мы сравниваем вывод нашей программы с эталоном и немножечко корректируем переменные, отвечающие за работу алгоритма. Кроме нейронных сетей в машинном обучении существует еще пачка других методов: регрессии, машины на опорных векторах, кластеризаторы, байесовские методы, деревья решений, вероятностные модели и т.д. Все они имеют свои особенности, сферы применения, достоинства и недостатки. Перед тем, как углубиться в нейроники, полезно пробежаться и по остальным алгоритмам, попробовать их в деле. Иногда сложные на вид задачи решаются проще и быстрее классическими методами, чем с помощью многослойных нейросетей. Сами же нейронки действительно немного похожи на кору головного мозга. Но лишь в общих чертах, как и серое вещество в черепушке, они состоят их взаимосвязанных элементарных элементов, уложенных в слои и взаимодействующих между собой. Попробуйте нагуглить и написать самим перцептрон — простейшую, однако очень интересную реализацию этой архитектуры. Долгое время нейронки были простой академической забавой, а для решения настоящих прикладных задач использовались другие алгоритмы машинного обучения. До тех пор, пока кто-то не придумал делать очень большие многослойные сети, соединяя вместе разнородные вычислительные элементы. Тут и поперло. Нейросети большого размера начали щелкать задачи, которые до этого решались плохо и дорого: распознавание сложных объектов, классификация всяких хитрых типов данных, анализ текстов, анализ видео и графики. Естественно, для обсчета сложных вычислений нужны мощные процессоры, иначе работа с данными и построение моделей будет занимать сотни часов. И тут кто-то заметил, что нейронки куда быстрее считаются на видеочипах, просто архитектура видях куда больше соотвествует внутренней логике нейросеток, чем классические процессоры. Ну а дальше началась сплошная вакханалия — здоровенные фермы видеочипов, которые способы в реальном времени обрабатывать сложнейшие сигналы, местами не уступая (и даже превосходя) по качеству человеческий мозг. И хотя это все, конечно, выглядит круто, но мы все еще находимся далеко от реализации полноценного ИИ. Комментарии: |
|