Заметки с MBC Symposium: применение deep learning в моделировании мозга |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2016-04-24 21:11 Посетил Стенфордский симпозиум, посвященный пересечению deep learning и neurosciencе, получил массу удовольствия.
Рассказываю про интересное - например, доклад Дэна Яминса о применении нейросетей для моделирования работы зрительной коры головного мозга. Disclaimer: пост написан на основе изрядно отредактированных логов чата closedcircles.com, отсюда и стиль изложения, и уточняющие вопросы. Вот линк на полный доклад, он клевый, но смотреть, пожалуй, лучше после чтения поста. Дэн занимается computational neuroscience, т.е. пытается вычислительными методами помочь исследованию мозга. И там, как и везде, случается deep learning. Вообще, устройство зрительной коры на высоком уровне мы чуть-чуть понимаем
Когда мы видим какое-то изображение, глаз вызывает активации нейронов, активации проходят через разные участки мозга, которые выделяют из них все более высокоуровневое представление. V1 еще называется primary visual cortex и он неплохо исследован - там есть нейроны, которые прогоняют некие фильтры над изображением, и активируются на линиях под разными углами и простеньких градиентах. Есть даже успехи в моделировании этой части - мол, придумать какую-то модель, посмотреть как нейроны активируются на входном изображении, зафиттитить, и потом эта модель вполне себе предсказывает активации этих нейронов на новых картинках. С V4 и IT (более высокими уровнями обработки) так не получается. Откуда вообще берутся данные про биологические нейроны? Типичный эксперимент выглядит так - берется обезьянка, ей в некоторую часть мозга втыкаются электроды, которые снимают сигналы с нейронов, в которые они попали. Обезьянке показывают разные картинки и снимают сигнал с электродов. Так делают на нескольких сотнях нейронов - количество нейронов всего в исследуемых долях мозга огромно, меряют всего сотни. Оказывается, если попытаться зафиттить модель на активацию биологических нейронов в V4 и IT, происходит оверфиттинг - данных мало и для новых картинок модель уже ничего не предсказывает. Дэн-сотоварищи пробуют сделать по-другому Давайте возьмем модель и натренируем ее на какую-то задачу распознавания, чтобы искусственные нейроны в ней распознавали что-то на этих картинках. Вот теперь внимательно следим за руками. Они тренируют модели (CNNs и более простые модели из обычного computer vision) распознавать объекты на синтетических картинках. Картинки вот такие:
Объект не коррелирует с бэкграундом - может быть и самолет на фоне озера, и голова на фоне какого-то дикого леса (я так понимаю, чтобы исключить prior в обучении). И вот тренируют модели разной структуры и глубины распознавать категорию объекта. В числе прочих моделей есть и CNNs pretrained на Imagenet, и они убирают из тренировочного датасета категории объектов, которые они использовали в своих синтетических картинках. Далее, на основе натренированной CNN они "предсказывают" активации биологических нейронов следующим образом. То есть, пробуют приблизить активацию биологического нейрона как линейную комбинацию из активаций искусственных нейронов в каком-то слое (ведь один к одному их точно никак не совместить, их совсем разное количество). А потом проверяют насколько оно обладает предсказательной силой на тестовом наборе, где были совсем другие объекты. Надеюсь, объяснить получилось. То есть у них в качестве выхода CNN - что-то типа идентификации биологического нейрона? а почему линейная комбинация, а не еще одна сетка? Так вот, картинка c результатами!
Каждая точка на этом графике - это какая-то опробованная модель. Видно, что то, насколько хорошо модель классифицирует, крепко коррелирует с тем, насколько она хорошо предсказывает биологические активации. То есть, поставив ограничение, что модель должна быть еще и функциональна - получается лучше приблизить модель активации биологических нейронов. Вопрос может в сторону, но все же. А нельзя ли тогда учить модель классифицировать что-то, используя в качестве учителя - нейроны в мозгу? Типа показали картину + взяли данные из мозга и скормили это в CNN? А теперь термояд. Можно посмотреть как разные уровни нейросети предсказывают активации разных участков мозга:
Оказывается, что последние уровни хорошо предсказывают IT (последнюю стадию), но не V4 (промежуточную). А V4 лучше всего предсказывают промежуточные уровни сети. То есть у них нейронная сеть выглядит примерно так же, как биологические нейроны в мозгу? Следующий этап - ну ок, предположим получили возможность моделировать неизвестно как работающий мозг какой-то другой непонятно как работающей коробкой. Какая в этом радость? Дальнейшая работа - как можно это использовать, чтобы что-то новое понять про работу мозга. Я расскажу про один пример, в самом выступлении есть еще два.
Казалось бы, это более "низкоуровневые" фичи, чем класс объекта, и можно ожидать, что они определяются на более низких уровнях распознавания в мозгу - давайте проверим это на модели. Оказывается, фиг там! Это подтверждает уже до этого существующую теорию, что последняя стадия (IT) - работает со сформированной высокоуровневой моделью, где есть объекты, их расположение, взаимные отношения итд итп и преобразует их во что-то нужное мозгу дальше. (Продолжаем дилетантские вопросы) А они в своей CNN использовали модель с таким же количество слоев? Ну то есть, а если уменьшить количество слоев эффекты похожести исчезают? А как тогда идет разговор про IT и V4? Интересно еще следующее. Если верить Рамачандрану, то visual cortex - это не просто feed-forward сеть, все слои общаются со всеми слоями в обоих направлениях. Есть даже пример, когда можно зрительную систему вывести из равновесия через разного рода оптические иллюзии. То есть никто не гарантирует, что активация биологических нейронов как-то связана с самим процессом распознавания, а не с тем, что из-за вида самолетика у обезьяны начинает чесаться нога, а нейроны уже реагируют на то, что у нее нога чешется? Подытожив - прямое направление работ скорее про использование новых моделей для изучения работы мозга, но есть некие непрямые намеки, что как-то это слишком хорошо работает, возможно есть общие механизмы. Источник: habrahabr.ru Комментарии: |
|