Искусственные нейронные сети: новый «черный ящик» или путь к пониманию работы мозга? |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-11-17 10:56 Генеративное предобучение (GPT) позволяет глубоким нейронным сетям обучаться на больших, неструктурированных наборах интернет-данных. В результате мы получаем так называемые базовые модели (foundation models), которые демонстрируют высокую точность ответов искусственного интеллекта, давая надежду на то, что это позволит не просто воспроизводить работу мозга, но и понять механизмы, лежащие в основе нейронной активности и процесса познания. Подробный анализ того, помогут ли базовые модели в понимании работы мозга, был опубликован в Neuron, и мы решили поделиться его пересказом. ![]() Credit: Perplexity Термин «базовые модели» (foundation models) используется для обозначения больших предобученных систем, которые можно использовать для анализа специализированной темы, так и для решения широкого круга задач. За последний год две базовые модели, опубликованные в журнале Nature одна за другой, привлекли серьезное внимание нейробиологов. Первая – это нейронная базовая модель, обученная на данных крупномасштабной визуализации кальция в зрительной коре мыши [1]. Она не только с высокой точностью предсказывает реакции на новые области обработки стимулов на примере разных особей, но и собирает информацию о типах нейронных клеток, морфологии дендритов и нейронных связях. Вторая, Centaur – это поведенческая базовая модель, обученная предсказывать решения человека и основанная на сотнях психологических экспериментов [2]. Обе модели демонстрируют впечатляющую точность предсказаний и одновременно заостряют известный вопрос: какие механизмы работы мозга улавливают такие модели и могут ли их объяснить найробиологам? В основе возможностей больших языковых моделей (LLM) лежит обучение с самоконтролем (SSL): модели обучаются, предсказывая пропущенные или замаскированные части данных (текста, изображения, аудио). Наиболее известным методом считается генеративное предобучение (GPT), когда модели самообучаются на больших неструктурированных наборах данных, тем самым приобретая обширные знания об устройстве мира. Это сопровождается последующим важным этапом тонкой настройки, который адаптирует модель к конкретным областям и приложениям. Такие базовые модели уже применяются во многих областях науки. Например, программа AlphaFold [3], чьи ведущие разработчики (Демис Хассабис и Джон Джампер) разделили половину Нобелевской премии по химии 2024 года, позволяет предсказывать трехмерные структуры белков. Метеорологические модели на основе искусственного интеллекта (ИИ) могут предсказывать штормы за несколько дней с точностью, не уступающей лучшим физическим системам. В материаловедении системы на основе ИИ предложили миллионы потенциальных материалов, многие из которых уже синтезированы. В области нейронаук появилась перспектива создания цифровых двойников на основе базовых моделей. Если бы генеративная базовая модель могла генерировать нейронные связи или поведенческие паттерны (на основе множества накопленных данных), она работала бы как реалистичный симулятор нервной системы, который стал бы ядром цифрового двойника. Однако для нейронауки остро встает вопрос: отражают ли такие модели процесс генерации данных, лежащий в основе нейронной активности и познания, или это просто совпадение? Не останутся ли они еще одним «черным ящиком»? Если модель говорит как человек, возможно, она усвоила грамматику; если она может играть в шахматы только по записям партий, возможно, она вывела правила игры? История показывает, что даже идеальная прогностическая точность не гарантирует правильного понимания: эпициклы Птолемея предлагали точные предсказания движения планет, создавая ложную теорию небесной механики. Прогнозирование – это абстракция, которая может работать независимо от истинного положения дел. Тем не менее, недавние исследования показали, что модели показывают динамику обучения, аналогичную наблюдаемой у людей. В совокупности эти результаты вселяют осторожный оптимизм в отношении того, что базовые модели могут не только достичь прогностической точности, но и дать представление о когнитивных и нейронных механизмах, лежащих в основе языка и обучения. В то же время модели могут достигать высокой производительности не за счет понимания механизмов действия нейронной сети. Критики подчеркивают, что прогнозы Centaur часто расходятся с человеческим поведением в известных психологических экспериментах [4]. В некоторых случаях модель действует точно даже без доступа к информации о задаче, полагаясь вместо этого на статистические закономерности в последовательностях выбора, что принципиально несовместимо с принятием решений человеком [5]. Это подчеркивает необходимость более строгих критериев для оценки того, что соответствие между моделями и человеческими поведением отражает истинный механизм действия нейронных связей, а не случайную генерацию. Любопытно, что модели могут быть избирательны к определенным концепциям: например, «модель ИИ, которой «нравится» мост Золотые Ворота» [6] (отличительный усвоенный паттерн во внутреннем представлении модели). Это направление исследований параллельно открытиям в нейронауке, где записи отдельных нейронов выявили нейроны, которые избирательно реагируют на достопримечательности типа Сиднейского оперного театра, или на конкретных людей, таких как Дженнифер Энистон [7]. Даже если механизмы работы базовых моделей отличаются от механизмов, действующих в мозге, это может помочь с общим пониманием его работы. Выявление вычислительных механизмов в этих моделях и генерация проверяемых гипотез поддерживает критически важную обратную связь между теорией и экспериментом, стимулируя научный прогресс. Независимо от того, «правильны» ли эти механизмы, этот процесс продвигает наше понимание как искусственного, так и биологического интеллекта. Одни лишь базовые модели не изменят нейронауку. Их научная ценность зависит от перехода от прогнозирования к интерпретации – от понимания их вычислений, обоснования их на основе теории наук о мозге и разработки экспериментов для проверки этой связи. Как напоминают нам эпициклы Птолемея, даже идеальное предсказание не заменит реального объяснения процесса. Будущее развитие нейронауки на основе базовых моделей зависит от того, сможем ли мы превратить машины для подгонки данных в научные инструменты, создающие гипотезы и позволяющие понять, как работает наш интеллект. Текст: Юлия Баимова 1. Wang, E.Y., Fahey, P.G., Ding, Z., Papadopoulos, S., Ponder, K., Weis, M.A., Chang, A., Muhammad, T., Patel, S., Ding, Z., et al. (2025). Foundation model of neural activity predicts response to new stimulus types. Nature 640, 470–477. https://doi.org/10.1038/s41586-025-08829-y. 2. Binz, M., Akata, E., Bethge, M., Br?ndle, F., Callaway, F., Coda-Forno, J., Dayan, P., Demircan, C., Eckstein, M.K., ?ltet?, N., et al. (2025). A foundation model to predict and capture human cognition. Nature, 1–8. https://doi.org/10.1038/s41586-025-09215-4. 3. Jumper, J., Evans, R., Pritzel, A., Green, T., Figurnov, M., Ronneberger, O., Tunyasuvunakool, K., Bates, R., ??dek, A., Potapenko, A., et al. (2021). Highly accurate protein structure prediction with AlphaFold. Nature 596, 583–589. https://doi.org/10.1038/s41586-021-03819-2. 4. Namazova, S., Brondetta, A., Strittmatter, Y., Nassar, M., and Musslick, S. (2025). Not Yet AlphaFold for the Mind: Evaluating Centaur as a Synthetic Participant. Preprint at arXiv, https://doi.org/10.48550/arXiv.2508.07887 https://doi.org/10.48550/arXiv.2508.07887. 5. Bowers, J., Puebla, G., Thorat, S., Tsetsos, K., and Ludwig, C. (2025). Centaur: A model without a theory. Preprint at OSF, https://doi.org/10.31234/osf.io/v9w37_v3 https://doi.org/10.31234/osf.io/v9w37_v3. 6. Golden Gate Claude https://www.anthropic.com/news/golden-gate-claude. 7. Quiroga, R.Q., Reddy, L., Kreiman, G., Koch, C., and Fried, I. (2005). Invariant visual representation by single neurons in the human brain. Nature 435, 1102–1107. https://doi.org/10.1038/nature03687. Источник: neuronovosti.ru Комментарии: |
|