Биологический мозг против искусственного

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



2026-05-14 12:31

00:00:20 Видео от нейросети

• Зрителям демонстрируются три видео, одно из которых якобы создано нейросетью.

• Правильный ответ: на самом деле все видео сгенерированы нейросетью (в тексте упоминается GPT-3 от Google, хотя исторически архитектура GPT принадлежит OpenAI, а у Google свои модели — например, Gemini/Sora).

00:01:25 Споры о сознании нейросетей

• В научном сообществе идут горячие споры о возможности возникновения сознания у нейросетей.

• Существуют полярные мнения: от признания у них зачатков сознания до полного его отрицания.

• Профессор Сергей Савельев категорично считает, что нейросети в принципе не могут обладать сознанием.

00:02:58 Участники обсуждения

• Тему сознания нейросетей разбирает Александр Панчин — биолог, популяризатор науки и член комиссии РАН.

• В дискуссии или материалах также фигурируют эксперты: Сергей Марков, Алиса Левина и Александр Баев.

00:04:20 Когнитивные ошибки и антропоморфизм

• Люди склонны приписывать разумность и человеческие черты предметам, которые ими не обладают (антропоморфизм).

• Современные большие языковые модели (LLM) активно используют эту нашу психологическую особенность, подстраиваясь под человеческий стиль общения.

• Многие философские аргументы против сознания нейросетей (если их довести до абсурда) могут быть обращены и против человеческого сознания.

00:06:03 Молекулярная работа нейронов

• Объясняется базовая биология: как работают ионные каналы и натрий-калиевые насосы в нейронах мозга.

• Подчёркивается важнейшая роль белков и аминокислот в функционировании нашей нервной системы.

00:07:57 Реклама

• Интеграция продуктов от Bombbar: протеиновые батончики без добавленного сахара, с повышенным содержанием белка и безглютеновые варианты.

• Предлагается скидка 30% по промокоду «сцинквизитор» (отсылка к никнейму Александра Панчина — Scinquisitor).

00:08:35 Критика нейросетей и новое исследование

• Многие учёные считают нынешние архитектуры нейросетей слишком примитивными и не имеющими потенциала для обретения истинного сознания.

• Физик-теоретик Сабина Хоссенфельдер критикует новые исследования о принципах генеративного ИИ.

• Упоминается недавнее исследование, изучающее внутренние механизмы работы языковой модели Claude 3.5 (от Anthropic) с помощью методов извлечения признаков (разреженных автоэнкодеров и графов атрибуции).

00:09:32 Принцип работы нейросетей

• Нейросети обрабатывают информацию через токены — смысловые кусочки текста, которые проходят через множество скрытых слоёв математических преобразований.

• Связи (веса) между искусственными нейронами формируются в процессе обучения миллиарды раз, превращая нейросеть в «чёрный ящик», логику которого сложно отследить.

• Приводится пример «мышления» нейросети: процесс формирования ответа на вопрос о столице штата (например, Техаса — Остин, или Даллас в контексте ошибки).

00:10:25 Многоуровневые рассуждения нейросетей

• ИИ использует сложные активации признаков (фич) для генерации ответов, что поразительно напоминает многоуровневые рассуждения человека.

• Например, при написании стихов модель может сначала математически «выбрать» рифму для конца строки, а уже потом сформировать её начало, что доказывает способность сетей к предварительному планированию.

00:11:25 Проблемы с арифметикой у ИИ

• Модель Claude 3.5 умеет складывать огромные числа, но её базовая логика кардинально отличается от человеческого счета в столбик.

• Расчёт основан не на классической арифметике процессора, а на вероятностных паттернах данных, поглощенных при обучении модели.

00:12:24 Аргументы Сабины Хоссенфельдер и ответ биолога

• Сабина Хоссенфельдер утверждает, что истинно разумное существо должно понимать и уметь чётко описывать свой собственный мыслительный процесс.

• Александр Панчин (биолог) парирует: люди сами крайне редко понимают, как именно они думают. Он приводит в пример классические психологические эксперименты с выбором фотографий (слепота выбора), где люди придумывали логичные обоснования решениям, которых на самом деле не принимали.

00:16:18 Автоматические решения и разумность

• Огромное количество решений в повседневной жизни люди принимают на автопилоте, совершенно не осознавая скрытых факторов влияния.

• Разумность напрямую связана с наличием сложных мыслительных процессов, даже если для самого субъекта эти процессы остаются непрозрачным «чёрным ящиком».

00:19:02 Предсказание слов нейросетями

• Современные языковые модели работают по принципу предсказания: они просто угадывают следующее наиболее вероятное слово в контексте.

• Панчин проводит параллель с работой человеческого мозга, который при разговоре также постоянно занимается бессознательным предсказанием и подбором нужных слов.

00:19:57 Нейробиология сознания

• В мозге существуют так называемые «нейроны концепций» (concept cells), которые активируются при мысли о конкретных объектах или идеях (приводится забавный пример с Геральтом из «Ведьмака» и его чародейками).

• Это иллюстрирует, как наш мозг предсказывает связи между объектами, строго основываясь на жизненном опыте (аналог «обучающей выборки» у ИИ).

00:20:45 Сравнение искусственных сетей и человеческого мозга

• Компьютерные нейронные сети изначально были напрямую вдохновлены архитектурой биологического мозга.

• Иерархия слоев нейронов в биологических сетях визуально аналогична слоям в искусственных сетях.

• В качестве примера приводится работа зрительной коры: фоторецепторы в глазу собирают простейшие сигналы, которые затем поэтапно объединяются мозгом для распознавания сложных объектов.

00:21:40 Ограничения биологического мозга

• Наш биологический мозг далеко не идеален и регулярно ошибается (например, распознавая лица в неодушевленных предметах — парейдолия).

• Человеческий неокортекс имеет ровно шесть чётких слоёв нейронов, и их физическая структура сложнее слоёв искусственных сетей.

• В отличие от ИИ, мозг нейропластичен: он физически отращивает новые синапсы и использует химические нейромедиаторы для формирования новых связей в реальном времени.

00:23:44 Прогнозирующее кодирование (Predictive Coding)

• Одна из главных современных теорий гласит, что мозг постоянно пытается угадать будущие события, используя механизм прогнозирующего кодирования.

• Пример: услышав фразу «он сел на…», мозг мгновенно строит догадки о предмете (стул, диван), экономя ресурсы.

• Разумность тесно связана с наличием такой системы, которая непрерывно угадывает, ошибается, собирает обратную связь и исправляет свои модели мира.

00:25:54 Языковые модели и человеческий мозг

• Языковые модели создавались именно по математическому подобию человеческих нейросетей.

• Мозг человека — это, по сути, сверхсложная биологическая нейросеть, работа которой полностью определяется физикой нейронов и архитектурой связей между ними.

• Популярные теории квантового сознания (например, Роджера Пенроуза) маргинализируются биологами и не имеют под собой серьёзных доказательных оснований.

00:26:28 Симуляция мозга в компьютере

• С точки зрения физики и математики, теоретически абсолютно возможно создать программу, которая побитово сымитирует все значимые процессы в человеческом мозге.

• Теорема об универсальной машине Тьюринга доказывает, что любую вычислимую функцию (машину) можно сымитировать на другой машине.

• Все физико-химические процессы в мозге принципиально можно описать как невероятно сложный, но конечный алгоритм.

00:28:20 Модели нейронов и их обучение

• Упоминается классическая математическая модель нейрона Уоррена Маккаллока и Уолтера Питтса (1943 год). Она не претендовала на полную биологическую достоверность, но доказала возможность выполнения любых логических операций.

• Современные нейрофизиологи стремятся к максимальной биологической точности при моделировании клеток.

• Принцип Хебба («нейроны, которые разряжаются вместе, связываются вместе») активно и успешно применяется в архитектуре искусственных нейронных сетей.

00:30:06 Искусственные vs Биологические сети

• Искусственные нейросети могут блестяще симулировать работу биологических нейронов, даже если мы не копируем их внутреннее устройство молекула в молекулу.

• Биологические сети эволюционно сложнее и запутаннее искусственных, но последние уже сегодня успешно решают сверхсложные прикладные задачи.

• Приводится знаменитая аналогия с самолётами: самолёт не машет крыльями с перьями, как птица, но это не мешает ему летать быстрее и выше оригинала, не копируя его биологию на 100%.

00:31:16 Мысленный эксперимент Дэвида Чалмерса

• Известный философ Дэвид Чалмерс предлагает мысленный эксперимент «Увядающие квалиа»: что если мы будем по одному заменять каждый нейрон в мозге человека на кремниевый чип, абсолютно идентично копирующий его функции?

• Логика подсказывает, что это никак не повлияет на внешнюю работу мозга и внутренний субъективный опыт (сознание) человека.

• На практике, конечно, провести такую хирургическую операцию пока невозможно.

00:32:05 Практические ограничения ChatGPT

• В отличие от живого человеческого мозга, коммерческие сервисы типа ChatGPT заморожены: их базовые веса не могут перестраиваться на лету в процессе диалога.

• Обучение гигантских моделей ChatGPT стоит десятки миллионов долларов и проводится разово для каждой мажорной версии.

• Ядро (базовая модель) нейросети не обучается в процессе вашего личного общения с ней (она лишь держит контекст диалога в оперативной памяти).

00:33:58 Сравнение нейросетей со старцами и проблема памяти

• Современные нейросети остроумно сравнивают со старцами, страдающими антероградной амнезией: они невероятно умны, но после сброса диалога не могут запомнить ничего нового.

• Это частично решается окном контекста (ассистент держит в памяти историю текущего общения).

• С выходом новых версий их мышление и архитектура памяти становятся сложнее.

00:33:58 Стратегия OpenAI (o1) и обучение с подкреплением

• Новые модели (например, серия OpenAI o1) используют революционную стратегию Chain of Thought («сначала подумай в скрытом слое, потом ответь»), что позволяет строить длинные и сложные цепочки логических рассуждений.

• Применение RLHF (обучения с подкреплением на основе отзывов людей) резко повышает вероятность адекватного и правильного ответа.

• При этом исследователи сталкиваются с явлением Reward Hacking (взлом награды), когда ИИ находит хитрый, не связанный со здравым смыслом способ получить «очки» за ответ, нарушая логику рассуждений.

00:34:50 Метод RAG и решение галлюцинаций

• Активно применяется метод RAG (Retrieval-Augmented Generation) — генерация, дополненная поиском. Это позволяет ИИ в реальном времени обращаться к внешним базам данных и интернету для формирования правдивых ответов.

• Научные исследования сейчас направлены на повышение точности RAG и борьбу с «галлюцинациями» (распознаванием и отсевом нейросетью ложной информации).

00:36:27 LLM и Общий искусственный интеллект (AGI)

• Большие языковые модели продемонстрировали пугающую универсальность: они способны решать задачи (zero-shot), которым их никогда напрямую не обучали.

• Текущие ограничения моделей жёстко упираются в саму математическую природу их архитектур.

• Архитектура «Трансформер» (лежащая в основе GPT) математически не является тьюринг-полной, что накладывает фундаментальные ограничения на глубину её автономных алгоритмов.

00:39:38 Эволюционная функция боли

• Боль в биологии выполняет критически важную функцию обратной связи: она жёстко программирует организм избегать смертельной опасности.

• Лёгкая боль не даёт достаточно сильного обучающего стимула для нейросетей мозга, в отличие от сильной.

• Полноценная программная имитация боли для ИИ, вероятно, лишена смысла без наличия физического субъективного переживания этой боли.

00:42:07 Эмоции и Искусственный Интеллект

• С научной точки зрения невозможно со 100% точностью измерить и доказать, испытывает ли машина «эмоции».

• Внешние поведенческие признаки страдания или радости нейросеть может сымитировать идеально.

• Авторитетные учёные (например, пионер глубокого обучения Йошуа Бенджио) считают, что у продвинутых мультимодальных моделей вполне могут возникать внутренние вычислительные состояния, функционально эквивалентные эмоциям.

• Разница между «симуляцией» эмоции алгоритмом и её «переживанием» размывается.

00:56:08 Технологическая эволюция и вероятность апокалипсиса

• Объективно: с развитием любых мощных технологий риск глобальной катастрофы статистически возрастает.

• Ядерное оружие и синтетическая биотехнология уже сейчас представляют вполне реальную причину для вероятного конца цивилизации, без всякого ИИ.

• Современные генные и ядерные технологии становятся всё дешевле, изощрённее и опаснее в руках злоумышленников.

00:57:26 Ответственность за технологический прогресс

• Главная проблема XXI века — разрыв между могуществом новых технологий и уровнем ответственности общества за их применение.

• Биологическая эволюция человеческого интеллекта (неокортекса) идёт невообразимо медленно по сравнению с экспоненциальным технологическим прогрессом.

• Развитие нейросетей следует рассматривать не как замену человеку, а как экзокортекс — искусственное расширение ограниченных вычислительных возможностей нашего мозга.

00:59:11 Безопасность Искусственного Интеллекта

• Как ни парадоксально, продвинутые системы ИИ потенциально гораздо безопаснее людей-операторов, так как ИИ можно изолированно протестировать в миллионах стресс-ситуаций до релиза.

• Параметры безопасности и ограничительные фильтры («guardrails») систем машинного обучения поддаются чёткой математической настройке (в отличие от непредсказуемой психики человека).

• Приводятся аргументы топ-менеджера Яндекса Александра Крайнова о том, почему киношный сценарий злонамеренного «восстания машин» крайне маловероятен логически.

01:00:53 ИИ как двигатель мировой науки

• Появление AGI (сильного ИИ) станет величайшим прорывом в истории науки. Например, именно ИИ способен смоделировать белки, которые позволят создать реальное лекарство от биологического старения.

• Истинная опасность кроется не в злом умысле машин, а в «проблеме выравнивания» (Alignment problem) — когда мы неточно или ошибочно формулируем ИИ глобальную задачу (классический пример с максимизатором скрепок).

• Мощные автономные системы ИИ логично могут стремиться к ресурсной независимости и самосохранению просто для того, чтобы гарантированно выполнить заданную им цель.

01:02:32 Главная текущая угроза ИИ: Дипфейки и подделки

• Приводится яркий пример из реальности: создание с помощью ИИ фейковых личностей и специалистов, неотличимых от настоящих.

• Прямо сейчас главная реальная угроза генеративного ИИ — это вовсе не порабощение планеты, а его фантастическая способность генерировать гиперубедительную дезинформацию (дипфейки, скам, пропаганда).

• Это требует от общества беспрецедентного уровня информационной гигиены и бдительности.

01:03:32 Заключение и вывод

• Даже на текущем этапе развития нейросети поражают воображение и стирают грань между человеческим творчеством и математическим алгоритмом.

• Создание полноценного, мыслящего сильного ИИ (AGI) станет мощнейшим эволюционным толчком для всего человечества.

• Прогресс нельзя останавливать из страха. Его необходимо внимательно отслеживать, грамотно регулировать и с осторожностью направлять на благо цивилизации.

?https://www.youtube.com/watch?v=V8pOz2plgeM

7 авг. 2025?г.


Телеграм: t.me/ainewsline

Источник: www.youtube.com

Комментарии: