Биологический мозг против искусственного |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-05-14 12:31 00:00:20 Видео от нейросети • Зрителям демонстрируются три видео, одно из которых якобы создано нейросетью. • Правильный ответ: на самом деле все видео сгенерированы нейросетью (в тексте упоминается GPT-3 от Google, хотя исторически архитектура GPT принадлежит OpenAI, а у Google свои модели — например, Gemini/Sora). 00:01:25 Споры о сознании нейросетей • В научном сообществе идут горячие споры о возможности возникновения сознания у нейросетей. • Существуют полярные мнения: от признания у них зачатков сознания до полного его отрицания. • Профессор Сергей Савельев категорично считает, что нейросети в принципе не могут обладать сознанием. 00:02:58 Участники обсуждения • Тему сознания нейросетей разбирает Александр Панчин — биолог, популяризатор науки и член комиссии РАН. • В дискуссии или материалах также фигурируют эксперты: Сергей Марков, Алиса Левина и Александр Баев. 00:04:20 Когнитивные ошибки и антропоморфизм • Люди склонны приписывать разумность и человеческие черты предметам, которые ими не обладают (антропоморфизм). • Современные большие языковые модели (LLM) активно используют эту нашу психологическую особенность, подстраиваясь под человеческий стиль общения. • Многие философские аргументы против сознания нейросетей (если их довести до абсурда) могут быть обращены и против человеческого сознания. 00:06:03 Молекулярная работа нейронов • Объясняется базовая биология: как работают ионные каналы и натрий-калиевые насосы в нейронах мозга. • Подчёркивается важнейшая роль белков и аминокислот в функционировании нашей нервной системы. 00:07:57 Реклама • Интеграция продуктов от Bombbar: протеиновые батончики без добавленного сахара, с повышенным содержанием белка и безглютеновые варианты. • Предлагается скидка 30% по промокоду «сцинквизитор» (отсылка к никнейму Александра Панчина — Scinquisitor). 00:08:35 Критика нейросетей и новое исследование • Многие учёные считают нынешние архитектуры нейросетей слишком примитивными и не имеющими потенциала для обретения истинного сознания. • Физик-теоретик Сабина Хоссенфельдер критикует новые исследования о принципах генеративного ИИ. • Упоминается недавнее исследование, изучающее внутренние механизмы работы языковой модели Claude 3.5 (от Anthropic) с помощью методов извлечения признаков (разреженных автоэнкодеров и графов атрибуции). 00:09:32 Принцип работы нейросетей • Нейросети обрабатывают информацию через токены — смысловые кусочки текста, которые проходят через множество скрытых слоёв математических преобразований. • Связи (веса) между искусственными нейронами формируются в процессе обучения миллиарды раз, превращая нейросеть в «чёрный ящик», логику которого сложно отследить. • Приводится пример «мышления» нейросети: процесс формирования ответа на вопрос о столице штата (например, Техаса — Остин, или Даллас в контексте ошибки). 00:10:25 Многоуровневые рассуждения нейросетей • ИИ использует сложные активации признаков (фич) для генерации ответов, что поразительно напоминает многоуровневые рассуждения человека. • Например, при написании стихов модель может сначала математически «выбрать» рифму для конца строки, а уже потом сформировать её начало, что доказывает способность сетей к предварительному планированию. 00:11:25 Проблемы с арифметикой у ИИ • Модель Claude 3.5 умеет складывать огромные числа, но её базовая логика кардинально отличается от человеческого счета в столбик. • Расчёт основан не на классической арифметике процессора, а на вероятностных паттернах данных, поглощенных при обучении модели. 00:12:24 Аргументы Сабины Хоссенфельдер и ответ биолога • Сабина Хоссенфельдер утверждает, что истинно разумное существо должно понимать и уметь чётко описывать свой собственный мыслительный процесс. • Александр Панчин (биолог) парирует: люди сами крайне редко понимают, как именно они думают. Он приводит в пример классические психологические эксперименты с выбором фотографий (слепота выбора), где люди придумывали логичные обоснования решениям, которых на самом деле не принимали. 00:16:18 Автоматические решения и разумность • Огромное количество решений в повседневной жизни люди принимают на автопилоте, совершенно не осознавая скрытых факторов влияния. • Разумность напрямую связана с наличием сложных мыслительных процессов, даже если для самого субъекта эти процессы остаются непрозрачным «чёрным ящиком». 00:19:02 Предсказание слов нейросетями • Современные языковые модели работают по принципу предсказания: они просто угадывают следующее наиболее вероятное слово в контексте. • Панчин проводит параллель с работой человеческого мозга, который при разговоре также постоянно занимается бессознательным предсказанием и подбором нужных слов. 00:19:57 Нейробиология сознания • В мозге существуют так называемые «нейроны концепций» (concept cells), которые активируются при мысли о конкретных объектах или идеях (приводится забавный пример с Геральтом из «Ведьмака» и его чародейками). • Это иллюстрирует, как наш мозг предсказывает связи между объектами, строго основываясь на жизненном опыте (аналог «обучающей выборки» у ИИ). 00:20:45 Сравнение искусственных сетей и человеческого мозга • Компьютерные нейронные сети изначально были напрямую вдохновлены архитектурой биологического мозга. • Иерархия слоев нейронов в биологических сетях визуально аналогична слоям в искусственных сетях. • В качестве примера приводится работа зрительной коры: фоторецепторы в глазу собирают простейшие сигналы, которые затем поэтапно объединяются мозгом для распознавания сложных объектов. 00:21:40 Ограничения биологического мозга • Наш биологический мозг далеко не идеален и регулярно ошибается (например, распознавая лица в неодушевленных предметах — парейдолия). • Человеческий неокортекс имеет ровно шесть чётких слоёв нейронов, и их физическая структура сложнее слоёв искусственных сетей. • В отличие от ИИ, мозг нейропластичен: он физически отращивает новые синапсы и использует химические нейромедиаторы для формирования новых связей в реальном времени. 00:23:44 Прогнозирующее кодирование (Predictive Coding) • Одна из главных современных теорий гласит, что мозг постоянно пытается угадать будущие события, используя механизм прогнозирующего кодирования. • Пример: услышав фразу «он сел на…», мозг мгновенно строит догадки о предмете (стул, диван), экономя ресурсы. • Разумность тесно связана с наличием такой системы, которая непрерывно угадывает, ошибается, собирает обратную связь и исправляет свои модели мира. 00:25:54 Языковые модели и человеческий мозг • Языковые модели создавались именно по математическому подобию человеческих нейросетей. • Мозг человека — это, по сути, сверхсложная биологическая нейросеть, работа которой полностью определяется физикой нейронов и архитектурой связей между ними. • Популярные теории квантового сознания (например, Роджера Пенроуза) маргинализируются биологами и не имеют под собой серьёзных доказательных оснований. 00:26:28 Симуляция мозга в компьютере • С точки зрения физики и математики, теоретически абсолютно возможно создать программу, которая побитово сымитирует все значимые процессы в человеческом мозге. • Теорема об универсальной машине Тьюринга доказывает, что любую вычислимую функцию (машину) можно сымитировать на другой машине. • Все физико-химические процессы в мозге принципиально можно описать как невероятно сложный, но конечный алгоритм. 00:28:20 Модели нейронов и их обучение • Упоминается классическая математическая модель нейрона Уоррена Маккаллока и Уолтера Питтса (1943 год). Она не претендовала на полную биологическую достоверность, но доказала возможность выполнения любых логических операций. • Современные нейрофизиологи стремятся к максимальной биологической точности при моделировании клеток. • Принцип Хебба («нейроны, которые разряжаются вместе, связываются вместе») активно и успешно применяется в архитектуре искусственных нейронных сетей. 00:30:06 Искусственные vs Биологические сети • Искусственные нейросети могут блестяще симулировать работу биологических нейронов, даже если мы не копируем их внутреннее устройство молекула в молекулу. • Биологические сети эволюционно сложнее и запутаннее искусственных, но последние уже сегодня успешно решают сверхсложные прикладные задачи. • Приводится знаменитая аналогия с самолётами: самолёт не машет крыльями с перьями, как птица, но это не мешает ему летать быстрее и выше оригинала, не копируя его биологию на 100%. 00:31:16 Мысленный эксперимент Дэвида Чалмерса • Известный философ Дэвид Чалмерс предлагает мысленный эксперимент «Увядающие квалиа»: что если мы будем по одному заменять каждый нейрон в мозге человека на кремниевый чип, абсолютно идентично копирующий его функции? • Логика подсказывает, что это никак не повлияет на внешнюю работу мозга и внутренний субъективный опыт (сознание) человека. • На практике, конечно, провести такую хирургическую операцию пока невозможно. 00:32:05 Практические ограничения ChatGPT • В отличие от живого человеческого мозга, коммерческие сервисы типа ChatGPT заморожены: их базовые веса не могут перестраиваться на лету в процессе диалога. • Обучение гигантских моделей ChatGPT стоит десятки миллионов долларов и проводится разово для каждой мажорной версии. • Ядро (базовая модель) нейросети не обучается в процессе вашего личного общения с ней (она лишь держит контекст диалога в оперативной памяти). 00:33:58 Сравнение нейросетей со старцами и проблема памяти • Современные нейросети остроумно сравнивают со старцами, страдающими антероградной амнезией: они невероятно умны, но после сброса диалога не могут запомнить ничего нового. • Это частично решается окном контекста (ассистент держит в памяти историю текущего общения). • С выходом новых версий их мышление и архитектура памяти становятся сложнее. 00:33:58 Стратегия OpenAI (o1) и обучение с подкреплением • Новые модели (например, серия OpenAI o1) используют революционную стратегию Chain of Thought («сначала подумай в скрытом слое, потом ответь»), что позволяет строить длинные и сложные цепочки логических рассуждений. • Применение RLHF (обучения с подкреплением на основе отзывов людей) резко повышает вероятность адекватного и правильного ответа. • При этом исследователи сталкиваются с явлением Reward Hacking (взлом награды), когда ИИ находит хитрый, не связанный со здравым смыслом способ получить «очки» за ответ, нарушая логику рассуждений. 00:34:50 Метод RAG и решение галлюцинаций • Активно применяется метод RAG (Retrieval-Augmented Generation) — генерация, дополненная поиском. Это позволяет ИИ в реальном времени обращаться к внешним базам данных и интернету для формирования правдивых ответов. • Научные исследования сейчас направлены на повышение точности RAG и борьбу с «галлюцинациями» (распознаванием и отсевом нейросетью ложной информации). 00:36:27 LLM и Общий искусственный интеллект (AGI) • Большие языковые модели продемонстрировали пугающую универсальность: они способны решать задачи (zero-shot), которым их никогда напрямую не обучали. • Текущие ограничения моделей жёстко упираются в саму математическую природу их архитектур. • Архитектура «Трансформер» (лежащая в основе GPT) математически не является тьюринг-полной, что накладывает фундаментальные ограничения на глубину её автономных алгоритмов. 00:39:38 Эволюционная функция боли • Боль в биологии выполняет критически важную функцию обратной связи: она жёстко программирует организм избегать смертельной опасности. • Лёгкая боль не даёт достаточно сильного обучающего стимула для нейросетей мозга, в отличие от сильной. • Полноценная программная имитация боли для ИИ, вероятно, лишена смысла без наличия физического субъективного переживания этой боли. 00:42:07 Эмоции и Искусственный Интеллект • С научной точки зрения невозможно со 100% точностью измерить и доказать, испытывает ли машина «эмоции». • Внешние поведенческие признаки страдания или радости нейросеть может сымитировать идеально. • Авторитетные учёные (например, пионер глубокого обучения Йошуа Бенджио) считают, что у продвинутых мультимодальных моделей вполне могут возникать внутренние вычислительные состояния, функционально эквивалентные эмоциям. • Разница между «симуляцией» эмоции алгоритмом и её «переживанием» размывается. 00:56:08 Технологическая эволюция и вероятность апокалипсиса • Объективно: с развитием любых мощных технологий риск глобальной катастрофы статистически возрастает. • Ядерное оружие и синтетическая биотехнология уже сейчас представляют вполне реальную причину для вероятного конца цивилизации, без всякого ИИ. • Современные генные и ядерные технологии становятся всё дешевле, изощрённее и опаснее в руках злоумышленников. 00:57:26 Ответственность за технологический прогресс • Главная проблема XXI века — разрыв между могуществом новых технологий и уровнем ответственности общества за их применение. • Биологическая эволюция человеческого интеллекта (неокортекса) идёт невообразимо медленно по сравнению с экспоненциальным технологическим прогрессом. • Развитие нейросетей следует рассматривать не как замену человеку, а как экзокортекс — искусственное расширение ограниченных вычислительных возможностей нашего мозга. 00:59:11 Безопасность Искусственного Интеллекта • Как ни парадоксально, продвинутые системы ИИ потенциально гораздо безопаснее людей-операторов, так как ИИ можно изолированно протестировать в миллионах стресс-ситуаций до релиза. • Параметры безопасности и ограничительные фильтры («guardrails») систем машинного обучения поддаются чёткой математической настройке (в отличие от непредсказуемой психики человека). • Приводятся аргументы топ-менеджера Яндекса Александра Крайнова о том, почему киношный сценарий злонамеренного «восстания машин» крайне маловероятен логически. 01:00:53 ИИ как двигатель мировой науки • Появление AGI (сильного ИИ) станет величайшим прорывом в истории науки. Например, именно ИИ способен смоделировать белки, которые позволят создать реальное лекарство от биологического старения. • Истинная опасность кроется не в злом умысле машин, а в «проблеме выравнивания» (Alignment problem) — когда мы неточно или ошибочно формулируем ИИ глобальную задачу (классический пример с максимизатором скрепок). • Мощные автономные системы ИИ логично могут стремиться к ресурсной независимости и самосохранению просто для того, чтобы гарантированно выполнить заданную им цель. 01:02:32 Главная текущая угроза ИИ: Дипфейки и подделки • Приводится яркий пример из реальности: создание с помощью ИИ фейковых личностей и специалистов, неотличимых от настоящих. • Прямо сейчас главная реальная угроза генеративного ИИ — это вовсе не порабощение планеты, а его фантастическая способность генерировать гиперубедительную дезинформацию (дипфейки, скам, пропаганда). • Это требует от общества беспрецедентного уровня информационной гигиены и бдительности. 01:03:32 Заключение и вывод • Даже на текущем этапе развития нейросети поражают воображение и стирают грань между человеческим творчеством и математическим алгоритмом. • Создание полноценного, мыслящего сильного ИИ (AGI) станет мощнейшим эволюционным толчком для всего человечества. • Прогресс нельзя останавливать из страха. Его необходимо внимательно отслеживать, грамотно регулировать и с осторожностью направлять на благо цивилизации. ?https://www.youtube.com/watch?v=V8pOz2plgeM 7 авг. 2025?г. Телеграм: t.me/ainewsline Источник: www.youtube.com Комментарии: |
|