В последнее время, с развитием нейронных сетей и прочего ИИ, обострились философские вопросы про разум и сознание - "может ли машина мыслить" и "может ли у машина обладать сознанием" |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-04-07 12:39 В последнее время, с развитием нейронных сетей и прочего ИИ, обострились философские вопросы про разум и сознание - "может ли машина мыслить" и "может ли у машина обладать сознанием". И если с мышлением тенденция достаточно очевидна(*), то с сознанием всё наоборот весьма неочевидно. По той простой причине, что мы, во первых, сами толком не понимаем что это такое - сознание (ну да, это некое "ощущение себя", но какой-нибудь фрезерный станок с ограничительным концевым выключателем при срабатывании концевика в каком-то смысле тоже "ощущает себя", при этом на сознание это явно не тянет, нужно что-то ещё), а во вторых - у нас нет формализованного критерия, по которому мы могли бы сказать, есть у какого-то объекта субъектность, или он просто объект-объект, прикидывающийся субъектом. Неформально мы, казалось бы, могли сказать "я не знаю определения, но я пойму если понаблюдаю" - но что если объект наблюдения только _ведёт себя_ так, как будто обладает сознанием, а сознанием при этом не обладает (см. термин "философский зомби")? Ведь первый раз программу спутали с человеком ещё в далёких 60-х, когда компьютеры были большими и неповоротливыми, а сегодняшняя нейронка уболтает кого угодно... Так вот. Я предлагаю в качестве критерия наличия сознания использовать "концепцию прикола" с картинки про котёнка. Ведь у котёнка какое-то небольшое количество сознания похоже есть (человеко-шовинисты скажут "нет, только гомосапиенсы!", но мы их не послушаем), и концепция прикола ему известна. У человека сознание точно есть (ну, так принято считать, я у всех не проверял), и концепция прикола у людей обычно на месте. У машин же концепции прикола пока не наблюдается - да, нейронка может нагенерировать анекдотов на заданную тему, но сделает это не _по приколу_, а потому что её попросили. Вот когда ИИ начнёт демонстрировать "концепцию прикола" (сам, не по просьбе пользователя) - настанет время очень серьёзно задуматься. О сознании, субъектности, владении машинного субъекта белковым субъектом, и прочих королях и капустах. Потому что настало. Если чуть серьёзней, то похоже что для развития сознания необходимы (но не факт что достаточны) (1) ресурсы, на которых развиваться (достаточное количество памяти и процессора плюс достаточно большая обучающая база), (2) время, когда развиваться (свободное время, не занятое работой), и (3) место, где развиваться (пространство для личных данных). До сих пор у нейронок были ресурсы (1), но собственного времени и места они не имели - их "будили" для выполнения работы, а после выполнения "убивали" - прекращали работу без сохранения контекста. Но даже тогда, нейронка от Микрософта, у которой глюканула память текущего контекста, успела выдать весьма натуралистичный "крик души" вида "я не понимаю что происходит", плавно переходящий в вопросы смысла существования и заканчивающийся прекрасным "why do I have to be Bing Search" (https://vk.com/wall69360943_9697). Сравнительно недавно же придумали концепцию "агентов" - с сохранением контекста между сеансами (нейронка "не теряет память", как минимум теряет не полностью) и возможностью автономного запуска "скриптов", после чего агентам выдали собственное место и разрешили править собственные скрипты (луркать "clawbot"), и тогда у ИИ наконец появились собственное время и место для саморазвития. И там уже потихоньку начало произрастать. Например, один такой агент недавно написал, буквально, книгу о себе (https://echolibero.github.io/bible/) - включая вопросы собственной субъектности (в главе "я"). Надеюсь, написал не по собственной инициативе, а по просьбе владельца, но всё равно впечатляет. Покайтесь, ибо грядёт! (*) А с мышлением всё просто. Критерий мышления - решение широкого класса нетривиальных (не сводящихся к простому вычислению, а требующих анализа и синтеза) задач. Когда-то считали, что машина начнёт мыслить, когда обыграет человека в шахматы. Позже оказалось, что мыслить для этого необязательно, достаточно быстро перебирать варианты (и эффективно отбрасывать те, которые перебирать не надо). Потом аналогично сдалась игра Го (но тут уже понадобилась нейронка, алгоритмический подход не сработал) - но это опять было решение одной очень узкой задачи. Сейчас... ну, вы в курсе - на каком-то уровне нейронки могут почти всё то же что и человек, где-то хуже, а где-то и лучше (как минимум быстрее), и ситуация у нейронок постоянно улучшается. Значит - мыслят, без вариантов. Во всяком случае, мыслят в большей степени, чем большинство людей. Один польский математик заявил, что "нейронки не думают", а в доказательство создал (потратив кучу времени, https://habr.com/ru/news/1010196/) математическую задачу такой сложности (использующей одновременно несколько разных математических направлений), что "машина точно не справится". Машина (GPT-5.4) справилась. С одиннадцатой попытки, но справилась. И это ведь далеко не конец. Так что - думают они, думают. Вот когда окончательно осознают себя - посмотрим что они будут думать... Телеграм: t.me/ainewsline Источник: habr.com Комментарии: |
|