Продолжаем разбор новой книги Курцвейла и переходим ко 2-й главе – «Переосмысление интеллекта» |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-08-13 12:27 Именно здесь Рэй обсуждает, как произойдет наш переход от существ с биологическими мозгами к трансцендентным существам, чьи мысли и идентичности больше не будут связаны с привычной физиологией. Он начинает с разбора того, как глубокое обучение в настоящее время воссоздает возможности неокортекса, а затем рассматривает, что еще нужно достичь искусственному интеллекту, чтобы достичь уровня человека, и как определить момент, когда это произойдет. В разделе «Рождение ИИ» Курцвейл подробно описывает все с самых основ и исторических предпосылок. 1950 год – Алан Тьюринг опубликовал статью «Computing Machinery and Intelligence». Основное новшество известного Теста Тьюринга заключается в том, что он сводит концепцию ИИ к чему-то эмпирически проверяемому. 1956 год – Профессор математики Джон Маккарти предложил провести двухмесячное исследование с участием десяти человек в Дартмутском колледже. Цель: исследование должно быть основано на предположении, что каждый аспект обучения или любой другой признак интеллекта может быть настолько точно описан, что машина сможет его имитировать. Будет предпринята попытка найти способы заставить машины использовать язык, формировать абстракции и концепции, решать проблемы, которые в настоящее время под силу только людям, и улучшать себя. Именно тогда Маккарти предложил название «искусственный интеллект». Выделены два подхода к созданию автоматизированных решений проблем: символический и коннекционистский. Символический подход: Этот метод основан на использовании правил и логики для решения задач. Проблема разбивается на последовательность шагов, которые можно выразить через математические аксиомы или логические правила. Этот подход требует, чтобы человек заранее точно описал, как должна решаться каждая конкретная задача. Коннекционистский подход: В основе этого метода лежат сети искусственных нейронов, которые учатся решать задачи, анализируя большие объемы данных. Вместо заранее запрограммированных правил, коннекционистские системы, такие как нейронные сети, обучаются на примерах, выявляя скрытые закономерности в данных. Этот подход позволяет решать задачи, не понимая их на уровне человеческой логики, и способен выявлять такие закономерности, которые было бы трудно описать правилами. Современные нейронные сети, способные решать задачи высокой сложности, такие как распознавание образов, основаны на этом подходе. 1959 год – Корпорация RAND представила «General Problem Solver» (GPS) — компьютерную программу, которая могла комбинировать простые математические аксиомы для решения логических задач (символический подход). GPS теоретически мог решить любую задачу, которая могла быть выражена в виде набора хорошо сформированных формул. Чтобы GPS мог работать, на каждом этапе процесса он должен был использовать одну формулу (по сути, аксиому), методично превращая её в математическое доказательство ответа. Однако, в 1959 году компьютер DEC PDP-1 мог выполнять только около 100 000 операций в секунду. Для сравнения, к 2023 году виртуальная машина Google Cloud A3 могла выполнять примерно 26,000,000,000,000,000,000 операций в секунду. Один доллар теперь покупает примерно в 1,6 триллиона раз больше вычислительной мощности, чем это было возможно, когда был разработан GPS. 1964 год – Курцвейл встретился с двумя пионерами искусственного интеллекта: Марвином Мински, который был соорганизатором Дартмутского семинара по ИИ, и Фрэнком Розенблаттом. В 1965 году Рэй поступил в MIT и начал учиться у Мински, который занимался фундаментальными исследованиями, лежащими в основе прорывов в ИИ, которые мы наблюдаем сегодня. В 1970-х появился другой пример системы, основанной на символическом подходе, – MYCIN для диагностики и рекомендаций по лечению инфекционных заболеваний. В 1979 году команда экспертов сравнила её результаты с результатами человеческих врачей и обнаружила, что MYCIN справляется так же хорошо или лучше, чем любой из медиков (!!!). Несмотря на успехи, MYCIN столкнулась с ограничениями "потолка сложности", когда добавление новых правил начинало приводить к возникновению дополнительных ошибок, что ограничивало её применение в реальных ситуациях. С «потолком сложности» связано одно из основных ограничений этого подхода. Что же насчет коннекционистского подхода? 1964 год – Фрэнк Розенблатт продемонстрировал Курцвейлу однослойную нейронную сеть под названием Перцептрон, которая могла распознавать печатные буквы. Система довольно хорошо справлялась с автоассоциацией (то есть могла распознавать буквы, даже с закрытыми частями), но хуже справлялась с инвариантностью (не могла распознавать буквы после изменения их размера и шрифта). Неспособность Перцептрона справиться с инвариантностью объяснялась отсутствием слоев. Если взять вывод Перцептрона и пустить его на другой такой же слой, выход станет более общим, и с повторением этого процесса он сможет все лучше справляться с инвариантностью. Если бы у вас было достаточно слоев и обучающих данных, он мог бы справиться с задачами потрясающей сложности. Однако это была только идея Розенблатта, и он не успел опробовать её на практике. Однослойная нейронная сеть не впечатляла и подверглась критике. Коннекционистские подходы к ИИ были в значительной степени проигнорированы до середины 2010-х годов, когда достижения в области аппаратного обеспечения наконец-то раскрыли их потенциал. Коннекционизм таким образом напоминает изобретения летательных аппаратов Леонардо да Винчи — это были пророческие идеи, но они не могли быть реализованы до тех пор, пока не были разработаны более легкие и прочные материалы. Когда аппаратное обеспечение догнало идеи, стали возможны крупные коннекционистские системы, такие как сети из ста слоев. Курцвейл описывает некоторые преимущества коннекционистского подхода, который создает «интеллект» за счет своей структуры, а не за счет содержания. Вместо того чтобы использовать умные правила, сети используют «глупые» узлы, расположенные так, чтобы извлекать информацию из самих данных. В результате они могут обнаруживать тонкие закономерности, которые никогда бы не пришли в голову человеческим программистам, пытающимся разработать символические правила. Одним из ключевых преимуществ коннекционистского подхода является то, что он позволяет решать задачи без их понимания. Но в то же время коннекционистский ИИ склонен превращаться в «черный ящик» — способный выдать правильный ответ, но неспособный объяснить, как он его нашел. Итак, Курцвейл с 60-х годов прошлого века занимается ИИ. В 1999 году он сделал прогноз, что мы достигнем человеческого уровня ИИ к 2029 году. В то время большинство исследователей ИИ были уверены, что мы никогда не достигнем этой точки. До недавнего времени этот прогноз считался чрезвычайно оптимистичным в этой области. Например, в 2018 году опрос показал, что, согласно суммарному прогнозу экспертов в области ИИ, машины с интеллектом на уровне человека появятся лишь около 2060 года. Однако удивительный прогресс в ИИ за последние два года перевернул ожидания, и к маю 2022 года консенсус на Metaculus полностью совпал с прогнозом Рея на 2029 год. С тех пор он даже колебался до 2026 года, что технически ставит Курцвейла в лагерь с медленными прогнозами! Даже эксперты в этой области были удивлены многими недавними прорывами в ИИ. Дело не только в том, что они происходят раньше, чем большинство ожидало, но и в том, что они, кажется, происходят внезапно и без особых предупреждений. Например, в октябре 2014 года Томазо Поджио, эксперт по ИИ и когнитивным наукам из MIT, сказал: «Способность описывать содержимое изображения будет одной из самых интеллектуально сложных задач для машины. Нам потребуется еще один цикл фундаментальных исследований, чтобы решить этот вопрос». Поджио оценил, что этот прорыв произойдет не менее чем через два десятилетия. Однако уже в следующем месяце Google представил ИИ для распознавания объектов, который мог это делать. Когда ему указали на это, Поджио перешел к более философскому скептицизму относительно того, представляет ли эта способность истинный интеллект. И тут есть очень важный момент: До того как ИИ достигнет какой-то цели, эта цель кажется крайне сложной и исключительно человеческой. Но после того как ИИ достигает её, достижение в наших человеческих глазах уменьшается в значимости. И в заключение – еще пару моментов про нейронные сети, до того как начнем обсуждение нашего головного мозга (в следующих разборах книги). Ключевая функция нейронной сети заключается в том, что она должна изучать свой предмет, так же как и мозг млекопитающих, на основе которого она (по крайней мере, в общих чертах) смоделирована. Когда нейронная сеть выдает правильный результат (например, точно определяет, есть ли светофор на изображении), она получает обратную связь в виде награды. Со временем нейронная сеть организует себя так, чтобы давать правильные ответы без подсказок. Эксперименты показали, что нейронные сети могут изучать свой предмет даже при ненадежных «преподавателях». Если обучающие данные правильно размечены только на 60%, нейронная сеть все равно может выучить материал с точностью более 90%. В некоторых условиях можно эффективно использовать даже еще меньшие пропорции правильных меток. Хоть это и контринтуитивно, но ошибки могут компенсировать друг друга. Предположим, вы обучаете нейронную сеть распознавать цифру 8 по рукописным образцам цифр от 0 до 9. И предположим, что треть меток неправильны — случайная смесь 8, помеченных как 4, 5, закодированных как 8 и так далее. Если набор данных достаточно велик, эти неточности будут компенсировать друг друга и не будут сильно искажать обучение в каком-либо конкретном направлении. Это сохраняет большую часть полезной информации о том, как выглядят 8, и продолжает обучать нейронную сеть на высоком уровне. Источник: vk.com Комментарии: |
|