«Последнее изобретение человечества: Искусственный интеллект и конец эры Homo sapiens» Джеймс Баррот

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


«Последнее изобретение человечества: Искусственный интеллект и конец эры Homo sapiens» Джеймс Баррот.

Рубрика: @skepdic

Почти год назад я написала свой первый текст, который опубликовали в «Словаре скептика», и этот текст назывался так: «Искусственный интеллект vs Homo sapiens» (https://vk.com/wall-34689126_170531)

В самом начале этой статьи были цитаты из только что вышедшей книги Джеймса Баррота. Оцифрованное вступление книги ходило тогда по сети, а саму книгу ещё невозможно было достать. Теперь, прочитав её, думаю, что написала бы свою статью несколько иначе, но, с другой стороны, у меня в тексте были размышления о любых возможных исходах экспоненциального роста ИИ, а у Джеймса Баррота прогнозы совсем неутешительные.

Вся книга построена на том, насколько опасно развитие ИИ. Насколько страшно создание машины, превосходящей нас интеллектуально в непрогнозируемой степени, потому что мы даже предположить ничего не сможем о последствиях. Даже в самых прогрессивных фантазиях футуристов.

Баррот приводит беседы с великими из мира IT и технологий, но чаще всего ссылается на трансгуманиста Курцвейла, который видит в возможностях ИИ только радость и прогресс для человечества, но никак не его уничтожение. Баррот же усиленно оппонирует Курцвейла, говоря о том, что надо обложиться подушками безопасности при создании и проектировании ИИ; надо очень чётко продумывать вопросы этики и эмоциональной составляющей (которая пока невозможна, а если возможна, то каким образом); ни в коем случае не давать возможность ИИ выходить в сеть (а ещё лучше вести разработки в замкнутых системах с заложенной функцией самоуничтожения); продумать вопросы, используя которые ИИ может найти способ выбраться из подчинения человеку и создателю; сосредоточиться на вопросах о кибератаках и кирберпреступности, так как возросшими возможностями ИИ сначала захотят воспользоваться в корыстных целях (бизнес или власти). Баррот приводит множество примеров, когда люди, восхищаясь возможностями превосходящего интеллекта, переставали думать о долгосрочных последствиях, и происходили утечки глобального масштаба, которые делали плохо вообще всем.

Красноречивый пример с муравьями, которых мы в принципе не уничтожаем, стирая с лица земли, но нас совершенно не волнует, куда они там переносят свои веточки с пушинками. Иногда они нас раздражают, и мы их давим руками. Иногда они делают плохо нашему саду или дому, и мы их травим. Вот также и возросший Искусственный интеллект: он не будет обращать внимание на каких-то там человечков, но и стирать с лица нашей планеты тоже, а вопрос выживания нашего вида у него вообще стоять на повестке дня не будет. Как мы не думаем о выживании муравьев.

Напоследок ещё один интересный момент: самое страшное, когда создают самообучающийся ИИ (те же нейронные сети), но обьяснить алгоритм их работы не могут. В этот момент я вспомнила приложение Prisma, когда все (в том числе я) визжали от восторга именно поэтому: ой, смотрите, сетка рисует эти картинки из фоток сама, мы вообще не понимаем, КАК ОНА ЭТО ДЕЛАЕТ. Вот в этом спрятан один из самых опасных моментов. Создатель должен контролировать алгоритмы, они не должны становиться настолько самостоятельными, чтобы их нельзя было понимать.

Вам уже страшно? Ну вот. Чтобы не бояться, советую Баррота всё же прочесть. Вдруг вы, наоборот, станете евангелистом создания и развития ИИ, так как подобная концентрация негативных исходов вас не устроит. Ну или вы просто оптимист, помешанный на мире технологий, как программист на красиво написанном и безупречно работающем коде.

Автор: Марина Мантлер

Канал автора в Телеграм: https://telegram.me/myunpublished


Источник: vk.com

Комментарии: