Шесть наихудших сценариев развития ИИ

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Существуют немало реалистичных негативных сценариев, связанных с ИИ. И большинству из них не требуется злобный диктатор, чтобы довести их до полной реализации. Скорее, они могут просто произойти по умолчанию, как бы само собой — если ничего не будет сделано, чтобы их остановить.

Рост числа дипфейков — поддельных изображений, видео, аудио и текста, созданных с помощью передовых инструментов машинного обучения, — может когда-нибудь привести к тому, что лица, принимающие решения в области национальной безопасности, предпримут реальные действия, основанные на ложной информации, что приведет к крупному кризису или, что еще хуже, к войне.

Опасная гонка. Страны, первыми разработавшие военные приложения ИИ, получат стратегическое преимущество. Но какими принципами можно пожертвовать в процессе? Из-за мельчайших изъянов в системе все может быть раскрыто и использовано хакерами. А у руководителей служб национальной безопасности может возникнуть соблазн делегировать решения по управлению и контролю моделям машинного обучения, которые мы не полностью понимаем. При таком сценарии автоматический запуск систем противоракетной защиты, инициированный без участия человека, может привести к ядерной войне.

Конец конфиденциальности и свободы воли. С каждым цифровым действием мы производим новые данные — электронные письма, тексты, загрузки, покупки, публикации, селфи и геолокации по GPS. С добавлением распознавания лиц, биометрии, данных генома и прогнозного анализа с помощью ИИ, мы выходим на опасную и неизведанную территорию с усилением наблюдения и отслеживания каждого. Мы почти не понимаем, что это такое и какие могут быть у этого последствия. Сила Big Data, собранных и проанализированных, выходит далеко за рамки функций мониторинга и наблюдения. Сегодня системы с ИИ предугадывают, какие продукты мы купим, какие фильмы будем смотреть и по каким ссылкам будем переходить. Когда эти платформы знают нас намного лучше, чем мы знаем самих себя, мы можем не замечать того, что лишаемся свободы воли и постепенно подчиняемся контролю внешних сил.

Клетка для человека уже создана. Пользователи социальных сетей превратились в крыс из лабораторных экспериментов, живущих в человеческих коробках, приклеенных к экранам своих смартфонов, вынужденных жертвовать драгоценным временем и вниманием ради платформ, которые получают от этого прибыль. Алгоритмы оптимизированы, чтобы удерживать пользователей на платформе как можно дольше. Антропологи отмечают, что средний объем мозга человека постепенно сокращается именно потому, что он уже не используется для решения многочисленных задач, как прежде. Что еще хуже, соцсети заставляют нас чувствовать себя несчастнее и хуже, чем раньше.

Тирания искусственного интеллекта. Поскольку ИИ решает проблемы, основанные на предвзятых взглядах и данных, а не на уникальных потребностях каждого, он обеспечивает уровень соответствия, которого нет в реальном человеческом обществе. Исследования показали, что автомобили, мобильные телефоны и даже температура в офисах установлены так, чтобы подходить для среднестатистических "мужчин среднего роста". Когда люди, выходящие за рамки предвзятых норм, игнорируются, маргинализируются и исключаются, ИИ превращается в кафкианского привратника, отказывая в доступе к обслуживанию, работе, здравоохранению и многому другому. ИИ также может трансформировать некоторые из худших человеческих предрассудков в расистские и сексистские методы найма или в глубоко ошибочные и предвзятые судебные решения.


Источник:
Fatal error: Call to undefined function getPostSource() in /var/www/u36739/data/www/ai-news.ru/news-det.php on line 158