![]() |
![]() |
![]() |
![]() |
Искусственный сверхинтеллект способен "случайно" уничтожить человечество |
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2022-09-07 01:11 ![]() К середине 21 века человечество сможет создать действительно мощный искусственный интеллект, который уничтожит нашу цивилизацию, если что-то пойдет не так в его работе. Как сообщает Washington Post, такую угрозу считает реальной Эмиль Торрес, философ и эксперт по оценке вероятности глобальных катастроф. Торрес уверен, что к 2050 году в мире появится так называемый искусственный суперинтеллект - машина, возможности которой будут превосходить возможности человека. "Создание искусственного сверхинтеллекта (обладающий интеллектом, намного превосходящим интеллект самых умных и одарённых людей) приведет к технологическому прорыву в самых разных областях, но нам также придется иметь дело с очень серьезными опасностями". "Если люди доверят сверхразуму какие-то действительно важные вещи, то велика вероятность, что машина уничтожит человечество или нанесет ему огромный вред. Потребуются очень сложные алгоритмы управления ИИ, но где вероятность того, что компьютерный сверхгений не сможет их обойти? Даже в современных алгоритмах ИИ есть аспекты, которые ускользают от нашего понимания, и в будущем люди будут все меньше понимать, как работает мощный ИИ", - предупреждает Торрес. Эксперт считает, что глобальная катастрофа, вызванная ИИ, может произойти, если люди доверят машине слишком сложные и абстрактные задачи. Например, они поручат ИИ "устроить мир во всем мире", в результате чего компьютер просто уничтожит всех людей (нет людей - некому воевать друг с другом). Неизвестно, будет ли когда-нибудь человечество готово к сверхинтеллекту, но сейчас мы точно не готовы. При всей нашей глобальной нестабильности и еще только зарождающемся понимании технологий, внедрение искусственного интеллекта было бы равносильно зажиганию спички рядом с фабрикой фейерверков. Исследования в области искусственного интеллекта должны замедлиться или даже приостановиться. И если исследователи не хотят принимать это решение, правительства должны сделать это за них. Источник: vk.com Комментарии: |
|