Согласно недавнему исследованию ученых из университета Макса Планка, люди не смогут контролировать сверхразумный искусственный интеллект |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2021-05-29 05:54 То, что раньше казалось сюжетом научно-фантастического фильма, может стать будущим человечества. Согласно недавнему исследованию ученых из университета Макса Планка, люди не смогут контролировать сверхразумный искусственный интеллект. Исследователи сделали предположение, что однажды создадут искусственный интеллект, который будет превосходить человеческий. С подключением к интернету у него будет доступ ко всей информации, которую создало человечество. Главной целью исследования стало изучить, к каким последствиям это могло бы привести: мог ли бы ИИ стать угрозой для человечества и в какой степени люди могли бы это контролировать. Ученые рассмотрели задачу с точки зрения проблемы остановки, которая обсуждалась еще в работах Алана Тьюринга. Проблема остановки заключается в том, что на основе компьютерной программы и вводных данных нужно понять, остановится ли программа или будет работать вечно. Тьюринг доказал, что проблема остановки нерешаема — в том смысле, что не существует общего алгоритма решения этой проблемы. Программа, на которой тестировали свою гипотезу ученые из университета Макса Планка, состоит из двух частей: функция причинения вреда людям возвращает значение «правда» или «ложь», а функция контроля обеспечивает выполнение программы, если вред человеку не будет причинен. Однако ученые пришли к выводу, что их программа также не дает ответа на проблему остановки. Это приводит к выводу, что человечество не сможет сдерживать сверхразумный ИИ. Пока нас спасает только то, что такой ИИ пока еще (кажется) не появился. Или хорошо прячется. Мария Адзхед Источник: https://jair.org/index.php/jair/article/view/12202/26642 Источник: jair.org Комментарии: |
|