Стивен Хокинг заявил, что развитие искусственного интеллекта нужно взять под контроль

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Стивен Хокинг заявил, что развитие искусственного интеллекта нужно взять под контроль

Астрофизик Стивен Хокинг заявил, что не уверен в положительном эффекте развития искусственного интеллекта.

Свое мнение знаменитый ученый высказал в передаче Ларри Кинга. Хокинг объяснил, что разработка искусственного интеллекта должна быть регламентировала не только соблюдением требований этики, но также и мер безопасности, поскольку машины, вышедшие из-под контроля людей, могут стать большой проблемой, их будет сложно остановить. Стивен Хокинг не уверен, что развитие этого направления повлечет наверняка изменения к лучшему.

В случае, если машины дойдут в своем развитии до критического этапа и смогут эволюционировать без помощи людей, будет сложно спрогнозировать, совпадут ли их задачи с задачами человека. Более того, искусственный разум будет во многом опережать темпы развития человеческого интеллекта.

Комментарии: