Стивен Хокинг заявил, что развитие искусственного интеллекта нужно взять под контроль |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2016-07-04 18:02 Стивен Хокинг заявил, что развитие искусственного интеллекта нужно взять под контроль Астрофизик Стивен Хокинг заявил, что не уверен в положительном эффекте развития искусственного интеллекта. Свое мнение знаменитый ученый высказал в передаче Ларри Кинга. Хокинг объяснил, что разработка искусственного интеллекта должна быть регламентировала не только соблюдением требований этики, но также и мер безопасности, поскольку машины, вышедшие из-под контроля людей, могут стать большой проблемой, их будет сложно остановить. Стивен Хокинг не уверен, что развитие этого направления повлечет наверняка изменения к лучшему. В случае, если машины дойдут в своем развитии до критического этапа и смогут эволюционировать без помощи людей, будет сложно спрогнозировать, совпадут ли их задачи с задачами человека. Более того, искусственный разум будет во многом опережать темпы развития человеческого интеллекта. Комментарии: |
|