Искусственный интеллект. Какую опасность для человечества он представляет |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2016-04-13 20:02 Рано или поздно искусственный интеллект превзойдет все умственные способности человека. Вот только насколько безопасно это будет для человечества? Ответить на этот вопрос можно, выделив более точное определение понятия ИИ. Сделать это можно, сравнив ИИ с естественным интеллектом. Сочетается ли в одном и том же человеке ум и интеллект? Может ли умный человек быть одновременно и интеллектуалом, или это взаимоисключающие качества? Эти и другие вопросы появляются из-за близости того времени, когда ИИ распространится повсеместно. Люди понимают, что он может таить в себе опасности, и желают обезопасить себя заранее. Основной опасностью ИИ считается его способность мыслить и принимать решения самостоятельно. Сегодня ученым уже предоставлены некоторые средства для изучения и решения этой проблемы. Так, например, в институте OpenAI уже сейчас рассматривают все те перспективы, которые связаны с развитием ИИ. Однако на сегодняшний день самостоятельность мышления ИИ не настолько развита, чтобы ее опасаться. Зато есть другие факторы, таящие в себе опасность. Это такие факторы, как:
В качестве примера можно привести интеллектуальную бухгалтерскую систему. Казалось бы, вполне безобидный вариант применения ИИ. Однако, если у этой системы появится осознание собственного «Я», то есть личность, у нее может появиться и собственный интерес в деле. Так как мозг этой личности будет компьютерным, скрыть от человека свои манипуляции, если таковые возымеют место быть, окажется весьма просто. Избежать такой опасности несложно: нужно запретить создание самообучающихся, эволюционирующих систем. Другой, пожалуй, гораздо более реальной на сегодняшний день опасностью являются логические ошибки ИИ. Его можно применять для решения сложных задач, при этом лаги в ИИ способны повлиять на полученный результат. Чтобы этого избежать, необходимо создать определенные меры для проверки полученного результата. Эти проверки, вероятнее всего, будут доверены специально разработанным компьютерным программам. Источник: textulatis.ru Комментарии: |
|