7 законов робототехники Сатья Наделлы

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Робот не может своим действием или бездействием причинить вред человеку. Робот должен выполнять все приказы, которые ему отдает человек. Робот должен заботиться о своей безопасности, но при условии, что это никак не повредит человеку. Так звучат «три главные закона робототехники», сформулированные Айзеком Азимовым, американским писателем-фантастом, еще в 1942 году. И на сегодняшний день, когда за создание искусственного интеллекта (ИИ) взялись с новой силой, эти правила как никогда актуальны. 

Вообще к ИИ все относятся по-разному: кто-то считает, что за этим будущее человечества, а кто-то наоборот - уверен, что это приведет к будущему, где для этого самого человечества вообще не будет места. Сатья Наделла, глава компании Microsoft, относится к первой категории людей, и в своей недавней колонке для журнала Slate он дополнил законы Айзека Азимова более конкретными советами, которые актуальны для ИИ на сегодняшний день. Как раз о них и пойдет речь в этом материале.

Новые «законы робототехники» от Сатья Наделлы:

Искусственный интеллект должен быть разработан только лишь для того, чтобы помочь людям, а не с целью заменить их. Роботы могут выполнять опасную работу (к примеру, тушить пожары или обезвреживать взрывчатку), но они точно никак не должны увеличить уровень безработицы в мире.

Процесс создания искусственного интеллекта обязан быть прозрачным. Все мы должны знать, как работает технология и каковы ее правила, как она видит и как анализирует реальность. Роботы будут понимать о людях все, поэтому и мы в свою очередь должны в них хорошо разбираться.

Для искусственного интеллекта должна существовать система алгоритмической подотчетности, которая бы сразу позволяла отключать технологию, если она начнет вести себя по неожиданному сценарию - некая кнопка «OFF». Это позволит предотвратить непреднамеренный вред, и вообще успокоить многих людей.

При разработке ИИ необходимо сделать огромный акцент именно на конфиденциальности данных его владельца, потому что технология будет иметь полный доступ к личной информации. Нельзя никак допустить, чтобы система опубликовала их в Интернете или еще в каком-то другом публичном месте.

Заниматься творчеством (рисовать картины, создавать скульптуры или писать музыку) должен только человек. Конечно, вмешательства искусственного интеллекта и в эту сферу избежать не удастся, но нужно понимать, что машина никогда не сможет мыслить по-человечески.

Мы с вами должны быть готовы уже в ближайшем будущем принимать медицинские диагнозы или юридические решения от искусственного интеллекта. Но в таком случае создали технологии должны четко понимать, что именно они несут ответственность за все действия своих творений.

Thinking robot

Следует создать этические нормы для искусственного интеллекта, чтобы технология в один прекрасный момент не начала считать себя умнее какого-то конкретного человека, и не превратилась в рассадник расистских шуток и прочих неподобающих явлений.

Будущее за искусственным интеллектом?

Если подойти к вопросу и процессу создания искусственного интеллекта правильно (с использованием вышеперечисленных правил), то данная технология действительно поможет человечеству и заставит общество процветать. Простой пример: робот за считанные минуты (или даже секунды) найти среди миллиона документа нужный образец, на поиск которого обычный юрист может потратить не один месяц или может не найти вовсе-


Источник: keddr.com

Комментарии: