Новые подтверждения опасности автономных систем оружия |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2016-03-04 14:50 искусственный интеллект, Беспилотные летательные аппараты, системы технического зрения Новые подтверждения опасности автономных систем оружия Бывший сотрудник Пентагона, который участвовал в создании стратегии использования автономного оружия, утверждает, что такое оружие может в реальных условиях стать неуправляемым из-за возможных сбоев, а также взлома, обманных действий и манипуляций со стороны противника. Появившиеся в последние годы недорогие датчики и новые технологии искусственного интеллекта упростили разработку систем вооружения, которые убивают самостоятельно, без участия оператора оружия. Призрак так называемых роботов-убийц уже инициировал международное движение протеста и дискуссии в рамках ООН об ограничении разработки и внедрения таких систем – мы неоднократно писали об этом на нашем сайте. Новый доклад подготовил Пол Шарр, который руководил программой ведения будущих войн в Центре новых подходов к безопасности США, стратегической исследовательской группе в Вашингтоне. С 2008 по 2013 года Шарр работал в Министерстве обороны, где он участвовали в создании стратегии использования беспилотного и автономного оружия. В 2012 году он был одним из авторов директивы Министерства обороны, которая определяет военную стратегию в отношении использования таких систем. Доклад противопоставляет эти полностью автоматизированные системы, которые способны самостоятельно выслеживать и убивать, с оружием, которое держит людей в курсе событий в процессе выбора и поражения цели. Шарр, который в качестве рейнджера служил в армии США в Ираке и Афганистане, указывает на потенциальные виды отказов, которые могут возникнуть в полностью автоматизированных системах. Для того чтобы подчеркнуть военные последствия технологических отказов, в докладе перечисляются сбои, которые произошли за последнее время в военных и коммерческих системах, отличающихся высоким уровнем автоматизации. Его исходная точка зрения заключается в том, что автономные системы вооружения неизбежно страдают отсутствием гибкости, что люди должны адаптироваться к новым обстоятельствам, когда убивающие машины будут ошибаться, чего необходимо избежать. Полностью автономное оружия сегодня начинает появляться в военных арсеналах. Например, Южная Корея развернула автоматизированные самонаводящиеся пулеметы на границе демилитаризованной зоны с Северной Кореей, Израиль использует беспилотный самолет, который будет атаковать вражеские радиолокационные системы при их обнаружении. Американские военные пока не имеют совершенных систем автономного оружия в своем арсенале. Однако в этом году Министерство обороны запросило почти $1 млрд. для производства противокорабельной ракеты дальнего радиуса действия Локхид Мартин, которая описывается как «полуавтономное» оружие по определению, установленному меморандумом Пентагона 2012 года. Первоначальную цель ракеты будет выбирать оператор, после чего она в автономном режиме улетает за несколько сотен километров, чтобы автоматически идентифицировать и атаковать вражеский корабль. Сообщение Центра новых подходов к безопасности США посвящено случаям неожиданного поведения высоко компьютеризированных систем, таким как системные сбои и ошибки, а также случаям непредвиденного взаимодействия с окружающей средой. «Во время одного из групповых полетов над Тихим океаном восьми реактивных истребителей F-22 произошел общий компьютерный сбой, подобный проблеме 2000 года, когда самолеты пересекали международную демаркационную линию смены дат», - говорится в отчете. «Все бортовые компьютерные системы отключились и результатом была почти катастрофическая потеря самолета. Хотя существование Международной демаркационной линия можно было бы четко предвидеть, поведение программного обеспечения при пересечении линии не было проверено при тестировании». Отсутствие открытости в технологиях ИИ, связанных с последними достижениями в области машинного зрения и распознавания речи, также отмечается в качестве источника потенциальных катастрофических сбоев. Комментарии: |
|