Экс-инженер Google: «Дроны с ИИ могут атаковать атомную станцию или начать войну» |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2019-09-17 01:01 Новое поколение автономных роботов может стать причиной массового истребления мирного населения, предупреждает бывший инженер Google Лора Нолан. Она ушла из компании в знак протеста против военных контрактов, лично ознакомившись с их содержанием. Год назад Google предложила Лоре Нолан поработать над проектом для армии США — технологией военных дронов, которыми управляет искусственный интеллект. Свой категорический протест программист выразила, уволившись из компании. По ее мнению, роботы, обладающие вооружением и не управляемые человеком, должны быть объявлены вне закона по тем же причинам, по которым запрещено химическое оружие: они убивают без разбора. Как пишет Guardian, Google пригласила Нолан, выпускницу Тринити-Колледжа Дублина, принять участие в проекте Maven в 2017. К этому времени она проработала в компании четыре года и стала одним из их ведущих программных инженеров в Ирландии. Однако Нолан серьезно сомневалась в этичности этого проекта Министерства обороны США, задача которого состояла в том, чтобы ускорить распознание изображений для дронов. Компания была вынуждена свернуть проект Maven в марте этого года, после того как 3000 сотрудников подписали петицию против участия Google в таких разработках. В отличие от дистанционно управляемых БПЛА, роботы-убийцы потенциально способны вытворять такие вещи, на которые они изначально не были запрограммированы, убеждена Нолан. Она присоединилась к кампании по запрету роботов-убийц и проинформировала дипломатов ООН в Нью-Йорке и Женеве об опасностях автономного вооружения. «Вероятность катастрофы пропорциональна числу таких машин в данной области. Речь идет о вероятности массовых и незаконных убийств, даже по законам военного времени, особенно если таких машин сотни или тысячи», — заявила она. Роботов могут с бить с толку погодные условия, которые не были учтены при их программировании, или их алгоритмы могут неверно истолковать намерения группы вооруженных людей, приняв мирных охотников за боевиков. Еще Нолан пугает то, что испытать автономных боевых роботов можно только в реальных условиях. «Возможно, как раз это и происходит сейчас в Сирии, кто знает? Что мы точно знаем, так это то, что в ООН Россия противится любым попыткам ограничить или запретить это оружие», — сказала она. Опасность для цивилизации несут не только машины, оснащенные пулеметами. Способны на такое и секс-куклы с ИИ. По мнению психолога Марианн Брэндон, как только они станут общедоступными и реалистичными, человек перестанет размножаться, а традиционные семьи превратятся в чудачество. Источник: hightech.plus Комментарии: |
|