В США хотят сделать одного робота-убийцу, чтобы проверить, насколько он опасен |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2021-02-02 08:37 Перед тем, как решить, смогут ли американские военные разрабатывать автономных роботов-убийц, консультативная группа Конгресса США решила, что правительство должно попробовать создать хотя бы одного. Группа, возглавляемая бывшим генеральным директором Google Эриком Шмидтом, во вторник завершила двухдневное публичное обсуждение применения ИИ для обеспечения национальной безопасности и технического военного прогресса. Его заместитель председателя Роберт Ворк, бывший заместитель министра обороны, заявил, что автономное оружие, как ожидается, будет меньше ошибаться на поле боя, чем люди. По словам представителя Google это приведет к сокращению потерь. Последние восемь лет коалиция неправительственных организаций настаивала на заключении договора о запрете на создание и использование роботов-убийц. Главный аргумент противников применения ИИ на поле боя состоит в том, что человеческий контроль необходим для оценки соразмерности атак и возложения вины за военные преступления. Тридцать стран требуют запрета использования создания роботов-убийц согласно веб-сайту коалиции, а орган Организации Объединенных Наций проводил встречи по этому вопросу как минимум с 2014 года. Хотя возможности автономного оружия существуют уже несколько десятилетий, беспокойство усилилось с развитием ИИ для их обеспечения. Кроме того, множество исследований обнаружили предубеждения в системах искусственного интеллекта и продемонстрировали примеры злоупотреблений со стороны программного обеспечения. Комиссия национальной безопасности по искусственному интеллекту США на заседаниях на этой неделе признала риски автономного оружия. Тем не менее, власти пока предпочитают проводить работу по борьбе с распространением роботизированных систем на основе ИИ, а не введение соответствующего договора или их полного запрета. В комиссии заявили, что это «будет противоречить интересам США». В итоге, члены комиссии пришли к выводу, что Конгресс должен хотя бы подумать о том, чтобы дать шанс роботам-убийцам или системам искусственного интеллекта, сообщает Reuters. В противном случае военные могут никогда не узнать, действительно ли они действуют достаточно эффективно во время военных действий. Мэри Уэрхэм, координатор восьмилетней кампании «Остановить роботов-убийц», сказала, что акцент комиссии «на необходимости конкурировать с аналогичными инвестициями, сделанными Китаем и Россией … служит только для поощрения гонки вооружений». Помимо оружия на базе ИИ, в длинном отчете комиссии рекомендовалось использовать ИИ спецслужбами для упрощения сбора и анализа данных; выделять $32 млрд ежегодно из федерального финансирования для исследований ИИ; создать новые органы, включая цифровой корпус, смоделированный по образцу армейского медицинского корпуса, и совет по конкурентоспособности технологий под председательством вице-президента США. Комиссия должна представить свой окончательный отчет Конгрессу в марте, но рекомендации не являются обязательными. Источник: hightech.fm Комментарии: |
|