The NSA’s SKYNET program may be killing thousands of innocent people

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


SKYNET существует. В Пакистане. Это название программы АНБ США по анализу Big Data мобильной связи. Далее они использует алгоритмы машинного обучения, чтобы оценить вероятность каждого человека быть террористом. На основе этих данных экстремистов убивали.

Для полноты картины убивать их летали беспилотники. Ну чтобы уж точно никто не сомневался в названии Skynet.

При этом Patrick Ball - data scientist и исполнительный директор Human Rights Data Analysis Group называет алгоритмы Skynet "смехотворно оптимистичными".

А дальше вот какая ситуация: согласно данным Бюро Журналистских Расследований, с 2004 года в Пакистане от ударов беспилотников погибли от 2500 до 4000 человек. И большинство из них были классифицированы правительством США как "экстремисты". С какого момента работает алгоритм машинного обучения не известно, но вроде бы его начали разрабатывать еще до 2007.

Пару слов о самой системе:

- имеет профили абонентов

- отслеживает их перемещения

- выключение мобильного телефона помечается как попытка уклонения от наблюдения

- обмен сим-картой с другим человеком также помечается как подозрительный маркер (а понимает это программа так как появляется разница между данными местоположения сим-карты и активности в социальных сетях)

Основная проблема в том, что программа работает на основе обучения вручную - как спам фильтр - вы помечаете спам/не спам и дальше ваш фильтр справляется сам. Здесь вы скармливаете машине несколько известных террористов (их профили мобильной активности) и несколько невиновных граждан. Вот только проблема, что известных террористов вообще не так много, поэтому достоверность работы программы вызывает недоверие.

Далее в статье подробное описание работы алгоритма на достаточно серьезном уровне.

В общем, что можно сказать. Выглядит это печально. Мы боимся, что нас завоюет искуственный интеллект. Но пока что мы сами используем искусственный интеллект для убийства, возможно, невинных людей.

http://arstechnica.co.uk/security/2016/02/the-nsas-skynet-program-may-be-killing-thousands-of-innocent-people/

Также я веду канал в телеграме, где публикую те же посты: telegram.me/peterlevichchannel


Источник: arstechnica.co.uk

Комментарии: