пПрограмму АНБ США заподозрили в возможной причастности к смертям тысяч невинных людей

среда, 17 февраля 2016 г.

Учёный и исполнительный директор Human Rights Data Analysis Group Патрик Болл (Patrick Ball) назвал результаты машинного обучения, на которые полагалось АНБ США при бомбардировке Пакистана, «абсолютно ерундовыми» и научно несостоятельными. Это означает, что могли погибнуть тысячи невиновных людей, — поясняет Аrstechnica.

С 2004 года в Пакистане были убиты с помощью беспилотников от 2,5 до 4 тысяч человек, большинство которых были определены правительством США как экстремисты.

Согласно документации, обнародованной Эдвардом Сноуденом, правительственная программа Skynet участвовала в массовом наблюдении за мобильной телефонной сетью Пакистана, собирала метаданные и использовала алгоритмы машинного обучения, чтобы оценить вероятность того, что тот или иной человек является террористом.

Система оценивала более 80 параметров, в том числе шаблоны повседневного поведения человека и его путешествия в другие страны. Программа основана на предположении, что поведение террористов существенно отличается от поведения рядовых граждан, однако ещё весной 2015 года стало известно, что согласно утекшей в сеть документации, самый высокий рейтинг по принятым системой показателям имел Ахмад Заидан, давний руководитель телекомпании «Аль-Джазира» в Исламабаде.

Он часто путешествует по регионам, в которых действуют террористы, и его фото попало во внутреннюю презентацию результатов работы Skynet с пометкой «член "Аль-Каиды"».

Сам журналист любые обвинения такого рода отклонил.

Утверждать, что я или любой другой журналист имеет отношение к одной из этих групп, делая выводы на основе контактов, записей телефонных разговоров или других источников — абсурдное искажение истины и полное непонимание журналистской профессии.

Ахмад Заидан, журналист

Важной частью программы Skynet являлось изучение алгоритмов поведения известных террористов, а проблема заключается в том, что данных о них относительно немного. Тестируя систему, ей давали информацию о 100 тысячах случайно выбранных человек и шести террористах, и программа должна была найти «спрятанного» седьмого.

Существует слишком мало известных террористов, чтобы использовать данные о них для тренировки и проверки модели. Если они используют одни и те же данные и для обучения, и для тестов, их оценка — абсолютная фигня.

Патрик Болл, исполнительный директор Human Rights Data Analysis Group

Болл подчеркнул, что низкое качество результатов приводит к проблемам с точностью классификации — даже 0,18 процента ложных срабатываний программы при выборке в 55 миллионов человек означает, что 99 тысяч невинных ошибочно маркированы как «террористы».

На просьбу Аrstechnica о комментарии Агентство национальной безопасности США не отреагировало. Продолжает ли система действовать в настоящее время, неизвестно.

+10

Нашли опечатку? Выделите фрагмент и отправьте нажатием Ctrl+Enter.

This entry passed through the Full-Text RSS service - if this is your content and you're reading it on someone else's site, please read the FAQ at http://ift.tt/jcXqJW.