Reuters
Обещанные новые разоблачения от Эдварда Сноудена, автора утечки о слежке спецслужб США в интернете, который дожидается временного убежища в аэропорту "Шереметьево": опубликована обучающая презентация для американских разведчиков, которая доказывает существование технологии, позволяющей вскрыть почту и прочесть переписку в соцсетях практически любого интернет-пользователя.

В документах, полученных The Guardian от Эдварда Сноудена, программа Агентства национальной безопасности XKeyscore называется "системой широчайшего охвата". В ознакомительной презентации говорится, что технология отслеживает "практически все, чем обычный пользователь занимается в интернете".

Ключом к огромному массиву данных о пользователе становится адрес его личной электронный почты. С его помощью разведчики, заполняя простую форму и не получая никаких разрешительных документов, могут читать переписку и получить доступ к истории в браузере. Искать можно и с помощью других исходных данных - например, по имени, номеру телефона, IP-адресу, ключевым словам и по языку сайтов, который посещает пользователей.

Мониторят не только электронную почту. На одном из слайдов засекреченной презентации показано окно, в которое достаточно ввести имя пользователя в Facebook и период, который интересует сотрудника спецслужб. В презентации также демонстрируется, как после этого на экране появляется переписка пользователя.

Слежку можно ввести и в другом направлении: АНБ доступны IP-адреса всех интернет-пользователей, посещавших тот или иной сайт. "Я ищу всех в Швеции, что посетил конкретный экстремистский форум", - приводят в презентации пример, для чего можно использовать такую технологию. Вероятно, этот слайд доказывает, что следить спецслужбы США могут не только за своими гражданами.

Среди документов, которые среди прочих получила газета The Guardian, сотрудничающая со Сноуденом, есть отчет за 2008 году, согласно которому благодаря Xkeyscore поймано 300 террористов.

Чтобы эта система функционировала, спецслужбы поддерживают работу огромной базы данных, получая от некоторых интернет-ресурсов более чем по 20 терабайтов информации в день. Хранить такой массив не представляется возможным, поэтому разработан алгоритм, который ранжирует сведения по важности и в зависимости от этого устанавливает, как долго та или иная информация будет храниться. Некоторые данные хранят не больше 24 часов.