Значок верификации не спасает пользователей от репутационной войны — одного из известнейших способов ведения кибервойн, при котором репутационная волатильность амплифицируется в стратегических целях. Эмили Розамонд обращает внимание на репутационную войну во время американских выборов в 2016 году. Она следует традиции исследователей, которые считают, что кибервойны на выборах в США определяют стратегии кибервойн в современном мире. Тем не менее существует множество примеров репутационных войн за пределами американоцентричной генеалогии. В частности, российская технология распознавания лиц FindFace, отвечающая за все масштабные проекты политических преследований в 2020 году. Свою известность она приобрела в 2016 году, когда ее активно использовали для раскрытия личностей и последующей травли российских порноактрис. Этот пример показывает, что верификация в российском киберпространстве развивается по иной временной шкале, чем в США. В 2016 году американские компании заявили о необходимости верифицировать не только самих пользователей, но и производимый ими контент. Социальные медиа быстро воплотили это намерение в жизнь, породив немало скандалов. Они стремились разработать новую политику верификации, не столько вводя новые правила, сколько расширяя функции, приписываемые акту подтверждения. Голубые галочки наделили ответственностью за производимый контент и за подавление фейковых новостей и троллинга — тех методов информационной войны, о которых узнал весь мир в ходе американских выборов 2016 года.
Инфраструктура информационных войн неотделима от машинных инфраструктур правды. Не только потому, что значки верификации презентуются как способ борьбы с вездесущими информационными войнами. Категория правды созависима с современными методами кибервойн, поскольку истина всегда присутствует в них как негативное пространство. Чтобы создать или, наоборот, разоблачить фейковое, выдаваемое за истинное, нужно обозначить эти категории хотя бы косвенно. «Кибервойна — это использование информации в качестве оружия, которое всегда грозит уничтожить истину», и поэтому определяет ее, заставляя изменяться и адаптироваться (Matviyenko & Dyer-Witheford, 2019). В то же время правда в инфраструктурах кибервойн подчиняется тем же правилам, что и правда в MIT: она базируется на вовлеченности. Как я упоминала ранее, такой принцип истинности можно объяснить через цепи виральности и трекинга.
Если рассматривать кибервойну с точки зрения машинных инфраструктур правды, можно увидеть, насколько контрпродуктивны попытки защитить пользователей, обращаясь к контенту кибервойны, а не к самой инфраструктуре его распространения. Фейковость новости не определяется ее производством или потреблением — качествами, конституирующими контент. К примеру, на стадии производства фейковые новости могут быть задуманы как ирония или сатира; если же рассматривать их с точки зрения потребления, то придется допустить, что все, кто читает фейковые новости, обязательно им верит. В то же время было множество случаев, когда влиятельные медиа подхватывали шуточные новости и распространяли их как реальные. С другой стороны, вторая часть утверждения относительно потребления может показаться парадоксальной. Так, исследователи Джонатан Грей, Лилиана Боунегру и Томмазо Вентурини доказывают, что первичное распространение фейковых новостей осуществляют те, кто в них не верит. Как тролли, так и разоблачители фейк-ньюс, располагаясь на противоположных краях политического спектра, в обоих случаях заявляют, что не поддерживают распространяемые ими взгляды. Тех, кто производит подобную информацию «искренне», гораздо больше, чем троллей, нанятых государством (например, через российское «Агентство интернет-исследований» и более современную «Панораму») или частными компаниями (примеры можно найти, почитав про заказные комментарии («астротерфинг»), использование учетных записей-«виртуалов», или «сокпаппетов» и «подсадных уток»). Кроме того, культура неоплачиваемого троллинга подразумевает восприятие правды через вовлеченность, а не через доверие к контенту: главное здесь вызвать реакцию, а не кого-либо убедить.
Как отмечает Лиза Паркс, идея сменить фокус с производства и потребления информации (тактика, оказавшаяся контрпродуктивной для анализа фейковых новостей) на анализ ее материального распространения возникла в рамках инфраструктурного поворота в медиаисследованиях. Взгляд с точки зрения инфраструктуры позволяет рассмотреть циркуляцию информации как активный процесс, который постоянно поддерживается в действии, и который определяет, как она распространяется в самом материальном смысле. Инфраструктурный подход позволил Дж. Грею, Л. Боунегру и Т. Вентурини анализировать фейковые новости как мусорный контент, который становится фейковым в результате не столько обманчивости, сколько «распространяемости» (spreadability). «Распространяемость» обусловливается инфраструктурами социальных медиа, цель которых — «максимизировать виральность контента». Именно из-за того, как функционируют информационные инфраструктуры, виральность не является всепроникающей, как ее изображают в большинстве СМИ. Сущность виральности лучше передает понятие «масштабируемости» (scalability) — этот термин был предложен Филипом Говардом и Сэмюэлом Вули для описания интернет-пропаганды (Woolley and Howard, 2019: 14). Масштабируемость позволяет информации быстро распространяться благодаря автоматизации, но не дает интернет-пропаганде той власти, которой она не обладает.
Выбор терминологии в данном случае крайне важен, поскольку информационная война действует посредством интернет-жаргона — дискурса, усыпляющего внимание (Matviyenko & Dyer-Witheford, 2019). Он приучает нас быть терпимыми «к опасному вторжению в нашу жизнь и к постоянной сдаче индивидуальных и социальных свобод неуклонно растущей власти силовых служб — через обновления приложений, улучшения смартфонов», подобно тому, «как во времена холодной войны „ядерный жаргон“ убаюкивал нас, чтобы мы привыкли к апокалиптическим перспективам» (nukespeak — использование эвфемизмов вместо терминов, связанных с применением ядерного оружия).
Приписывание информационной войне большего потенциала, чем у нее есть на самом деле, порождает чувство беспомощности и нормализацию тотального контроля (который еще не появился, но вполне возможен в будущем). Кроме того, такая стратегия укрепляет те самые инструменты, которым технологии якобы стремятся противодействовать. Из-за мистификации о дипфейках социальные медиакомпании инвестировали миллионы в тренировку алгоритмов распознавания лиц для борьбы с несуществующими врагами, в то же самое время игнорируя настоящие кампании по дезинформации. Парадигма фейковых новостей вызвала волну разоблачений, которая способствовала расцвету информационных вбросов (Engelhardt, 2020; Gray et al., 2020). «Интерпретация исследователей тоже может стать оружием; те, кто смотрит в бездну кибервойны, вскоре обнаруживают, что она смотрит на них» (Matviyenko & Dyer-Witheford, 2019). Поэтому, изучая инфраструктуры «дым-машин истинности» и автоматизированные механизмы, масштабирующие интернет-пропаганду, нужно быть осторожными, чтобы не распространять туман дальше.