11 konkretów w walce z dezinformacją nowej szefowej Pionu Ochrony Informacyjnej Cyberprzestrzeni

Magdalena Wilczyńska w połowie marca objęła stanowisko Dyrektorki Pionu Ochrony Informacyjnej Cyberprzestrzeni NASK. Już trzy tygodnie później przedstawiła nową strategię walki z dezinformacją w polskiej cyberprzestrzeni. Oto jej 11 najważniejszych punktów:

  1. 1. Niezależność polityczna to priorytet

Walka z dezinformacją będzie niezależna od wpływów czy nacisków politycznych. Nie znaczy to, że nie będzie dotyczyć polityki – analiza treści o charakterze politycznym pozostanie jednym z obszarów badań. Zawsze będzie jednak inicjowana przez NASK, a nie przez podmioty zewnętrzne, które chciałyby zlecić jakieś konkretne działania.

  1. 2. Komplementarny zespół ekspertów

Stworzymy zespół interdyscyplinarny na wzór francuskiej agencji VIGINUM[1]. W składzie zespołu: fact checkerzy, eksperci w dziedzinie geopolityki, eksperci w dziedzinie nauk politycznych i społecznych, eksperci OSINT, analitycy danych, lingwiści. Dezinformacja to złożone zjawisko, a naszym celem jest stworzenie zespołu, który ma kompetencje, by analizować je całościowo.

  1. 3. Analiza wzorców zachowań

Przeniesiemy punkt ciężkości – z analizy treści na wzorce zachowań.

Analiza treści pod kątem językowym i narracyjnym musi być uzupełniona na dwóch poziomach:

  • Poprzez zastosowanie metody oznaczania danych (debunking, zgodnie z definicją NATO StratCom[2]), z uwzględnieniem analizy źródeł, autorów i technik manipulacyjnych, w połączeniu z analizą trendów narracyjnych.
  • Poprzez badanie OSINT (open-source intelligence, czyli biały wywiad) i analizę tzw. wzorców zachowań i metod autorów dezinformacji (Technics Tactics and Procedures).

Przeciwdziałanie dezinformacji w NASK koncentrowało się na analizie treści i eliminacji fałszywych narracji. Skierowanie uwagi na badanie wzorców zachowań autorów dezinformacji pozwoli skuteczniej oszacować skalę zjawiska. Rozszerzymy także zestaw środków zaradczych – oprócz komunikacji strategicznej skupimy się na współpracy z platformami w celu szybszego reagowania na treści dezinformacyjne oraz obalania wprowadzających w błąd lub fałszywych narracji.

  1. 4. Stosowanie technik białego wywiadu

Wykorzystamy metody OSINT-owe do badania dezinformacji, by wykrywać kampanie dezinformacyjne i siatki, przez które jest rozpowszechniana. Wykorzystamy metodologię FIMI Framework[3], DISARM Framework[4] oraz STIX[5]. Przyjęcie tych rozwiązań, które obecnie są wdrażane na poziomie europejskim, pozwoli nam na współpracę z innymi podmiotami i umożliwi badanie zjawiska w skali eu4. ropejskiej.

  1. 5. Utrzymanie Rapid Alert System

Częściowo utrzymamy strukturę Rapid Alert System, która obsługuje zgłoszenia obywateli wpływające do NASK oraz cały czas monitoruje treści pochodzące z podejrzanych źródeł. Rozszerzymy jednak zakres badania poprzez analizę innych platform (w szczególności Facebooka) oraz stron internetowych – do tej pory analizowano głównie platformę X (Twitter). Będziemy też badać metadane powiązane z treściami w mediach społecznościowych, takie jak znaczniki czasu, geotagi i identyfikatory użytkowników, by uzyskać wgląd w pochodzenie i wzorce rozpowszechniania dezinformacji.

  1. 6. Dokładna analiza dezinformacji zewnętrznej

Pogłębimy analizę dezinformacji pochodzenia zewnętrznego oraz tego, w jaki sposób przenika do polskiej infosfery (jak FIMI czy propaganda rosyjska). Analiza obejmie 8 filarów mechanizmu dezinformacji rosyjskiej, w tym: analizę komunikatów instytucji rządowych, instytucji finansowanych przez rząd, ich proxy (autorów i strony powielające propagandę rosyjską) oraz szkodliwe wykorzystywanie mediów społecznościowych. Opracujemy też analogiczną strukturę do analizy dezinformacji chińskiej i będziemy analizować przenikania tego rodzaju treści do polskiej infosfery.

  1. 7. Lepsza analiza dezinformacji wewnętrznej

Pogłębimy analizę dezinformacji pochodzenia wewnętrznego, tworzonej na potrzeby polityczne lub społeczne. Obejmie ona diagnozowanie głównych kanałów, źródeł, przekazów, technik, intencji i motywów. Ustalimy adresatów dezinformujących kampanii, które mogą uderzać w określone grupy (np. osoby LGBT, lekarze czy aktywiści klimatyczni) oraz środowiska, które za tymi kampaniami stoją.

  1. 8. Szybka i dobrowolna wymiana informacji

Będziemy wspierać mechanizmy dobrowolnej wymiany informacji, na przykład opierając się na istniejących lub nowych Centrach Analizy i Wymiany Informacji (ang. Information Sharing and Analysis Center, ISAC).

  1. 9. Odpowiedź na zagrożenia związane z AI – weryfikacja treści multimedialnych

Będziemy weryfikować autentyczność treści multimedialnych udostępnianych w mediach społecznościowych z wykorzystaniem narzędzi do analizy obrazu i wideo (deepfake) oraz najnowszych technologii – również tych tworzonych w NASK.

  1. 10. Edukacja, zwłaszcza szczególnie narażonych grup społecznych

Położymy większy nacisk na edukację społeczną (zwłaszcza grup narażonych, takich jak seniorzy czy młodzież) w zakresie rozpoznawania dezinformacji poprzez dalsze, regularne organizowanie warsztatów i szkoleń dla społeczności lokalnych, w których uczestnicy będą uczyć się identyfikować i krytycznie oceniać informacje. Dodatkowo szkolenia dla urzędników i policjantów.

  1. 11. Szybka ścieżka kontaktu z platformami

Stworzymy szybkie, osobowe ścieżki kontaktu i reakcji w najważniejszych portalach społecznościowych (Meta, Google, TikTok) i zaoferujemy wsparcie osobom publicznym, gdy ich wizerunek wykorzystywany będzie bezprawnie, np. do szerzenia dezinformacji.

 

[1] Francuska agencja odpowiedzialna za ochronę przestrzeni informacyjnej przed obcymi zakłóceniami, utworzona 13 lipca 2021 roku. Działa przy Sekretariacie Generalnym Obrony i Bezpieczeństwa Narodowego (SGDSN).

[2] Centrum Łączności Strategicznej NATO (NATO StratCom COE) zaczęło funkcjonować w styczniu 2014 r., a we wrześniu 2014 r. otrzymało akredytację NATO. https://stratcomcoe.org/pdfjs/?file=/publications/download/nato_stratcom_coe_fact-checking_and_debunking_02-02-2021-1.pdf (dostęp 03.04.2024).

[3] Struktura i proces przeciwdziałania Foreign Information Manipulation Interference (FIMI), czyli zagranicznym manipulacjom informacjami i ingerencjom w informacje.

[4] Platforma open-source służąca do zwalczania dezinformacji poprzez udostępnianie danych i analiz oraz koordynację działań.

[5] Structured Threat Information Expression (STIX) – format danych wykorzystywany do wymiany informacji o zagrożeniach cybernetycznych (CTI).