Nie pozwól sobie odebrać głosu. Kampania, która sięga głębiej
Dezinformacja nie zawsze wygląda jak zagrożenie. Często to znajoma twarz, intrygujący tytuł, pozornie wiarygodne źródło. Nowa kampania społeczna NASK „Nie pozwól sobie odebrać głosu” bierze na tapet nie tylko treści, które wprowadzają w błąd, ale i emocje, które tym manipulacjom towarzyszą.


Zasięg kampanii „Nie pozwól sobie odebrać głosu” jest estymowany na 11,5 mln odbiorców, co czyni ją jedną z najszerzej zakrojonych akcji społecznych NASK w ostatnich latach.
– Od początku wiedzieliśmy, że chcemy stworzyć coś więcej niż spot. Chcieliśmy pokazać, jak wygląda moment zetknięcia się z dezinformacją – z poziomu emocji, przestrzeni, technologii. I jak łatwo się w tym wszystkim pogubić – mówi reżyser kampanii Pascal Pawliszewski
To kampania inna niż wszystkie – trzy zaawansowane technologicznie spoty, zrealizowane w Virtual Production, które sięgają po emocje, obrazy i historie, żeby w ciągu 30 sekund uruchomić refleksję i dać impuls do działania – dodaje.
Kampania prowadzona jest wielokanałowo, choć jej trzonem pozostaje telewizja – medium, które nie tylko utrzymuje wyjątkowy poziom zaufania społecznego, lecz także wciąż pełni rolę jednego z głównych źródeł informacji dla milionów Polek i Polaków.
– Każde medium ma swoją siłę – wskazuje Magdalena Wilczyńska, dyrektor Pionu Ochrony Informacyjnej Cyberprzestrzeni w NASK. – Ale telewizja to coś więcej niż kanał dotarcia. To rytuał, przestrzeń zaufania. W czasach niepewności ludzie wracają do źródeł, które znają najlepiej. Właśnie dlatego zależało nam, by kampania zaistniała tam, gdzie to zaufanie jest wciąż największe – dodaje Wilczyńska.
– Nie chodziło nam o straszenie deepfake’iem – mówi Pascal Pawliszewski – Chcieliśmy dać widzowi do ręki emocje i obraz, który zostaje na dłużej. To nie miała być tylko ilustracja zjawiska. To miała być historia, która zostaje w głowie.
Twarzą kampanii został Karol Strasburger – aktor, którego nie trzeba nikomu przedstawiać. Od lat obecny jest w telewizji jako prowadzący „Familiadę”, jest znany z wielu filmów i seriali takich jak „Polskie Drogi” czy „07 zgłoś się”. Dla wielu widzów jest synonimem spokoju, stabilności i wiarygodności, nie angażuje się nigdy po żadnej ze stron politycznego sporu. Karol Strasburger do dezinformacji ma stosunek osobisty – sam padł ofiarą manipulacji i wykorzystania swojego wizerunku. Dzięki temu jego obecność w kampanii to nie marketingowy chwyt, a prawdziwy głos w ważnej sprawie.
Stawiamy na nowoczesność
W kampanii zastosowano technologię Virtual Production znaną z największych światowych produkcji (Matrix 4, Blade Runner 2049) – połączenie fizycznych planów z generowaną cyfrowo rzeczywistością w czasie rzeczywistym. Spoty zrealizowano na ekranach LED w studiu ATM z użyciem Unreal Engine, z precyzyjnym odwzorowaniem światła, trackingiem kamery (głowica 360°) i cyfrowymi przejściami przestrzeni.
– W jednym ze spotów pokój bohaterki dosłownie rozpada się na oczach widza – opowiada Pawliszewski. – To nie tylko efekt wizualny. To metafora tego, co dzieje się w głowie osoby bombardowanej informacjami, których nie potrafi zweryfikować.
Za scenografię odpowiadała Agata Witek, za zdjęcia Adrian Kuciel, a za całość wykonania ATM System. Niektóre ujęcia wymagały kilkunastu powtórzeń, by odpowiednio uchwycić emocje aktorów w połączeniu z płynną animacją scenografii. Wirtualne przestrzenie były projektowane w pełnej synchronizacji z działem operatorskim i reżyserskim, tak by każda zmiana światła czy perspektywy była spójna z emocją i rytmem opowieści.
– Najtrudniejsze było zgranie wszystkich elementów technologicznych – od planowania scenografii, przez tracking kamery, po odwzorowanie światła w przestrzeni wirtualnej. Ale to właśnie dzięki temu udało się osiągnąć efekt, który nie tylko wygląda nowocześnie, ale przede wszystkim emocjonalnie działa – dodaje Pawliszewski.
Historie, które poruszają
Choć każdy spot opowiada inną historię, wszystkie łączy jedno: pokazują, jak łatwo wpaść w pułapkę dezinformacji i jak niewiele trzeba, by się przed nią uchronić. Każdy obraz, każde słowo w tych 30 sekundach zostało zaplanowane z myślą o emocjach widza – by skłonić go do zatrzymania się, refleksji, a czasem po prostu do jednego kliknięcia mniej. Spoty są zwięzłe, dynamiczne i silnie osadzone w codziennym doświadczeniu odbiorców – pokazują sytuacje, które mogą spotkać każdego z nas. To właśnie w tej codzienności ukryte są największe zagrożenia.
- Chaos w zasięgu ręki
Zaczyna się od drobnej niepewności. Kobieta przegląda wiadomości, otoczona spokojnym wnętrzem swojego mieszkania. Nic nie wskazuje na to, że za chwilę jej rzeczywistość się rozpadnie. Ściany zaczynają się kruszyć, światło gaśnie, a pojedyncze zdania i obrazy unoszą się w powietrzu. To nie film science-fiction, tylko bardzo realna metafora tego, jak działa dezinformacja.Ten spot opowiada o emocjonalnym zagubieniu. O momencie, w którym przestajemy rozróżniać, co jest prawdą, a co tylko wygląda znajomo. Adres strony bezpiecznewybory.pl pojawia się w chwili, gdy bohaterka odzyskuje kontrolę. To konkretna odpowiedź na chaos – i symboliczna droga wyjścia. - Zatrzymaj się, zanim klikniesz
Drugi spot przenosi widza w zupełnie inny świat – ruchliwy, nerwowy, pełen przypadkowych bodźców. To przestrzeń social mediów, ale pokazana oczami tych, którzy żyją w ciągłym pośpiechu. Kobieta klika „udostępnij” w drodze na spotkanie, mężczyzna dzieli się newsem z wnętrza taksówki, para komentuje nagłówki podczas spotkania w restauracji. Wszystko dzieje się szybko, bezrefleksyjnie. Widzimy, jak łatwo uruchomić łańcuch dezinformacji – i jak trudno go zatrzymać.Ale w tym świecie jest też miejsce na refleksję. Jedna z bohaterek zatrzymuje się tuż przed kliknięciem. To nie jest wielka rewolucja – ale wystarczy, by zadać sobie pytanie: czy naprawdę wiem, co udostępniam? - Fałszywa twarz, prawdziwa reakcja
Trzeci spot ma inną energię. Jest intymny, zakulisowy, bardziej osobisty. Karol Strasburger siedzi w garderobie, gdy charakteryzatorka pokazuje mu nagranie. Na ekranie smartfona sam bohater, deklaruje poglądy, pod którymi sam by nigdy się nie podpisał. Przekaz jest polityczny, stanowczy, zmanipulowany. To deepfake – i jednocześnie coś, czego Strasburger naprawdę doświadczył.Ta scena nie potrzebuje efektów specjalnych. Ten spot pokazuje, jak bardzo technologia może dziś zmanipulować nawet najbardziej znaną postać. I jak ważne jest, by umieć się temu przeciwstawić.
Zaufanie i odbiorca
Z badań NASK wynika jasno: to kobiety w wieku 35-44 są najbardziej narażone na wpływ zmanipulowanych treści – łączą media tradycyjne z internetowymi, są aktywne, ale przeciążone informacyjnie. Dlatego tak ważny był wybór twarzy kampanii.
– Karol Strasburger był naturalnym wyborem – mówi Magdalena Wilczyńska z NASK. – To osoba medialnie wiarygodna, niekojarzona z żadną opcją polityczną, obecna w domach Polaków od lat. I co ważne – sam padł ofiarą manipulacji swoim wizerunkiem.
W spocie gra samego siebie – aktora, który konfrontuje się z własnym zmanipulowanym „ja”. To jeden z mocnych momentów kampanii. – Widzieliśmy jego prawdziwe emocje – mówi reżyser. – Nie musiał niczego grać”.
Dlaczego to takie ważne?
Z raportu IPSOS z 2024 roku wynika, że 94% osób na świecie przynajmniej raz zostało wprowadzonych w błąd przez fałszywą informację. 87% obawia się, że dezinformacja wpłynie na wynik nadchodzących wyborów.
W dobie personalizowanych algorytmów, clickbaitów i treści generowanych przez AI, coraz trudniej jest odróżnić informację od manipulacji. Szczególnie w okresie przedwyborczym, gdy emocje społeczne są wyostrzone, a internet zalewają sprzeczne przekazy, potrzeba krytycznego myślenia staje się kluczowa.
Więcej niż kampania
Kampania potrwa do wyborów prezydenckich. Wszystkie spoty, dodatkowe materiały edukacyjne i formularz do zgłaszania incydentów dostępne są na stronie: www.bezpiecznewybory.pl.
To kampania, która nie tylko ostrzega, ale daje narzędzia. I przypomina: każdy wolny głos ma znaczenie
Wyróżnione aktualności
Szeroki front małych systemów na Impact’25
Wbrew pozorom zapewnienie cyfrowego bezpieczeństwa w gminie jest trudniejsze niż w banku – mówił w dyskusji podczas Impact’25 Radosław Nielek, dyrektor NASK. W jednej gminie może znajdować się jednocześnie wiele różnych systemów informatycznych – wodociągów, szkół, placówek medycznych.
NASK o krok przed cyberprzestępcami. Forum Bezpieczeństwa Banków 2025
Kradzież tożsamości, ataki na infrastrukturę i próby manipulacji danymi. Sektor finansowy jest na pierwszej linii frontu w walce z cyberprzestępcami. NASK – jako lider w dziedzinie cyberbezpieczeństwa - wychodzi naprzeciw tym wyzwaniom. – Udział w Forum Bezpieczeństwa Banków to dla nas okazja do poznania realnych potrzeb sektora bankowego i wdrożenia konkretnych działań – mówił Piotr Bisialski, kierownik zespołu NASK Incident Response Team.
PLLuM rośnie w siłę
600 tysięcy promptów wpisanych w okienko PLLuMa i nowości, od których dzielą nas nie lata, a zaledwie tygodnie – kolejne modele i prototyp inteligentnego asystenta. W siedzibie NASK w Warszawie spotkali się wszyscy uczestnicy konsorcjum HIVE AI. Grupy, która ma za zadanie rozwijać i wdrażać polski model językowy (PLLuM).
Rozkwitnij z MAK. Program Mentoringu Aktywnych Kobiet nabiera barw
Podnieś swoje kompetencje z zakresu cyberbezpieczeństwa i wejdź na rynek nowych technologii! Już kilkaset kobiet zgłosiło chęć udziału w programie MAK (Mentoring Aktywnych Kobiet), ogłoszonym przez NASK we współpracy z Ministerstwem Cyfryzacji. Zostań jedną z nich — zgłoś swój udział i rozwiń skrzydła w indywidualnym programie mentoringowym. Nabór trwa do końca maja.
Najnowsze aktualności
PLLuM i polska wizja cyfrowej Europy
PLLuM i jego możliwości zostały zaprezentowane podczas Digital Summit 2025 - najważniejszego wydarzenia dotyczącego cyfrowej transformacji podczas polskiej prezydencji w Radzie UE. „Nie jesteśmy starym kontynentem. Jesteśmy kontynentem AI. Jesteśmy cyfrowym kontynentem” – mówił wiceminister Standerski. PLLuM to dowód na prawdziwość tej tezy.
Co jest grane? Cyberbezpieczeństwo z Karolem Bojke z CERT Polska
Podczas „Co Jest Grane Festival” w Warszawie miało miejsce spotkanie festiwalowiczów z Karolem Bojke, ekspertem z zespołu CERT Polska. W przystępny sposób opowiedział on o zagrożeniach czyhających na nas w sieci oraz o tym, jak się przed nimi skutecznie bronić.
Gdy sztuczna inteligencja wkracza do szkoły
Najwięcej nauczycieli – aż 81 proc. – obawia się, że młodzież, korzystając z generatywnej sztucznej inteligencji (GSI), uzależni się od niej. Wśród zagrożeń pedagodzy wymieniali brak zdolności krytycznego myślenia czy pogorszenie relacji między uczniami. Są jednak także korzyści, a wśród nich oszczędność czasu i większa kreatywność. Oto wnioski z badań zaprezentowane w raporcie NASK “GSI w polskiej szkole. Przecieranie szlaków".