Typ_aktualnosc Aktualność
19 Lutego 2025|3 min. czytania

Jak rozpoznać deepfake po błędach logicznych?

W kolejnym, przedostatnim już odcinku cyklu wideo „Jak rozpoznać deepfake?” czas na jedne z najbardziej wyrazistych wskaźników manipulacji – błędy logiczne. W deepfake’ach nie zawsze chodzi o techniczne niedoskonałości obrazu czy dźwięku. Często to niespójności w treści i kontekście zdradzają, że mamy do czynienia z fałszerstwem.

Obraz przedstawia pięć osób - Emilię Wierzbicki, Donalda Tuska, Elona Muska, Anitę Werner, Ewę Drzyzgę na kadrach z nagrań wideo. Zdjęcia są przetworzone cyfrowo, nadając im niebieskawy odcień. Na środku grafiki znajduje się duży napis „DEEPFAKE” w czerwonym kolorze, a poniżej czarny tekst: „Błędy logiczne? To może być DEEPFAKE” z ostatnim słowem wyróżnionym na niebiesko. Całość sugeruje tematykę manipulacji audiowizualnej i wskazuje na możliwość fałszowania treści za pomocą technologii deepfake.
Łuna gradientu wychodząca od dołu

Przygotowaliśmy kolejne przykłady deepfake’ów, które tym razem wskazują konkretne błędy logiczne, a te mogą zdradzać twórców treści manipulacyjnych. Wszystko po to, by pokazać jak łączyć obserwacje wizualne i słuchowe z umiejętnością krytycznej analizy treści. Co ważne w wykrywaniu błędów logicznych najważniejsza jest uważność i znajomość kontekstu. 

Najczęstsze błędy logiczne w deepfake’ach 

  1. Niespójność mowy ciała z treścią
    Naturalne gesty są trudne do odtworzenia przez sztuczną inteligencję. W deepfake’ach często obserwujemy gwałtowną gestykulacje, która zupełnie nie pasuje do spokojnej, stonowanej wypowiedzi. Z drugiej strony, brak naturalnych ruchów ciała, np. minimalnego poruszania się głowy podczas mówienia, również może zdradzić manipulację.
  2. Głos niepasujący do postaci
    Jednym z najbardziej rażących błędów logicznych jest brak zgodności między wizerunkiem a głosem. Przykładem może być sytuacja, gdy widzimy znaną osobę, ale jej głos brzmi zupełnie inaczej – jakby należał do kogoś innego. Tego typu oszustwa często występują, gdy twórcy deepfake’ów idą na skróty i nie próbują nawet dopasować barwy głosu do postaci.
  3. Brak wiarygodności treści
    Deepfake może przedstawiać sytuację, która nie pasuje do rzeczywistości. Przykłady? Światowej klasy celebryta nagle mówi płynnie w języku polskim, chociaż w rzeczywistości nie zna tego języka. Inny przykład to sytuacja, w której fałszywy lektor symuluje tłumaczenie, ale treść wypowiedzi nie zgadza się z ruchem ust postaci.
  4. Treść jest niespójna i nielogiczna
    W deepfake’ach mogą pojawiać się niespójności w samej wypowiedzi, a nawet osoba, występująca w nagraniu, może przedstawiać się jako ktoś inny. 

Oglądaj kolejny odcinek i bądź o krok przed oszustami 

Nie przegap najnowszego odcinka, w którym pokażemy kolejne przykłady jak identyfikować subtelne, ale wymowne sygnały manipulacji. W następnym odcinku powiemy o technikach maskowania stosowanych w deepfake’ach, które mają na celu oszukanie narzędzi stworzonych do identyfikowania deepfake’ów.  

Bądź świadomym użytkownikiem internetu – wiedza to Twoja najlepsza obrona! 

Udostępnij ten post

Wyróżnione aktualności

Zdjęcie z wydarzenia medialnego Impact. Na pierwszym planie widać ekran podglądu realizatorskiego, który pokazuje dwa kadry: po lewej stronie Radosław Nielek, dyrektor NASK, w brązowej marynarce i białej koszuli, po prawej stronie dziennikarka trzymająca mikrofon. W tle widoczni rozmyci uczestnicy rozmowy oraz kamery.
Typ_aktualnosc Aktualność
14 Maja 2025|3 min. czytania

Szeroki front małych systemów na Impact’25

Wbrew pozorom zapewnienie cyfrowego bezpieczeństwa w gminie jest trudniejsze niż w banku – mówił w dyskusji podczas Impact’25 Radosław Nielek, dyrektor NASK. W jednej gminie może znajdować się jednocześnie wiele różnych systemów informatycznych – wodociągów, szkół, placówek medycznych.

Piotr Bisialski z NASK na scenie podczas konferencji.
Typ_aktualnosc Aktualność
13 Maja 2025|7 min. czytania

NASK o krok przed cyberprzestępcami. Forum Bezpieczeństwa Banków 2025

Kradzież tożsamości, ataki na infrastrukturę i próby manipulacji danymi. Sektor finansowy jest na pierwszej linii frontu w walce z cyberprzestępcami. NASK – jako lider w dziedzinie cyberbezpieczeństwa - wychodzi naprzeciw tym wyzwaniom. – Udział w Forum Bezpieczeństwa Banków to dla nas okazja do poznania realnych potrzeb sektora bankowego i wdrożenia konkretnych działań – mówił Piotr Bisialski, kierownik zespołu NASK Incident Response Team.

Wiceminister cyfryzacji Dariusz Standerski przemawia podczas konferencji dotyczącej projektu HIVE AI. W tle na ekranie widoczne są slajdy prezentacji z tytułem „Cele, założenia i organizacja projektu”. Przy stole prezydialnym siedzą Radosław Nielek, Agnieszka Karlińska. W sali znajduje się licznie zgromadzona publiczność, a jedno z przemówień jest rejestrowane telefonem przez uczestnika.
Typ_aktualnosc Aktualność
12 Maja 2025|5 min. czytania

PLLuM rośnie w siłę

600 tysięcy promptów wpisanych w okienko PLLuMa i nowości, od których dzielą nas nie lata, a zaledwie tygodnie – kolejne modele i prototyp inteligentnego asystenta. W siedzibie NASK w Warszawie spotkali się wszyscy uczestnicy konsorcjum HIVE AI. Grupy, która ma za zadanie rozwijać i wdrażać polski model językowy (PLLuM).

MAK od NASK
Typ_aktualnosc Aktualność
12 Maja 2025|4 min. czytania

Rozkwitnij z MAK. Program Mentoringu Aktywnych Kobiet nabiera barw

Podnieś swoje kompetencje z zakresu cyberbezpieczeństwa i wejdź na rynek nowych technologii! Już kilkaset kobiet zgłosiło chęć udziału w programie MAK (Mentoring Aktywnych Kobiet), ogłoszonym przez NASK we współpracy z Ministerstwem Cyfryzacji. Zostań jedną z nich — zgłoś swój udział i rozwiń skrzydła w indywidualnym programie mentoringowym. Nabór trwa do końca maja.

Informacje

Najnowsze aktualności

Abstrakcyjna grafika przedstawiająca trójwymiarowe struktury przypominające układy scalone, pokryte cyfrowym wzorem składającym się z zer i jedynek w kolorze żółtym. Obraz symbolizuje technologie cyfrowe, przetwarzanie danych lub sztuczną inteligencję.
Typ_aktualnosc Aktualność
20 Czerwca 2025|7 min. czytania

Prawda czy fałsz? Co da nam AI Act?

Czy AI Act pomoże, czy zaszkodzi? Pierwsze na świecie kompleksowe prawo dotyczące sztucznej inteligencji wchodzi w życie. Zapraszamy na wyjątkowy webinar z ekspertami NASK, Ministerstwa Cyfryzacji oraz partnerów, którzy porozmawiają o faktach i mitach dotyczących AI Act.

Mężczyzna w niebieskiej koszuli w paski trzyma w dłoniach smartfon z trzema aparatami. W dolnej części obrazka znajdują się logotypy: Fundusze Europejskie na Rozwój Cyfrowy, Rzeczpospolita Polska, Unia Europejska oraz NASK, co sugeruje, że projekt jest współfinansowany przez Unię Europejską.
Typ_aktualnosc Aktualność
18 Czerwca 2025|6 min. czytania

Zanim klikniesz – zastanów się

Cyberprzestępcy najczęściej łowią przypadkowe osoby – niezmiennie jednym z głównych zagrożeń dla internautów, obserwowanych przez zespół CERT Polska pozostaje phishing. Pozornie nieszkodliwe maile, często wzywające do pilnego działania, mogą prowadzić do fałszywych witryn wyłudzających dane.

Wiceminister cyfryzacji Dariusz Standerski przemawia na scenie podczas Digital Summit w Europejskim Centrum Solidarności w Gdańsku. Za nim znajduje się duży ekran z grafiką wydarzenia zawierającą nazwę „DIGITAL SUMMIT”, daty 17–18.06 oraz lokalizację. Na ekranie widoczne są również logotypy i hasło „Gdańsk jako centrum cyfrowej Europy”. Na sali obecna jest publiczność, scena oświetlona jest światłem w odcieniach niebieskiego i fioletowego.
Typ_aktualnosc Aktualność
17 Czerwca 2025|6 min. czytania

PLLuM i polska wizja cyfrowej Europy

PLLuM i jego możliwości zostały zaprezentowane podczas Digital Summit 2025 - najważniejszego wydarzenia dotyczącego cyfrowej transformacji podczas polskiej prezydencji w Radzie UE. „Nie jesteśmy starym kontynentem. Jesteśmy kontynentem AI. Jesteśmy cyfrowym kontynentem” – mówił wiceminister Standerski. PLLuM to dowód na prawdziwość tej tezy.