Jak rozpoznać deepfake po błędach w głosie?
Deepfake, który ma na celu wprowadzenie nas w błąd, to nie tylko wygenerowany obraz, ale także zmanipulowany dźwięk. Eksperci NASK przygotowali kilka wskazówek, jak rozpoznać manipulacje w generowanym głosie i skutecznie zidentyfikować fałszywe nagrania.


Choć modele AI stale się rozwijają, generowane głosy często wydają się „płaskie” lub pozbawione emocji. Barwa głosu może brzmieć sztucznie, zwłaszcza podczas wyrażania emocji, takich jak złość, radość czy smutek.
W naszym najnowszym odcinku Joanna Gajewska z NASK, która na co dzień zajmuje się analizą i badaniem generowanych treści, wskazuje konkretne przykłady błędów w generowanym głosie. Sprawdź jak w praktyce zastosować te wskazówki, by nie dać się nabrać na oszustwo.
Sygnały w głosie zdradzające deepfake
Twórcy deepfake’ów, manipulując głosem, używają zaawansowanych modeli generatywnych, które jednak nie są doskonałe. Oto typowe błędy, które mogą zdradzić oszustów:
- Nietypowa intonacja
Generowane głosy nie interpretują znaków interpunkcyjnych. Skutkuje to dziwnym rytmem wypowiedzi. Może to wyglądać tak, jakby osoba mówiła bez przerwy, nie uwzględniając naturalnych pauz czy akcentów. - Zmiana akcentu lub języka
Niekiedy w trakcie nagrania można usłyszeć subtelną zmianę akcentu, co jest efektem niedokładnej synchronizacji modelu. W ekstremalnych przypadkach zdarzają się nawet przejścia z jednego języka na inny. - Nagłe zmiany głośności
Fałszywe głosy często zdradzają swoją sztuczność poprzez niespodziewane wahania poziomu głośności. Przykładowo, jedna część wypowiedzi może być wyjątkowo głośna, a inna ledwo słyszalna. - Nienaturalne lub brakujące odgłosy tła
Warto zwrócić uwagę na dźwięki w tle. Jeśli brakuje naturalnych odgłosów środowiska, takich jak echo w pomieszczeniu czy szum otoczenia, może to być sygnałem, że głos został wygenerowany. - Syntetyczna barwa głosu
Choć modele AI stale się rozwijają, generowane głosy często wydają się „płaskie” lub pozbawione emocji. Barwa głosu może brzmieć sztucznie, zwłaszcza podczas wyrażania emocji, takich jak złość, radość czy smutek.
Nie przegap kolejnego odcinka
Wiedza to najlepsza obrona przed cyfrowymi manipulacjami. Świadomość jak odróżniać prawdziwe głosy od fałszywych, pomoże podczas codziennego korzystania z internetu i mediów społecznościowych rozpoznawać techniki, które stosują oszuści.
Premiera kolejnego odcinka już za tydzień. Będzie on poświęcony błędom logicznym w deepfake’ach – czyli nieoczywistym, ale zdradzającym manipulację sygnałom.
Wyróżnione aktualności
Szeroki front małych systemów na Impact’25
Wbrew pozorom zapewnienie cyfrowego bezpieczeństwa w gminie jest trudniejsze niż w banku – mówił w dyskusji podczas Impact’25 Radosław Nielek, dyrektor NASK. W jednej gminie może znajdować się jednocześnie wiele różnych systemów informatycznych – wodociągów, szkół, placówek medycznych.
NASK o krok przed cyberprzestępcami. Forum Bezpieczeństwa Banków 2025
Kradzież tożsamości, ataki na infrastrukturę i próby manipulacji danymi. Sektor finansowy jest na pierwszej linii frontu w walce z cyberprzestępcami. NASK – jako lider w dziedzinie cyberbezpieczeństwa - wychodzi naprzeciw tym wyzwaniom. – Udział w Forum Bezpieczeństwa Banków to dla nas okazja do poznania realnych potrzeb sektora bankowego i wdrożenia konkretnych działań – mówił Piotr Bisialski, kierownik zespołu NASK Incident Response Team.
PLLuM rośnie w siłę
600 tysięcy promptów wpisanych w okienko PLLuMa i nowości, od których dzielą nas nie lata, a zaledwie tygodnie – kolejne modele i prototyp inteligentnego asystenta. W siedzibie NASK w Warszawie spotkali się wszyscy uczestnicy konsorcjum HIVE AI. Grupy, która ma za zadanie rozwijać i wdrażać polski model językowy (PLLuM).
Rozkwitnij z MAK. Program Mentoringu Aktywnych Kobiet nabiera barw
Podnieś swoje kompetencje z zakresu cyberbezpieczeństwa i wejdź na rynek nowych technologii! Już kilkaset kobiet zgłosiło chęć udziału w programie MAK (Mentoring Aktywnych Kobiet), ogłoszonym przez NASK we współpracy z Ministerstwem Cyfryzacji. Zostań jedną z nich — zgłoś swój udział i rozwiń skrzydła w indywidualnym programie mentoringowym. Nabór trwa do końca maja.
Najnowsze aktualności
Prawda czy fałsz? Co da nam AI Act?
Czy AI Act pomoże, czy zaszkodzi? Pierwsze na świecie kompleksowe prawo dotyczące sztucznej inteligencji wchodzi w życie. Zapraszamy na wyjątkowy webinar z ekspertami NASK, Ministerstwa Cyfryzacji oraz partnerów, którzy porozmawiają o faktach i mitach dotyczących AI Act.
Zanim klikniesz – zastanów się
Cyberprzestępcy najczęściej łowią przypadkowe osoby – niezmiennie jednym z głównych zagrożeń dla internautów, obserwowanych przez zespół CERT Polska pozostaje phishing. Pozornie nieszkodliwe maile, często wzywające do pilnego działania, mogą prowadzić do fałszywych witryn wyłudzających dane.
PLLuM i polska wizja cyfrowej Europy
PLLuM i jego możliwości zostały zaprezentowane podczas Digital Summit 2025 - najważniejszego wydarzenia dotyczącego cyfrowej transformacji podczas polskiej prezydencji w Radzie UE. „Nie jesteśmy starym kontynentem. Jesteśmy kontynentem AI. Jesteśmy cyfrowym kontynentem” – mówił wiceminister Standerski. PLLuM to dowód na prawdziwość tej tezy.