Typ_aktualnosc Aktualność
20 Stycznia 2026|8 min. czytania

Nie zadzierAI ze mną - babcie i dziadkowie zasługują na prawdę w sieci

Internet nauczył się dziś mówić ludzkim głosem. Pokazuje twarze, opowiada historie, budzi emocje – i coraz częściej robi to bez udziału człowieka. Treści generowane przez sztuczną inteligencję wyglądają wiarygodnie, znajomo, bezpiecznie. Właśnie dlatego tak łatwo im zaufać.

kobiety siedzą przed laptopem
Łuna gradientu wychodząca od dołu

Dzień Babci i Dzień Dziadka to dobry moment, by zapytać nie tylko o to, jak nasi bliscy radzą sobie z technologią, ale też czy potrafią rozpoznać prawdę od fałszu w sieci.

Właśnie z myślą o seniorach powstał bezpłatny poradnik przygotowany przez ekspertów NASK – krótki, przystępny przewodnik po zagrożeniach związanych z AI i podpowiadający, jak zachować czujność w codziennym korzystaniu z internetu. Bo jak zaznacza Beata Frankiewicz, współautorka poradnika:

– Technologia rozwija się bardzo szybko i coraz trudniej odróżnić treści tworzone przez człowieka od tych generowanych przez AI. Chcemy pomóc seniorom świadomie wybierać wartościowe informacje, bo to one często wpływają na nasze codzienne decyzje.

AI w codziennym internecie: pomoc i ryzyko

Sztuczna inteligencja jest obecna w codziennym korzystaniu z internetu znacznie częściej, niż mogłoby się wydawać. Podpowiada treści w wyszukiwarkach, poprawia zdjęcia w telefonach, odpowiada na pytania w czatach i obsługuje infolinie. Działa szybko, dyskretnie i najczęściej w tle – dlatego łatwo zapomnieć, że to nie człowiek, a algorytm decyduje o tym, co widzimy i jakie odpowiedzi dostajemy.

Problem zaczyna się wtedy, gdy algorytmy przestają być jedynie pomocą, a zaczynają wpływać na to, co uznajemy za ważne, wiarygodne albo warte uwagi. Systemy oparte na AI selekcjonują treści, podbijają jedne informacje kosztem innych, podsuwają materiały dopasowane do emocji i wcześniejszych reakcji użytkownika. W efekcie internet coraz rzadziej pokazuje świat takim, jaki jest.

Ten sam mechanizm, który ułatwia codzienne sprawy, bywa jednak wykorzystywany do zupełnie innych celów. AI generuje dziś obrazy, nagrania i teksty, które mają budzić zaufanie, wywoływać emocje i skłaniać do reakcji – często bez wyraźnej informacji o tym, że nie stworzył ich człowiek. To właśnie napięcie między wygodą a ryzykiem stało się punktem wyjścia do powstania nowego poradnika przygotowanego przez NASK.

Emocje jako przynęta

Porzucony pies, który czeka na właściciela. Rolnik, który nie może nawet za darmo rozdać swoich plonów. Wnuczek, który – mimo odłożenia wszystkich oszczędności — nie zdołał dojechać do babci. Samotna seniorka spędzająca święta w pustym domu. Albo treści religijne, które w kilku zdaniach mają wzruszyć, oburzyć albo dać poczucie wspólnoty.

Takie historie nie pojawiają się w internecie przypadkiem. Są krótkie, proste i uderzają dokładnie tam, gdzie reagujemy najszybciej – w empatię, współczucie, potrzebę pomocy. Wyglądają jak fragmenty prawdziwego życia, dlatego tak łatwo je polubić, skomentować albo przekazać dalej.

Problem zaczyna się wtedy, gdy emocje stają się narzędziem. Coraz częściej za podobnymi treściami nie stoi ani autor, ani realna historia, ale algorytm zaprogramowany na wywoływanie reakcji. Im silniejsza emocja, tym większy zasięg. A zasięg bardzo szybko zamienia się w zaufanie.

Autorki poradnika NASK pokazują, jak łatwo to zaufanie bywa później wykorzystywane – do przejmowania kont, wyłudzania danych albo kierowania użytkowników na fałszywe zbiórki pieniędzy. Granica między wzruszeniem a realnym zagrożeniem bywa tu naprawdę cienka.

– Choć seniorzy podchodzą do narzędzi sztucznej inteligencji z większą ostrożnością niż młodsze pokolenia, w praktyce korzystają z rozwiązań opartych na AI, nawet jeśli nie używają ich narzędzi w sposób świadomy. Dlatego tak ważne jest, by znali zarówno możliwości, jakie daje ta technologia, jak i zagrożenia, które się z nią wiążą – zaznacza Sylwia Adamczyk, współautorka publikacji.

Jedno kliknięcie może wystarczyć, by stracić dostęp do konta albo nieświadomie przekazać swoje dane. W świecie treści tworzonych przez algorytmy coraz ważniejsze staje się zatrzymanie na moment i zadanie sobie prostego pytania: kto i po co chce wywołać we mnie tę emocję?

Gdy obraz i głos przestają być dowodem

W internecie coraz częściej trafiamy na treści, które wyglądają jak fragmenty serwisów informacyjnych, reklamy znanych marek albo wypowiedzi osób publicznych. Krótkie nagrania wideo, profesjonalny montaż, spokojny ton, znajoma twarz. Nic nie krzyczy „oszustwo”, nic nie wygląda podejrzanie.

To właśnie w tym miejscu pojawiają się deepfejki – nie jako technologiczna ciekawostka, ale jako narzędzie pozwalające podszyć się pod autorytet i wiarygodność. Wykorzystywane są w fałszywych reklamach inwestycji, spreparowanych apelach o pomoc czy treściach, które mają skłonić do szybkiej decyzji – często finansowej.

Dla seniorów to szczególnie podchwytliwe. Przez lata obraz i głos były czymś, co porządkowało rzeczywistość i pomagało oddzielić prawdę od plotki. Jeśli ktoś występował „w telewizji”, mówił oficjalnym tonem albo wyglądał jak znana osoba, budził zaufanie. Dziś ta intuicja coraz częściej zawodzi – nie dlatego, że odbiorcy są mniej uważni, ale dlatego, że technologia nauczyła się bardzo dobrze udawać wiarygodność.

W poradniku przygotowanym przez NASK przywołano konkretne sytuacje, w których takie materiały prowadziły do realnych strat – pieniędzy, danych i poczucia bezpieczeństwa. Pokazują one, że w świecie, w którym obraz i głos można wygenerować w kilka minut, sama forma przekazu przestaje być dowodem. Coraz ważniejsze staje się pytanie nie o to, jak coś wygląda, ale kto za tym stoi i jaki ma cel.

Zdrowie: gdy szybka odpowiedź daje fałszywy spokój

Szukanie porad zdrowotnych w internecie stało się codziennością. Wystarczy kilka słów wpisanych w wyszukiwarkę albo czat, żeby dostać gotową odpowiedź – spokojną, logiczną i brzmiącą jak rada specjalisty. Tyle że coraz częściej nie pochodzi ona od człowieka.

To właśnie tu sztuczna inteligencja bywa szczególnie niebezpieczna. Potrafi odpowiadać płynnie i przekonująco, nawet wtedy, gdy się myli. Nie waha się, nie sygnalizuje niepewności, nie mówi „sprawdź to u lekarza”. Zamiast tego buduje narrację, która daje poczucie kontroli i bezpieczeństwa – często złudne.

W poradniku przygotowanym przez NASK opisano sytuacje, w których narzędzia AI podawały całkowicie fałszywe informacje medyczne: wymyślały badania naukowe, nazwiska lekarzy i zalecenia, które nigdy nie istniały. Jedna z takich historii dotyczyła mężczyzny, który – kierując się „radą” wygenerowaną przez czat – zastąpił sól w diecie bromem i trafił do szpitala. Odpowiedź była szybka, spokojna i brzmiała fachowo. Konsekwencje poniósł człowiek.

– W kwestii zdrowia największym zagrożeniem nie jest sama technologia, lecz fałszywe poczucie bezpieczeństwa, które może dawać. Sztuczna inteligencja nie diagnozuje, nie leczy i nie ponosi konsekwencji swoich sugestii, nawet jeśli brzmią one logicznie. AI w żadnym wypadku nie powinna zastępować konsultacji z lekarzem – zaznacza Sylwia Adamczyk.

To nie są pojedyncze wpadki, ale efekt tzw. halucynacji AI – momentów, w których algorytm tworzy informacje, które wyglądają wiarygodnie, choć nie mają nic wspólnego z rzeczywistością. W obszarach takich jak zdrowie szybka odpowiedź nie zawsze jest zaletą. Może dać chwilowy spokój – i jednocześnie opóźnić decyzję o szukaniu realnej pomocy.

Prezent, który ma znaczenie

Kwiaty zwiędną, czekoladki znikną szybciej, niż się wydaje. Ale rozmowa – może zostać na dłużej. Dzień Babci i Dziadka to dobry moment, by podarować coś, co nie mieści się w pudełku: czas, uważność i poczucie bezpieczeństwa w świecie, który coraz częściej tylko udaje, że jest znajomy.

W świecie pełnym wygenerowanych obrazów, fałszywych historii i odpowiedzi brzmiących aż nazbyt rozsądnie, cyberbezpieczeństwo staje się codzienną umiejętnością, a nie techniczną ciekawostką. To zdolność zadawania pytań, sprawdzania źródeł i mówienia sobie: „chwilę się zatrzymam”.

Bezpłatny poradnik przygotowany przez NASK może być punktem wyjścia do takiej rozmowy – pretekstem, by wspólnie przyjrzeć się temu, jak dziś działa internet i gdzie warto zachować większą czujność. Bo jednym z najlepszych prezentów, jakie możemy dziś dać seniorom, jest pewność, że nie zostają z tym cyfrowym światem sami.

Poradnik do pobrania pod tym linkiem

Udostępnij ten post

Wyróżnione aktualności

Abstrakcyjna, futurystyczna scena przedstawiająca unoszące się w przestrzeni metaliczne panele i siatki, oświetlone jasnymi promieniami światła na tle gwiazd i mgławicy. Elementy wyglądają jak fragmenty cyfrowej lub kosmicznej struktury.
Typ_aktualnosc Aktualność
29 Grudnia 2025|6 min. czytania

NASK rozwinie komunikację kwantową z europejskimi satelitami

Międzynarodowe konsorcjum pod przewodnictwem NASK zbuduje optyczną stację naziemną umożliwiającą kwantowe ustalanie klucza (QKD) z europejskimi satelitami. Projekt PIONIER-Q-SAT umożliwi łączność m.in. z satelitą Eagle-1 i połączy Polskę z innymi krajami biorącymi udział w programie EuroQCI Komisji Europejskiej.

Osoba siedzi przy drewnianym stole w restauracji, trzyma nóż i widelec nad talerzem, na którym leży smartfon przykryty kawałkiem mięsa z ziołami.
Typ_aktualnosc Aktualność
17 Grudnia 2025|8 min. czytania

Od lajków do lęków – zaburzenia odżywiania w erze scrollowania

Zaburzenia psychiczne związane z jedzeniem i zniekształcony obraz ciała coraz częściej zaczynają się od ekranu telefonu. Problem ten wpisuje się szerzej w kryzys zdrowia psychicznego zanurzonych w środowisku cyfrowym młodych ludzi. Nastolatki patrzą na idealny świat w mediach społecznościowych, a siebie widzą w krzywym zwierciadle.

Poradnik zakupowy NASK
Typ_aktualnosc Aktualność
27 Listopada 2025|3 min. czytania

Okazja czy pułapka? Kupuj bezpiecznie online

Black Friday i Cyber Monday wyewoluowały w całe tygodnie kuszące okazjami i promocjami, a gorączka świątecznych zakupów już się rozpoczęła. Wiedzą o tym nie tylko klienci, ale i cyberprzestępcy. By się przed nimi ustrzec, warto zajrzeć do najnowszej publikacji NASK o bezpiecznych zakupach online.

Panel dyskusyjny w centrum prasowym PAP. Na scenie Małgorzata Rozenek-Majdan, Iwona Prószyńska i Dariusz Standerski. Standerski mówi do mikrofonu. Widać kamery nagrywające wydarzenie i publiczność na sali.
Typ_aktualnosc Aktualność
12 Listopada 2025|7 min. czytania

Wolność w sieci czy era regulacji?

Co zmieni się w internecie po wdrożeniu unijnych regulacji DSA? Jak nowe prawo może wpłynąć na nasze bezpieczeństwo, ochronę dzieci i wizerunku, a także przyszłość cyfrowej komunikacji? Odpowiedzi na te pytania padły podczas debaty Strefy Dialogu Jutra Human Answer Institute w Polskiej Agencji Prasowej.

Informacje

Najnowsze aktualności

Prelegentka trzyma mikrofon i stoi obok ekranu z prezentacją „Modele PLLuM gotowe do publikacji”; na slajdzie widoczne są warianty modeli PLLuM i Llama-PLLuM w formie kolorowych bloków, a na pierwszym planie siedzi publiczność.
Typ_aktualnosc Aktualność
19 Stycznia 2026|8 min. czytania

Od modeli do wdrożeń – PLLuM na ścieżce realnych zastosowań

PLLuM wspiera już w codziennej pracy urzędników w Gdyni i Poznaniu, a także miliony użytkowników aplikacji mObywatel. Podczas drugiego śniadania z PLLuMem podsumowano postępy w rozwoju polskiej sztucznej inteligencji. Uczestnicy spotkania poznali rezultaty projektu HIVE AI, plany publikacji nowych modeli oraz doświadczenia z pilotażowych wdrożeń.

Napis Koryntia z planetą w tle
Typ_aktualnosc Aktualność
19 Stycznia 2026|5 min. czytania

Koryntia – gdy dezinformacja staje się bronią

Wyobraź sobie rok 2055. Świat, który znasz, właśnie się rozpada – zasoby są na wyczerpaniu, zaufanie stało się luksusem, a stabilność to wspomnienie. W tym chaosie pojawia się „Eksperyment”: selekcja, która ma wyłonić nielicznych szczęśliwców. Nagroda? Nowe życie w kolonii Koryntia.

Grafika promocyjna z kotem w futurystycznym hełmie i goglach; u góry napis „Odgadnij to: CYBERMASTER”, w tle ikony kłódek i symboli cyberbezpieczeństwa, na dole logotypy m.in. NASK oraz adres saferinternet.pl.
Typ_aktualnosc Aktualność
16 Stycznia 2026|4 min. czytania

„Cybermaster” wchodzi do gry. Nowy edukacyjny projekt NASK

Najpierw jest śmiech. Potem ruch, skojarzenia, szybkie hasła. A na końcu – rozmowa o tym, czym jest phishing, dlaczego hasło to nie „1234” i jak dbać o higienę cyfrową. Tak działa „Odgadnij to: Cybermaster”, czyli nowa gra edukacyjna o cyberbezpieczeństwie.

    Nie zadzierAI ze mną - babcie i dziadkowie zasługują na prawdę w sieci