Typ_aktualnosc Aktualność
23 Stycznia 2026|9 min. czytania

Jak skutecznie chronić dzieci? Debata w Sejmie

Treści seksualne, samobójcze, ksenofobiczne, morderstwa, narkotyki i pedofilia. Dziś to nie są już pojedyncze incydenty, ale element cyfrowej codzienności coraz młodszych dzieci.

Young child looks shocked at smartphone screen with warning icons. Danger and risks appear on digital display. Kid explores cyberspace with caution and curiosity about online threats.
Łuna gradientu wychodząca od dołu

To właśnie ten obraz – skala i powszechność najbardziej skrajnych treści – stał się punktem wyjścia do posiedzenia sejmowej Komisji do Spraw Dzieci i Młodzieży (22.01).

Komisję zwołano w reakcji na serię dramatycznych zdarzeń z ostatnich miesięcy, w tym zabójstwo 11-letniej dziewczynki w Jeleniej Górze, oraz na kolejne raporty pokazujące rosnącą skalę przemocy, samookaleczeń i wykorzystywania dzieci w sieci. Celem posiedzenia było omówienie wpływu mediów społecznościowych, komunikatorów i narzędzi opartych na sztucznej inteligencji na bezpieczeństwo osób małoletnich oraz zapowiedź prac nad zmianami legislacyjnymi.

W obradach wzięli udział: przedstawiciele Ministerstwa Edukacji Narodowej, Ministerstwa Cyfryzacji, Ministerstwa Zdrowia, NASK, organizacji pozarządowych, środowiska naukowego oraz instytucji pracujących na co dzień z dziećmi i młodzieżą. Bo problem przestał dotyczyć wyłącznie „niebezpiecznych przypadków”. Stał się systemowy.

W trakcie posiedzenia wielokrotnie podkreślano, że internet jest dziś jednym z głównych środowisk, w których dzieci w Polsce doświadczają przemocy, upokorzenia i poważnych kryzysów psychicznych. Tymczasem państwo wciąż nie zbudowało dostatecznie skutecznych mechanizmów, które mogłyby tę rosnącą skalę zagrożeń realnie ograniczyć.

Gdzie kończy się dzieciństwo, a zaczyna algorytm

Cyfrowe środowisko nie jest już dodatkiem do świata dzieci. Jest jego rdzeniem. To tam zaczynają się pierwsze relacje, pierwsze konflikty i pierwsze doświadczenia porażki. Dzieje się to w wieku, w którym emocje są jeszcze niestabilne, a mechanizmy obronne dopiero się kształtują. I właśnie w tym momencie dzieci wchodzą w świat, który wciąż nie ma dla nich wystarczających mechanizmów ochrony – ani po stronie prawa, ani po stronie technologii.

Dziś formalną granicą dostępu do mediów społecznościowych jest 13. rok życia, wynikający z przepisów o ochronie danych osobowych. W ocenie ekspertów to zdecydowanie za mało.
– Granica 13 lat jest niezgodna z wiedzą naukową o rozwoju dziecka – mówił podczas posiedzenia komisji wiceminister cyfryzacji Michał Gramatyka. – To właśnie wiek 11–13 lat jest okresem największej podatności na presję rówieśniczą, kryzysy emocjonalne i problematyczne korzystanie z mediów społecznościowych.

W tym wieku szczególnie łatwo uruchamia się mechanizm, którego nie widać na pierwszy rzut oka: rekomendacje zastępują rozmowę, a dopasowane treści potrafią przebić się przez zasady, które obowiązują w domu. Skutki widać w danych o cyberprzemocy. Prof. Dorota Kleszczewska z Instytutu Matki i Dziecka zwracała uwagę, że w porównaniach międzynarodowych realizowanych w ramach badań HBSC Polska młodzież jest – w czołówce zarówno ofiar jak i sprawców cyberprzemocy. A to w oczywisty sposób wpływa na psychikę dopiero rozwijanych się umysłów młodych ludzi.

– Od kilku lat widzimy wyraźny związek między intensywnym korzystaniem z mediów społecznościowych a zdrowiem psychicznym – podkreślała prof. Aleksandra Lewandowska, konsultantka krajowa w dziedzinie psychiatrii dzieci i młodzieży. – Badania prowadzone na dużych populacjach pokazują prawie trzykrotnie większe ryzyko występowania zaburzeń depresyjnych i zachowań samobójczych u młodych nastolatków intensywnie korzystających z mediów społecznościowych – dodaje.

Najbardziej niepokojące jest jednak to, jak często dzieci stykają się z treściami skrajnymi bez własnej inicjatywy.

– Wśród uczniów siódmych klas 39 procent miało styczność z treściami suicydalnymi. W szkołach ponadpodstawowych – ponad 50 procent – mówiła dr Halszka Witkowska. – Tylko 9 procent kiedykolwiek takich treści szukało. Reszcie one się po prostu wyświetlają.

To właśnie tutaj pęka mit „świadomego wyboru” i „zdrowego dystansu”. Dziecko nie musi niczego wpisywać w wyszukiwarkę. Wystarczy, że algorytm uzna dany temat za skuteczny w przyciąganiu uwagi.

– Jeżeli dziecko jest w kryzysie psychicznym, a algorytmy dodatkowo podrzucają mu takie treści, to pogłębia jego kryzys – dodawała Witkowska. – A jeżeli dziecko już z tego kryzysu wyszło, te treści stają się tragiczną przypominajką.

W wypowiedziach ekspertów wracała też twarda statystyka: w 2025 roku w grupie do 19. roku życia liczba samobójstw wzrosła o ponad 26 procent; w grupie 7–12 lat odnotowano 5 śmierci samobójczych i 83 próby.

– Dzieci w kryzysie psychicznym są w internecie same – mówiła Witkowska. – Profilaktyka działa, ale gdy dziecko staje się ofiarą hejtu, przemocy, przemocy rówieśniczej – w tym momencie system przestaje je chronić.

Rośnie też skala uzależnienia od ekranów i ryzykownych zachowań w sieci. Przedstawicielka Instytutu Cyfrowego Obywatelstwa sygnalizowała, że 34 procent młodzieży deklaruje korzystanie z mediów społecznościowych „prawie cały czas”, a ponad 2/3 spędza przed ekranem więcej niż 5 godzin dziennie; w weekendy co dziesiąte dziecko – 12 godzin. Do tego dochodzą nawyki, które dla sprawców są po prostu zaproszeniem: ponad połowa młodzieży przyjmuje zaproszenia od nieznajomych, a tylko niewielki odsetek prosi o pomoc, gdy w sieci wydarzy się coś złego.

I  w tym miejscu dochodzi jeszcze perspektywa rodziców, która podczas komisji wybrzmiała najmocniej jako emocja: bezradność. Z badań Fundacji More in Common przywoływanych na posiedzeniu wynika, że 89 procent rodziców w Polsce jest zaniepokojonych bezpieczeństwem swoich dzieci w internecie, a 87 procent przyznaje wprost, że potrzebuje wsparcia z zewnątrz.

Prawo, które nie dogania praktyki

Posiedzenie sejmowej komisji było próbą uporządkowania tematu, który dawno wyrósł poza szkolne pogadanki i pojedyncze apele o „kontrolę rodzicielską”. Eksperci na sali zgadzali się, że sama granica wieku – nawet jeśli zostanie przesunięta – niczego nie zmieni, jeśli nie będzie jej dało się realnie egzekwować.

– Mamy dziś ograniczenie wiekowe w teorii, ale w praktyce większość młodszych dzieci i tak korzysta z tych usług – mówił Michał Gramatyka z Ministerstwa Cyfryzacji. – Bez skutecznej weryfikacji wieku każda nowa granica pozostanie kolejnym martwym przepisem.

Wypowiedzi ekspertów i organizacji społecznych prowadziły do konkluzji problemem nie jest wyłącznie „czy podnieść wiek”, ale jak zmusić rynek do tego, by przestał projektować usługi przeciwko dzieciom. Padał wyraźny postulat „safety by design” – bezpieczeństwa wbudowanego w produkt, a nie doklejanego w regulaminie.

– Każde dziecko może się z takimi treściami spotkać i nigdy nie wiemy, w jakim będzie stanie psychicznym, kiedy algorytm je podsunie – podkreślała przedstawicielka resortu cyfryzacji.

Według ekspertów jednym z kluczowych problemów jest to, że państwo próbuje regulować internet etapami. Osobno pewne platformy, osobno inne usługi. Tymczasem dla dziecka to jest jeden świat – bez wyraźnych granic między aplikacjami.

W efekcie część zagrożeń zawsze pozostaje poza zasięgiem regulacji. I do tego właśnie odnosiła się jedna z najczęściej cytowanych diagnoz:

– Jeżeli będziemy regulować w silosach, zawsze coś nam ucieknie – argumentowała przedstawicielka Instytutu Cyfrowego Obywatelstwa. – Największym problemem jest długi ogon mniejszych serwisów i aplikacji, które wymykają się każdej selektywnej regulacji.

Osobny wątek dotyczył komunikatorów szyfrowanych – bo to tam, jak wskazywano, przenosi się dziś część najpoważniejszych zagrożeń.

– Model działania sprawcy jest bardzo powtarzalny: najpierw budowanie zaufania na platformie społecznościowej, potem przejście na szyfrowany komunikator – mówił przedstawiciel Państwowej Komisji ds. przeciwdziałania pedofilii. – To są środowiska wysokiego ryzyka.

Gdzie kończy się odpowiedzialność platform, a zaczyna odpowiedzialność państwa

Stanowisko NASK przedstawił Maciej Siciarek, dyrektor CERT Polska w NASK. Zgodził się, że samo podniesienie wieku dostępu jest potrzebne, ale podkreślał, że bez realnego egzekwowania prawa i objęcia regulacjami także komunikatorów żadna granica nie będzie działać.

W perspektywie NASK ochrona dzieci w internecie nie sprowadza się do jednego limitu wiekowego. Doświadczenia Dyżurnet.pl i zespołów analitycznych pokazują, że problemem zasadniczym jest powszechny, łatwy i w praktyce niekontrolowany dostęp dzieci do treści nielegalnych i szkodliwych – niezależnie od formalnych ograniczeń.

– Najważniejszym globalnym problemem nie jest sam wiek dostępu, lecz powszechny i łatwy dostęp dzieci do treści nielegalnych i szkodliwych – wskazuje w stanowisku NASK dyrektor Radosław Nielek. – Platformy w niedostatecznym stopniu moderują treści zamieszczane przez różne kategorie użytkowników, w tym przestępców seksualnych oraz systemy AI.

NASK podkreśla też, że przesuwanie wieku bez równoległego wzmocnienia egzekwowania prawa i obowiązków po stronie platform może nie przynieść realnej zmiany: jeśli limity wieku dalej nie będą egzekwowane, dzieci i tak znajdą drogę do tych samych mechanizmów i treści. Dlatego potrzebne jest podejście oparte na dowodach, dialogu i rozwiązaniach, które da się egzekwować – a nie tylko dopisać do regulaminów.

Szczególnie ważnym obszarem są komunikatory, ze względu na brak moderacji, może tam trafić wszystko.

– Komunikatory pełnią dziś funkcje zbliżone do mediów społecznościowych, umożliwiają publikowanie treści, tworzenie grup, budowanie profili oraz nawiązywanie kontaktów z osobami nieznajomymi – podkreślał Maciej Siciarek. – To właśnie tam trafia do dzieci znacząca część niebezpiecznych treści.
Równolegle narasta skala zagrożeń związanych z narzędziami AI – od deepfake’ów i deepnudes tworzonych z wizerunkami dzieci po doniesienia o groomingu prowadzonym przez chatboty.

„Dzisiejszy brak regulacji w tym zakresie przerzuca całą odpowiedzialność na małoletniego użytkownika” – można przeczytać w stanowisku NASK. Z tej diagnozy wynikają priorytetowe postulaty: realna weryfikacja wieku, skuteczniejsza moderacja i polskojęzyczne zespoły reagowania, restrykcyjne ustawienia prywatności dla nieletnich, wzmocnienie roli trusted flaggers i szybkie ścieżki reakcji, dostęp do danych dla badaczy oraz objęcie ochroną również komunikatorów i czatów.

Ochrona dzieci to nasza wspólna odpowiedzialność

Dane przywołane podczas posiedzenia komisji pokazują jednoznacznie: dzieci już dziś funkcjonują w środowisku wysokiego ryzyka. A jeśli prawo pozostaje jedynie deklaracją – ryzyko nie znika, tylko się przenosi: z platform na komunikatory, z treści tworzonych przez ludzi na treści generowane przez AI, z otwartej sieci do zamkniętych kanałów.
Dlatego kluczowym wnioskiem z tej debaty nie jest pytanie, czy regulować, lecz jak zbudować system, który realnie zadziała – łączący egzekwowalne przepisy, odpowiedzialność platform, nadzór nad ryzykiem i konsekwentną edukację. W tym sensie ochrona dzieci w internecie staje się dziś jednym z najważniejszych sprawdzianów nowoczesnego państwa: nie testem intencji, tylko testem skuteczności.

Bo jeśli my dziś nie zadbamy o bezpieczeństwo najmłodszych w sieci, jutro będziemy musieli zmierzyć się z konsekwencjami, których może nie dać się już naprawić.

Udostępnij ten post

Wyróżnione aktualności

Abstrakcyjna, futurystyczna scena przedstawiająca unoszące się w przestrzeni metaliczne panele i siatki, oświetlone jasnymi promieniami światła na tle gwiazd i mgławicy. Elementy wyglądają jak fragmenty cyfrowej lub kosmicznej struktury.
Typ_aktualnosc Aktualność
29 Grudnia 2025|6 min. czytania

NASK rozwinie komunikację kwantową z europejskimi satelitami

Międzynarodowe konsorcjum pod przewodnictwem NASK zbuduje optyczną stację naziemną umożliwiającą kwantowe ustalanie klucza (QKD) z europejskimi satelitami. Projekt PIONIER-Q-SAT umożliwi łączność m.in. z satelitą Eagle-1 i połączy Polskę z innymi krajami biorącymi udział w programie EuroQCI Komisji Europejskiej.

Osoba siedzi przy drewnianym stole w restauracji, trzyma nóż i widelec nad talerzem, na którym leży smartfon przykryty kawałkiem mięsa z ziołami.
Typ_aktualnosc Aktualność
17 Grudnia 2025|8 min. czytania

Od lajków do lęków – zaburzenia odżywiania w erze scrollowania

Zaburzenia psychiczne związane z jedzeniem i zniekształcony obraz ciała coraz częściej zaczynają się od ekranu telefonu. Problem ten wpisuje się szerzej w kryzys zdrowia psychicznego zanurzonych w środowisku cyfrowym młodych ludzi. Nastolatki patrzą na idealny świat w mediach społecznościowych, a siebie widzą w krzywym zwierciadle.

Poradnik zakupowy NASK
Typ_aktualnosc Aktualność
27 Listopada 2025|3 min. czytania

Okazja czy pułapka? Kupuj bezpiecznie online

Black Friday i Cyber Monday wyewoluowały w całe tygodnie kuszące okazjami i promocjami, a gorączka świątecznych zakupów już się rozpoczęła. Wiedzą o tym nie tylko klienci, ale i cyberprzestępcy. By się przed nimi ustrzec, warto zajrzeć do najnowszej publikacji NASK o bezpiecznych zakupach online.

Panel dyskusyjny w centrum prasowym PAP. Na scenie Małgorzata Rozenek-Majdan, Iwona Prószyńska i Dariusz Standerski. Standerski mówi do mikrofonu. Widać kamery nagrywające wydarzenie i publiczność na sali.
Typ_aktualnosc Aktualność
12 Listopada 2025|7 min. czytania

Wolność w sieci czy era regulacji?

Co zmieni się w internecie po wdrożeniu unijnych regulacji DSA? Jak nowe prawo może wpłynąć na nasze bezpieczeństwo, ochronę dzieci i wizerunku, a także przyszłość cyfrowej komunikacji? Odpowiedzi na te pytania padły podczas debaty Strefy Dialogu Jutra Human Answer Institute w Polskiej Agencji Prasowej.

Informacje

Najnowsze aktualności

Grafika z logotypem WOŚP, w lewym górnym rogu logotyp NASK.
Typ_aktualnosc Aktualność
21 Stycznia 2026|3 min. czytania

NASK gra w 34. Finale WOŚP!

Dziesięć kilogramów bananów od szefa HR, dwugodzinna jazda konna pod czujnym okiem kierowniczki Biura Dyrektora NASK czy dwa bilety na domowy mecz Legii Warszawa. To niektóre z licytacji, które trwają właśnie w instytucie, a cała kwota zostanie przekazana dla WOŚP. NASK po raz trzeci gra z Orkiestrą, żeby wesprzeć zakup sprzętu medycznego dla najmłodszych.

kobiety siedzą przed laptopem
Typ_aktualnosc Aktualność
20 Stycznia 2026|8 min. czytania

Nie zadzierAI ze mną - babcie i dziadkowie zasługują na prawdę w sieci

Internet nauczył się dziś mówić ludzkim głosem. Pokazuje twarze, opowiada historie, budzi emocje – i coraz częściej robi to bez udziału człowieka. Treści generowane przez sztuczną inteligencję wyglądają wiarygodnie, znajomo, bezpiecznie. Właśnie dlatego tak łatwo im zaufać.

Prelegentka trzyma mikrofon i stoi obok ekranu z prezentacją „Modele PLLuM gotowe do publikacji”; na slajdzie widoczne są warianty modeli PLLuM i Llama-PLLuM w formie kolorowych bloków, a na pierwszym planie siedzi publiczność.
Typ_aktualnosc Aktualność
19 Stycznia 2026|8 min. czytania

Od modeli do wdrożeń – PLLuM na ścieżce realnych zastosowań

PLLuM wspiera już w codziennej pracy urzędników w Gdyni i Poznaniu, a także miliony użytkowników aplikacji mObywatel. Podczas drugiego śniadania z PLLuMem podsumowano postępy w rozwoju polskiej sztucznej inteligencji. Uczestnicy spotkania poznali rezultaty projektu HIVE AI, plany publikacji nowych modeli oraz doświadczenia z pilotażowych wdrożeń.