Jak skutecznie chronić dzieci? Debata w Sejmie
Treści seksualne, samobójcze, ksenofobiczne, morderstwa, narkotyki i pedofilia. Dziś to nie są już pojedyncze incydenty, ale element cyfrowej codzienności coraz młodszych dzieci.


To właśnie ten obraz – skala i powszechność najbardziej skrajnych treści – stał się punktem wyjścia do posiedzenia sejmowej Komisji do Spraw Dzieci i Młodzieży (22.01).
Komisję zwołano w reakcji na serię dramatycznych zdarzeń z ostatnich miesięcy, w tym zabójstwo 11-letniej dziewczynki w Jeleniej Górze, oraz na kolejne raporty pokazujące rosnącą skalę przemocy, samookaleczeń i wykorzystywania dzieci w sieci. Celem posiedzenia było omówienie wpływu mediów społecznościowych, komunikatorów i narzędzi opartych na sztucznej inteligencji na bezpieczeństwo osób małoletnich oraz zapowiedź prac nad zmianami legislacyjnymi.
W obradach wzięli udział: przedstawiciele Ministerstwa Edukacji Narodowej, Ministerstwa Cyfryzacji, Ministerstwa Zdrowia, NASK, organizacji pozarządowych, środowiska naukowego oraz instytucji pracujących na co dzień z dziećmi i młodzieżą. Bo problem przestał dotyczyć wyłącznie „niebezpiecznych przypadków”. Stał się systemowy.
W trakcie posiedzenia wielokrotnie podkreślano, że internet jest dziś jednym z głównych środowisk, w których dzieci w Polsce doświadczają przemocy, upokorzenia i poważnych kryzysów psychicznych. Tymczasem państwo wciąż nie zbudowało dostatecznie skutecznych mechanizmów, które mogłyby tę rosnącą skalę zagrożeń realnie ograniczyć.
Gdzie kończy się dzieciństwo, a zaczyna algorytm
Cyfrowe środowisko nie jest już dodatkiem do świata dzieci. Jest jego rdzeniem. To tam zaczynają się pierwsze relacje, pierwsze konflikty i pierwsze doświadczenia porażki. Dzieje się to w wieku, w którym emocje są jeszcze niestabilne, a mechanizmy obronne dopiero się kształtują. I właśnie w tym momencie dzieci wchodzą w świat, który wciąż nie ma dla nich wystarczających mechanizmów ochrony – ani po stronie prawa, ani po stronie technologii.
Dziś formalną granicą dostępu do mediów społecznościowych jest 13. rok życia, wynikający z przepisów o ochronie danych osobowych. W ocenie ekspertów to zdecydowanie za mało.
– Granica 13 lat jest niezgodna z wiedzą naukową o rozwoju dziecka – mówił podczas posiedzenia komisji wiceminister cyfryzacji Michał Gramatyka. – To właśnie wiek 11–13 lat jest okresem największej podatności na presję rówieśniczą, kryzysy emocjonalne i problematyczne korzystanie z mediów społecznościowych.
W tym wieku szczególnie łatwo uruchamia się mechanizm, którego nie widać na pierwszy rzut oka: rekomendacje zastępują rozmowę, a dopasowane treści potrafią przebić się przez zasady, które obowiązują w domu. Skutki widać w danych o cyberprzemocy. Prof. Dorota Kleszczewska z Instytutu Matki i Dziecka zwracała uwagę, że w porównaniach międzynarodowych realizowanych w ramach badań HBSC Polska młodzież jest – w czołówce zarówno ofiar jak i sprawców cyberprzemocy. A to w oczywisty sposób wpływa na psychikę dopiero rozwijanych się umysłów młodych ludzi.
– Od kilku lat widzimy wyraźny związek między intensywnym korzystaniem z mediów społecznościowych a zdrowiem psychicznym – podkreślała prof. Aleksandra Lewandowska, konsultantka krajowa w dziedzinie psychiatrii dzieci i młodzieży. – Badania prowadzone na dużych populacjach pokazują prawie trzykrotnie większe ryzyko występowania zaburzeń depresyjnych i zachowań samobójczych u młodych nastolatków intensywnie korzystających z mediów społecznościowych – dodaje.
Najbardziej niepokojące jest jednak to, jak często dzieci stykają się z treściami skrajnymi bez własnej inicjatywy.
– Wśród uczniów siódmych klas 39 procent miało styczność z treściami suicydalnymi. W szkołach ponadpodstawowych – ponad 50 procent – mówiła dr Halszka Witkowska. – Tylko 9 procent kiedykolwiek takich treści szukało. Reszcie one się po prostu wyświetlają.
To właśnie tutaj pęka mit „świadomego wyboru” i „zdrowego dystansu”. Dziecko nie musi niczego wpisywać w wyszukiwarkę. Wystarczy, że algorytm uzna dany temat za skuteczny w przyciąganiu uwagi.
– Jeżeli dziecko jest w kryzysie psychicznym, a algorytmy dodatkowo podrzucają mu takie treści, to pogłębia jego kryzys – dodawała Witkowska. – A jeżeli dziecko już z tego kryzysu wyszło, te treści stają się tragiczną przypominajką.
W wypowiedziach ekspertów wracała też twarda statystyka: w 2025 roku w grupie do 19. roku życia liczba samobójstw wzrosła o ponad 26 procent; w grupie 7–12 lat odnotowano 5 śmierci samobójczych i 83 próby.
– Dzieci w kryzysie psychicznym są w internecie same – mówiła Witkowska. – Profilaktyka działa, ale gdy dziecko staje się ofiarą hejtu, przemocy, przemocy rówieśniczej – w tym momencie system przestaje je chronić.
Rośnie też skala uzależnienia od ekranów i ryzykownych zachowań w sieci. Przedstawicielka Instytutu Cyfrowego Obywatelstwa sygnalizowała, że 34 procent młodzieży deklaruje korzystanie z mediów społecznościowych „prawie cały czas”, a ponad 2/3 spędza przed ekranem więcej niż 5 godzin dziennie; w weekendy co dziesiąte dziecko – 12 godzin. Do tego dochodzą nawyki, które dla sprawców są po prostu zaproszeniem: ponad połowa młodzieży przyjmuje zaproszenia od nieznajomych, a tylko niewielki odsetek prosi o pomoc, gdy w sieci wydarzy się coś złego.
I w tym miejscu dochodzi jeszcze perspektywa rodziców, która podczas komisji wybrzmiała najmocniej jako emocja: bezradność. Z badań Fundacji More in Common przywoływanych na posiedzeniu wynika, że 89 procent rodziców w Polsce jest zaniepokojonych bezpieczeństwem swoich dzieci w internecie, a 87 procent przyznaje wprost, że potrzebuje wsparcia z zewnątrz.
Prawo, które nie dogania praktyki
Posiedzenie sejmowej komisji było próbą uporządkowania tematu, który dawno wyrósł poza szkolne pogadanki i pojedyncze apele o „kontrolę rodzicielską”. Eksperci na sali zgadzali się, że sama granica wieku – nawet jeśli zostanie przesunięta – niczego nie zmieni, jeśli nie będzie jej dało się realnie egzekwować.
– Mamy dziś ograniczenie wiekowe w teorii, ale w praktyce większość młodszych dzieci i tak korzysta z tych usług – mówił Michał Gramatyka z Ministerstwa Cyfryzacji. – Bez skutecznej weryfikacji wieku każda nowa granica pozostanie kolejnym martwym przepisem.
Wypowiedzi ekspertów i organizacji społecznych prowadziły do konkluzji problemem nie jest wyłącznie „czy podnieść wiek”, ale jak zmusić rynek do tego, by przestał projektować usługi przeciwko dzieciom. Padał wyraźny postulat „safety by design” – bezpieczeństwa wbudowanego w produkt, a nie doklejanego w regulaminie.
– Każde dziecko może się z takimi treściami spotkać i nigdy nie wiemy, w jakim będzie stanie psychicznym, kiedy algorytm je podsunie – podkreślała przedstawicielka resortu cyfryzacji.
Według ekspertów jednym z kluczowych problemów jest to, że państwo próbuje regulować internet etapami. Osobno pewne platformy, osobno inne usługi. Tymczasem dla dziecka to jest jeden świat – bez wyraźnych granic między aplikacjami.
W efekcie część zagrożeń zawsze pozostaje poza zasięgiem regulacji. I do tego właśnie odnosiła się jedna z najczęściej cytowanych diagnoz:
– Jeżeli będziemy regulować w silosach, zawsze coś nam ucieknie – argumentowała przedstawicielka Instytutu Cyfrowego Obywatelstwa. – Największym problemem jest długi ogon mniejszych serwisów i aplikacji, które wymykają się każdej selektywnej regulacji.
Osobny wątek dotyczył komunikatorów szyfrowanych – bo to tam, jak wskazywano, przenosi się dziś część najpoważniejszych zagrożeń.
– Model działania sprawcy jest bardzo powtarzalny: najpierw budowanie zaufania na platformie społecznościowej, potem przejście na szyfrowany komunikator – mówił przedstawiciel Państwowej Komisji ds. przeciwdziałania pedofilii. – To są środowiska wysokiego ryzyka.
Gdzie kończy się odpowiedzialność platform, a zaczyna odpowiedzialność państwa
Stanowisko NASK przedstawił Maciej Siciarek, dyrektor CERT Polska w NASK. Zgodził się, że samo podniesienie wieku dostępu jest potrzebne, ale podkreślał, że bez realnego egzekwowania prawa i objęcia regulacjami także komunikatorów żadna granica nie będzie działać.
W perspektywie NASK ochrona dzieci w internecie nie sprowadza się do jednego limitu wiekowego. Doświadczenia Dyżurnet.pl i zespołów analitycznych pokazują, że problemem zasadniczym jest powszechny, łatwy i w praktyce niekontrolowany dostęp dzieci do treści nielegalnych i szkodliwych – niezależnie od formalnych ograniczeń.
– Najważniejszym globalnym problemem nie jest sam wiek dostępu, lecz powszechny i łatwy dostęp dzieci do treści nielegalnych i szkodliwych – wskazuje w stanowisku NASK dyrektor Radosław Nielek. – Platformy w niedostatecznym stopniu moderują treści zamieszczane przez różne kategorie użytkowników, w tym przestępców seksualnych oraz systemy AI.
NASK podkreśla też, że przesuwanie wieku bez równoległego wzmocnienia egzekwowania prawa i obowiązków po stronie platform może nie przynieść realnej zmiany: jeśli limity wieku dalej nie będą egzekwowane, dzieci i tak znajdą drogę do tych samych mechanizmów i treści. Dlatego potrzebne jest podejście oparte na dowodach, dialogu i rozwiązaniach, które da się egzekwować – a nie tylko dopisać do regulaminów.
Szczególnie ważnym obszarem są komunikatory, ze względu na brak moderacji, może tam trafić wszystko.
– Komunikatory pełnią dziś funkcje zbliżone do mediów społecznościowych, umożliwiają publikowanie treści, tworzenie grup, budowanie profili oraz nawiązywanie kontaktów z osobami nieznajomymi – podkreślał Maciej Siciarek. – To właśnie tam trafia do dzieci znacząca część niebezpiecznych treści.
Równolegle narasta skala zagrożeń związanych z narzędziami AI – od deepfake’ów i deepnudes tworzonych z wizerunkami dzieci po doniesienia o groomingu prowadzonym przez chatboty.
„Dzisiejszy brak regulacji w tym zakresie przerzuca całą odpowiedzialność na małoletniego użytkownika” – można przeczytać w stanowisku NASK. Z tej diagnozy wynikają priorytetowe postulaty: realna weryfikacja wieku, skuteczniejsza moderacja i polskojęzyczne zespoły reagowania, restrykcyjne ustawienia prywatności dla nieletnich, wzmocnienie roli trusted flaggers i szybkie ścieżki reakcji, dostęp do danych dla badaczy oraz objęcie ochroną również komunikatorów i czatów.
Ochrona dzieci to nasza wspólna odpowiedzialność
Dane przywołane podczas posiedzenia komisji pokazują jednoznacznie: dzieci już dziś funkcjonują w środowisku wysokiego ryzyka. A jeśli prawo pozostaje jedynie deklaracją – ryzyko nie znika, tylko się przenosi: z platform na komunikatory, z treści tworzonych przez ludzi na treści generowane przez AI, z otwartej sieci do zamkniętych kanałów.
Dlatego kluczowym wnioskiem z tej debaty nie jest pytanie, czy regulować, lecz jak zbudować system, który realnie zadziała – łączący egzekwowalne przepisy, odpowiedzialność platform, nadzór nad ryzykiem i konsekwentną edukację. W tym sensie ochrona dzieci w internecie staje się dziś jednym z najważniejszych sprawdzianów nowoczesnego państwa: nie testem intencji, tylko testem skuteczności.
Bo jeśli my dziś nie zadbamy o bezpieczeństwo najmłodszych w sieci, jutro będziemy musieli zmierzyć się z konsekwencjami, których może nie dać się już naprawić.
Wyróżnione aktualności
NASK rozwinie komunikację kwantową z europejskimi satelitami
Międzynarodowe konsorcjum pod przewodnictwem NASK zbuduje optyczną stację naziemną umożliwiającą kwantowe ustalanie klucza (QKD) z europejskimi satelitami. Projekt PIONIER-Q-SAT umożliwi łączność m.in. z satelitą Eagle-1 i połączy Polskę z innymi krajami biorącymi udział w programie EuroQCI Komisji Europejskiej.
Od lajków do lęków – zaburzenia odżywiania w erze scrollowania
Zaburzenia psychiczne związane z jedzeniem i zniekształcony obraz ciała coraz częściej zaczynają się od ekranu telefonu. Problem ten wpisuje się szerzej w kryzys zdrowia psychicznego zanurzonych w środowisku cyfrowym młodych ludzi. Nastolatki patrzą na idealny świat w mediach społecznościowych, a siebie widzą w krzywym zwierciadle.
Okazja czy pułapka? Kupuj bezpiecznie online
Black Friday i Cyber Monday wyewoluowały w całe tygodnie kuszące okazjami i promocjami, a gorączka świątecznych zakupów już się rozpoczęła. Wiedzą o tym nie tylko klienci, ale i cyberprzestępcy. By się przed nimi ustrzec, warto zajrzeć do najnowszej publikacji NASK o bezpiecznych zakupach online.
Wolność w sieci czy era regulacji?
Co zmieni się w internecie po wdrożeniu unijnych regulacji DSA? Jak nowe prawo może wpłynąć na nasze bezpieczeństwo, ochronę dzieci i wizerunku, a także przyszłość cyfrowej komunikacji? Odpowiedzi na te pytania padły podczas debaty Strefy Dialogu Jutra Human Answer Institute w Polskiej Agencji Prasowej.
Najnowsze aktualności
NASK gra w 34. Finale WOŚP!
Dziesięć kilogramów bananów od szefa HR, dwugodzinna jazda konna pod czujnym okiem kierowniczki Biura Dyrektora NASK czy dwa bilety na domowy mecz Legii Warszawa. To niektóre z licytacji, które trwają właśnie w instytucie, a cała kwota zostanie przekazana dla WOŚP. NASK po raz trzeci gra z Orkiestrą, żeby wesprzeć zakup sprzętu medycznego dla najmłodszych.
Nie zadzierAI ze mną - babcie i dziadkowie zasługują na prawdę w sieci
Internet nauczył się dziś mówić ludzkim głosem. Pokazuje twarze, opowiada historie, budzi emocje – i coraz częściej robi to bez udziału człowieka. Treści generowane przez sztuczną inteligencję wyglądają wiarygodnie, znajomo, bezpiecznie. Właśnie dlatego tak łatwo im zaufać.
Od modeli do wdrożeń – PLLuM na ścieżce realnych zastosowań
PLLuM wspiera już w codziennej pracy urzędników w Gdyni i Poznaniu, a także miliony użytkowników aplikacji mObywatel. Podczas drugiego śniadania z PLLuMem podsumowano postępy w rozwoju polskiej sztucznej inteligencji. Uczestnicy spotkania poznali rezultaty projektu HIVE AI, plany publikacji nowych modeli oraz doświadczenia z pilotażowych wdrożeń.







