Unia Europejska
Typ_aktualnosc Aktualność
23 Stycznia 2026|9 min. czytania

Jak skutecznie chronić dzieci? Debata w Sejmie

Treści seksualne, samobójcze, ksenofobiczne, morderstwa, narkotyki i pedofilia. Dziś to nie są już pojedyncze incydenty, ale element cyfrowej codzienności coraz młodszych dzieci.

Małe dziecko patrzy zszokowane na ekran smartfona z ikonami ostrzegawczymi. Na cyfrowym wyświetlaczu pojawiają się symbole zagrożeń i ryzyka. Dziecko poznaje świat internetu z ostrożnością i ciekawością wobec zagrożeń online.
Łuna gradientu wychodząca od dołu

To właśnie ten obraz – skala i powszechność najbardziej skrajnych treści – stał się punktem wyjścia do posiedzenia sejmowej Komisji do Spraw Dzieci i Młodzieży (22.01).

Komisję zwołano w reakcji na serię dramatycznych zdarzeń z ostatnich miesięcy, w tym zabójstwo 11-letniej dziewczynki w Jeleniej Górze, oraz na kolejne raporty pokazujące rosnącą skalę przemocy, samookaleczeń i wykorzystywania dzieci w sieci. Celem posiedzenia było omówienie wpływu mediów społecznościowych, komunikatorów i narzędzi opartych na sztucznej inteligencji na bezpieczeństwo osób małoletnich oraz zapowiedź prac nad zmianami legislacyjnymi.

W obradach wzięli udział: przedstawiciele Ministerstwa Edukacji Narodowej, Ministerstwa Cyfryzacji, Ministerstwa Zdrowia, NASK, organizacji pozarządowych, środowiska naukowego oraz instytucji pracujących na co dzień z dziećmi i młodzieżą. Bo problem przestał dotyczyć wyłącznie „niebezpiecznych przypadków”. Stał się systemowy.

W trakcie posiedzenia wielokrotnie podkreślano, że internet jest dziś jednym z głównych środowisk, w których dzieci w Polsce doświadczają przemocy, upokorzenia i poważnych kryzysów psychicznych. Tymczasem państwo wciąż nie zbudowało dostatecznie skutecznych mechanizmów, które mogłyby tę rosnącą skalę zagrożeń realnie ograniczyć.

Gdzie kończy się dzieciństwo, a zaczyna algorytm

Cyfrowe środowisko nie jest już dodatkiem do świata dzieci. Jest jego rdzeniem. To tam zaczynają się pierwsze relacje, pierwsze konflikty i pierwsze doświadczenia porażki. Dzieje się to w wieku, w którym emocje są jeszcze niestabilne, a mechanizmy obronne dopiero się kształtują. I właśnie w tym momencie dzieci wchodzą w świat, który wciąż nie ma dla nich wystarczających mechanizmów ochrony – ani po stronie prawa, ani po stronie technologii.

Dziś formalną granicą dostępu do mediów społecznościowych jest 13. rok życia, wynikający z przepisów o ochronie danych osobowych. W ocenie ekspertów to zdecydowanie za mało.
– Granica 13 lat jest niezgodna z wiedzą naukową o rozwoju dziecka – mówił podczas posiedzenia komisji wiceminister cyfryzacji Michał Gramatyka. – To właśnie wiek 11–13 lat jest okresem największej podatności na presję rówieśniczą, kryzysy emocjonalne i problematyczne korzystanie z mediów społecznościowych.

W tym wieku szczególnie łatwo uruchamia się mechanizm, którego nie widać na pierwszy rzut oka: rekomendacje zastępują rozmowę, a dopasowane treści potrafią przebić się przez zasady, które obowiązują w domu. Skutki widać w danych o cyberprzemocy. Prof. Dorota Kleszczewska z Instytutu Matki i Dziecka zwracała uwagę, że w porównaniach międzynarodowych realizowanych w ramach badań HBSC Polska młodzież jest – w czołówce zarówno ofiar jak i sprawców cyberprzemocy. A to w oczywisty sposób wpływa na psychikę dopiero rozwijanych się umysłów młodych ludzi.

– Od kilku lat widzimy wyraźny związek między intensywnym korzystaniem z mediów społecznościowych a zdrowiem psychicznym – podkreślała prof. Aleksandra Lewandowska, konsultantka krajowa w dziedzinie psychiatrii dzieci i młodzieży. – Badania prowadzone na dużych populacjach pokazują prawie trzykrotnie większe ryzyko występowania zaburzeń depresyjnych i zachowań samobójczych u młodych nastolatków intensywnie korzystających z mediów społecznościowych – dodaje.

Najbardziej niepokojące jest jednak to, jak często dzieci stykają się z treściami skrajnymi bez własnej inicjatywy.

– Wśród uczniów siódmych klas 39 procent miało styczność z treściami suicydalnymi. W szkołach ponadpodstawowych – ponad 50 procent – mówiła dr Halszka Witkowska. – Tylko 9 procent kiedykolwiek takich treści szukało. Reszcie one się po prostu wyświetlają.

To właśnie tutaj pęka mit „świadomego wyboru” i „zdrowego dystansu”. Dziecko nie musi niczego wpisywać w wyszukiwarkę. Wystarczy, że algorytm uzna dany temat za skuteczny w przyciąganiu uwagi.

– Jeżeli dziecko jest w kryzysie psychicznym, a algorytmy dodatkowo podrzucają mu takie treści, to pogłębia jego kryzys – dodawała Witkowska. – A jeżeli dziecko już z tego kryzysu wyszło, te treści stają się tragiczną przypominajką.

W wypowiedziach ekspertów wracała też twarda statystyka: w 2025 roku w grupie do 19. roku życia liczba samobójstw wzrosła o ponad 26 procent; w grupie 7–12 lat odnotowano 5 śmierci samobójczych i 83 próby.

– Dzieci w kryzysie psychicznym są w internecie same – mówiła Witkowska. – Profilaktyka działa, ale gdy dziecko staje się ofiarą hejtu, przemocy, przemocy rówieśniczej – w tym momencie system przestaje je chronić.

Rośnie też skala uzależnienia od ekranów i ryzykownych zachowań w sieci. Przedstawicielka Instytutu Cyfrowego Obywatelstwa sygnalizowała, że 34 procent młodzieży deklaruje korzystanie z mediów społecznościowych „prawie cały czas”, a ponad 2/3 spędza przed ekranem więcej niż 5 godzin dziennie; w weekendy co dziesiąte dziecko – 12 godzin. Do tego dochodzą nawyki, które dla sprawców są po prostu zaproszeniem: ponad połowa młodzieży przyjmuje zaproszenia od nieznajomych, a tylko niewielki odsetek prosi o pomoc, gdy w sieci wydarzy się coś złego.

I  w tym miejscu dochodzi jeszcze perspektywa rodziców, która podczas komisji wybrzmiała najmocniej jako emocja: bezradność. Z badań Fundacji More in Common przywoływanych na posiedzeniu wynika, że 89 procent rodziców w Polsce jest zaniepokojonych bezpieczeństwem swoich dzieci w internecie, a 87 procent przyznaje wprost, że potrzebuje wsparcia z zewnątrz.

Prawo, które nie dogania praktyki

Posiedzenie sejmowej komisji było próbą uporządkowania tematu, który dawno wyrósł poza szkolne pogadanki i pojedyncze apele o „kontrolę rodzicielską”. Eksperci na sali zgadzali się, że sama granica wieku – nawet jeśli zostanie przesunięta – niczego nie zmieni, jeśli nie będzie jej dało się realnie egzekwować.

– Mamy dziś ograniczenie wiekowe w teorii, ale w praktyce większość młodszych dzieci i tak korzysta z tych usług – mówił Michał Gramatyka z Ministerstwa Cyfryzacji. – Bez skutecznej weryfikacji wieku każda nowa granica pozostanie kolejnym martwym przepisem.

Wypowiedzi ekspertów i organizacji społecznych prowadziły do konkluzji problemem nie jest wyłącznie „czy podnieść wiek”, ale jak zmusić rynek do tego, by przestał projektować usługi przeciwko dzieciom. Padał wyraźny postulat „safety by design” – bezpieczeństwa wbudowanego w produkt, a nie doklejanego w regulaminie.

– Każde dziecko może się z takimi treściami spotkać i nigdy nie wiemy, w jakim będzie stanie psychicznym, kiedy algorytm je podsunie – podkreślała przedstawicielka resortu cyfryzacji.

Według ekspertów jednym z kluczowych problemów jest to, że państwo próbuje regulować internet etapami. Osobno pewne platformy, osobno inne usługi. Tymczasem dla dziecka to jest jeden świat – bez wyraźnych granic między aplikacjami.

W efekcie część zagrożeń zawsze pozostaje poza zasięgiem regulacji. I do tego właśnie odnosiła się jedna z najczęściej cytowanych diagnoz:

– Jeżeli będziemy regulować w silosach, zawsze coś nam ucieknie – argumentowała przedstawicielka Instytutu Cyfrowego Obywatelstwa. – Największym problemem jest długi ogon mniejszych serwisów i aplikacji, które wymykają się każdej selektywnej regulacji.

Osobny wątek dotyczył komunikatorów szyfrowanych – bo to tam, jak wskazywano, przenosi się dziś część najpoważniejszych zagrożeń.

– Model działania sprawcy jest bardzo powtarzalny: najpierw budowanie zaufania na platformie społecznościowej, potem przejście na szyfrowany komunikator – mówił przedstawiciel Państwowej Komisji ds. przeciwdziałania pedofilii. – To są środowiska wysokiego ryzyka.

Gdzie kończy się odpowiedzialność platform, a zaczyna odpowiedzialność państwa

Stanowisko NASK przedstawił Maciej Siciarek, dyrektor CSIRT Polska w NASK. Zgodził się, że samo podniesienie wieku dostępu jest potrzebne, ale podkreślał, że bez realnego egzekwowania prawa i objęcia regulacjami także komunikatorów żadna granica nie będzie działać.

W perspektywie NASK ochrona dzieci w internecie nie sprowadza się do jednego limitu wiekowego. Doświadczenia Dyżurnet.pl i zespołów analitycznych pokazują, że problemem zasadniczym jest powszechny, łatwy i w praktyce niekontrolowany dostęp dzieci do treści nielegalnych i szkodliwych – niezależnie od formalnych ograniczeń.

– Najważniejszym globalnym problemem nie jest sam wiek dostępu, lecz powszechny i łatwy dostęp dzieci do treści nielegalnych i szkodliwych – wskazuje w stanowisku NASK dyrektor Radosław Nielek. – Platformy w niedostatecznym stopniu moderują treści zamieszczane przez różne kategorie użytkowników, w tym przestępców seksualnych oraz systemy AI.

NASK podkreśla też, że przesuwanie wieku bez równoległego wzmocnienia egzekwowania prawa i obowiązków po stronie platform może nie przynieść realnej zmiany: jeśli limity wieku dalej nie będą egzekwowane, dzieci i tak znajdą drogę do tych samych mechanizmów i treści. Dlatego potrzebne jest podejście oparte na dowodach, dialogu i rozwiązaniach, które da się egzekwować – a nie tylko dopisać do regulaminów.

Szczególnie ważnym obszarem są komunikatory, ze względu na brak moderacji, może tam trafić wszystko.

– Komunikatory pełnią dziś funkcje zbliżone do mediów społecznościowych, umożliwiają publikowanie treści, tworzenie grup, budowanie profili oraz nawiązywanie kontaktów z osobami nieznajomymi – podkreślał Maciej Siciarek. – To właśnie tam trafia do dzieci znacząca część niebezpiecznych treści.
Równolegle narasta skala zagrożeń związanych z narzędziami AI – od deepfake’ów i deepnudes tworzonych z wizerunkami dzieci po doniesienia o groomingu prowadzonym przez chatboty.

„Dzisiejszy brak regulacji w tym zakresie przerzuca całą odpowiedzialność na małoletniego użytkownika” – można przeczytać w stanowisku NASK. Z tej diagnozy wynikają priorytetowe postulaty: realna weryfikacja wieku, skuteczniejsza moderacja i polskojęzyczne zespoły reagowania, restrykcyjne ustawienia prywatności dla nieletnich, wzmocnienie roli trusted flaggers i szybkie ścieżki reakcji, dostęp do danych dla badaczy oraz objęcie ochroną również komunikatorów i czatów.

Ochrona dzieci to nasza wspólna odpowiedzialność

Dane przywołane podczas posiedzenia komisji pokazują jednoznacznie: dzieci już dziś funkcjonują w środowisku wysokiego ryzyka. A jeśli prawo pozostaje jedynie deklaracją – ryzyko nie znika, tylko się przenosi: z platform na komunikatory, z treści tworzonych przez ludzi na treści generowane przez AI, z otwartej sieci do zamkniętych kanałów.
Dlatego kluczowym wnioskiem z tej debaty nie jest pytanie, czy regulować, lecz jak zbudować system, który realnie zadziała – łączący egzekwowalne przepisy, odpowiedzialność platform, nadzór nad ryzykiem i konsekwentną edukację. W tym sensie ochrona dzieci w internecie staje się dziś jednym z najważniejszych sprawdzianów nowoczesnego państwa: nie testem intencji, tylko testem skuteczności.

Bo jeśli my dziś nie zadbamy o bezpieczeństwo najmłodszych w sieci, jutro będziemy musieli zmierzyć się z konsekwencjami, których może nie dać się już naprawić.

Udostępnij ten post

Wyróżnione aktualności

Abstrakcyjna, futurystyczna scena przedstawiająca unoszące się w przestrzeni metaliczne panele i siatki, oświetlone jasnymi promieniami światła na tle gwiazd i mgławicy. Elementy wyglądają jak fragmenty cyfrowej lub kosmicznej struktury.
Typ_aktualnosc Aktualność
29 Grudnia 2025|6 min. czytania

NASK rozwinie komunikację kwantową z europejskimi satelitami

Międzynarodowe konsorcjum pod przewodnictwem NASK zbuduje optyczną stację naziemną umożliwiającą kwantowe ustalanie klucza (QKD) z europejskimi satelitami. Projekt PIONIER-Q-SAT umożliwi łączność m.in. z satelitą Eagle-1 i połączy Polskę z innymi krajami biorącymi udział w programie EuroQCI Komisji Europejskiej.

Osoba siedzi przy drewnianym stole w restauracji, trzyma nóż i widelec nad talerzem, na którym leży smartfon przykryty kawałkiem mięsa z ziołami.
Typ_aktualnosc Aktualność
17 Grudnia 2025|8 min. czytania

Od lajków do lęków – zaburzenia odżywiania w erze scrollowania

Zaburzenia psychiczne związane z jedzeniem i zniekształcony obraz ciała coraz częściej zaczynają się od ekranu telefonu. Problem ten wpisuje się szerzej w kryzys zdrowia psychicznego zanurzonych w środowisku cyfrowym młodych ludzi. Nastolatki patrzą na idealny świat w mediach społecznościowych, a siebie widzą w krzywym zwierciadle.

Poradnik zakupowy NASK
Typ_aktualnosc Aktualność
27 Listopada 2025|3 min. czytania

Okazja czy pułapka? Kupuj bezpiecznie online

Black Friday i Cyber Monday wyewoluowały w całe tygodnie kuszące okazjami i promocjami, a gorączka świątecznych zakupów już się rozpoczęła. Wiedzą o tym nie tylko klienci, ale i cyberprzestępcy. By się przed nimi ustrzec, warto zajrzeć do najnowszej publikacji NASK o bezpiecznych zakupach online.

Panel dyskusyjny w centrum prasowym PAP. Na scenie Małgorzata Rozenek-Majdan, Iwona Prószyńska i Dariusz Standerski. Standerski mówi do mikrofonu. Widać kamery nagrywające wydarzenie i publiczność na sali.
Typ_aktualnosc Aktualność
12 Listopada 2025|7 min. czytania

Wolność w sieci czy era regulacji?

Co zmieni się w internecie po wdrożeniu unijnych regulacji DSA? Jak nowe prawo może wpłynąć na nasze bezpieczeństwo, ochronę dzieci i wizerunku, a także przyszłość cyfrowej komunikacji? Odpowiedzi na te pytania padły podczas debaty Strefy Dialogu Jutra Human Answer Institute w Polskiej Agencji Prasowej.

Informacje

Najnowsze aktualności

Spotkanie robocze w siedzibie NASK – uczestnicy siedzą przy stołach konferencyjnych wyposażonych w mikrofony, laptopy i materiały robocze; w tle widoczny roll-up NASK.
Typ_aktualnosc Aktualność
11 Lutego 2026|7 min. czytania

Bezpieczeństwo AI pod lupą. Sejmowa podkomisja w NASK

Gdyby ktoś chciał zapoznać się z całym tekstem, na którym trenowane są takie modele, zajęłoby mu to około 100 tysięcy lat – mówił dr Sebastian Cygiert z NASK. Skala danych, na których trenuje się AI jest ogromna. I dlatego tak trudno jest ją kontrolować. Czy wobec tego może stanowić zagrożenie? Czy AI może być “lojalna” wobec kraju pochodzenia? Jakie konsekwencje miałoby jej odłączenie i czy stała się zasobem równie ważnym co np. ropa naftowa?

Scena z ekranem z napisem "Dzień Bezpiecznego Internetu"
Typ_aktualnosc Aktualność
10 Lutego 2026|7 min. czytania

Razem dla dzieci w sieci. „Nic nie zastąpi rodzica”

Dziś żadne narzędzie nie zastąpi obecności rodzica. To on jest tarczą dziecka przed zagrożeniami w sieci. – „Moje życie bez telefonu jest puste” – mówią nastolatki i nie rozumieją rozmów o ograniczeniach dotyczących dostępu do mediów społecznościowych – zaznaczała Anna Rywczyńska, koordynatorka Polskiego Centrum Safer Internet i kierowniczka działu Profilaktyki Cyberzagrożeń w NASK podczas 22. Gali Dnia Bezpiecznego Internetu.

Ilustracja z tytułem „Poradnik o dezinformacji klimatycznej” na jasnofioletowym tle; po prawej stylizowana turbina wiatrowa z graficznymi liniami symbolizującymi obieg informacji.
Typ_aktualnosc Aktualność
10 Lutego 2026|7 min. czytania

„Jeśli planeta płonie, to skąd tyle śniegu?” – mechanizmy dezinformacji klimatycznej

Ponieważ mamy rekordowe opady śniegu, to globalne ocieplenie jest wymysłem. A ponieważ tej zimy mamy wyjątkowo niskie temperatury, to naukowcy, którzy mówią o zmianach klimatycznych się mylą. Skoro kiedyś też zdarzały się susze i upały, to dziś nie dzieje się nic nadzwyczajnego. Te zdania krążą w sieci od lat – krótkie, pozornie logiczne, podawane dalej bez chwili refleksji. I właśnie dlatego są tak skuteczne.

    Jak skutecznie chronić dzieci? Debata w Sejmie