Bezpieczeństwo AI pod lupą. Sejmowa podkomisja w NASK
– Gdyby ktoś chciał zapoznać się z całym tekstem, na którym trenowane są takie modele, zajęłoby mu to około 100 tysięcy lat – mówił dr Sebastian Cygert z NASK. Skala danych, na których trenuje się AI jest ogromna. I dlatego tak trudno jest ją kontrolować. Czy wobec tego może stanowić zagrożenie? Czy AI może być “lojalna” wobec kraju pochodzenia? Jakie konsekwencje miałoby jej odłączenie i czy stała się zasobem równie ważnym co np. ropa naftowa?


To nie koniec pytań. Gdzie jesteśmy w globalnym wyścigu sztucznej inteligencji? Czy Polska i Europa mają w nim szansę? Czy możemy konkurować ze światowymi graczami, którzy finansują badania i wdrożenia kwotami w wysokości setek miliardów dolarów?
O tym rozmawiali posłowie sejmowej Podkomisji stałej do spraw sztucznej inteligencji i przejrzystości algorytmów podczas posiedzenia w siedzibie NASK. Spotkanie miało jeden cel: lepiej zrozumieć, jak działa AI – czyli gdzie kończą się jej możliwości, a zaczynają realne ryzyka jeszcze zanim pojawią się odpowiednie regulacje.
Gdy model wie za dużo
Większość problemów związanych z bezpieczeństwem AI zaczyna się zanim użytkownik zada pierwsze pytanie. Kluczowe są dane, na których modele są trenowane – ogromne, różnorodne i w praktyce niemożliwe do pełnej kontroli.
Jak tłumaczył dr inż. Sebastian Cygert, kierownik Zakładu Bezpieczeństwa i Przejrzystości Sztucznej Inteligencji w NASK, skala danych używanych do trenowania dużych modeli językowych jest tak ogromna, że człowiek nie byłby w stanie ich nawet przeczytać.
To oznacza, że w zbiorach treningowych mogą znaleźć się treści niepożądane, ale też informacje wrażliwe. Modele uczą się w inny sposób niż człowiek i potrafią zapamiętywać konkretne fragmenty danych. W skrajnych przypadkach da się z nich wydobyć elementy danych osobowych, co rodzi pytania o prywatność i odpowiedzialność.
Bezpieczny model to nie model nieomylny
Nawet najlepiej zaprojektowany system nie jest odporny na próby obejścia zabezpieczeń. Dotyczy to również sztucznej inteligencji, która wchodzi w interakcję z użytkownikami.
Modele często odmawiają odpowiedzi na pytania o przemoc czy nielegalne działania, ale – jak pokazywali eksperci NASK – odpowiednio sformułowane polecenia, zmiana kontekstu lub rozbicie instrukcji na kilka etapów potrafią doprowadzić do uzyskania niepożądanych odpowiedzi.
– Jesteśmy w stanie takie modele w pewien sposób podejść – mówił dr Cygert, opisując techniki wykorzystywane w testach bezpieczeństwa. Właśnie dlatego w NASK prowadzone są regularne testy typu red teaming, analogiczne do testów penetracyjnych znanych z cyberbezpieczeństwa. Ich celem jest sprawdzanie, jak modele reagują na różne scenariusze ataku i gdzie pojawiają się ich słabe punkty.
Wyniki takich testów pokazują, że skuteczność ataku w niektórych przypadkach sięga kilkudziesięciu procent. To dowód na to, że bezpieczeństwo AI nie jest stanem, który da się osiągnąć raz na zawsze, lecz procesem wymagającym ciągłej weryfikacji.
Suwerenność cyfrowa, wyścig technologiczny i wybór strategii
Dyskusja, która zdominowała posiedzenie, nie dotyczyła abstrakcyjnej wizji przyszłości ani technicznych detali działania modeli. Posłowie skupili się na dwóch bardzo konkretnych pytaniach: czy państwo jest w stanie skutecznie regulować niepożądane konsekwencje rozwoju AI oraz jak duża jest nasza zależność od globalnych dostawców technologii, i czy ich decyzje mogą mieć realny wpływ na bezpieczeństwo kraju.
Jednym z punktów odniesienia był przykład Danii, gdzie wprowadzono przepisy ograniczające wykorzystywanie prywatnych wizerunków w deepfake’ach. To rodzi pytania o potrzebę i możliwość skutecznego egzekwowania regulacji, wreszcie, czy prawo jest w stanie reagować wystarczająco szybko, zanim fałszywe materiały staną się narzędziem masowych nadużyć?
– Jeżeli nie jest to produkt artystyczny, każdy obywatel ma prostą drogę, żeby taki materiał najpierw zablokować, a dopiero potem go weryfikować. U nas to wciąż działa znacznie wolniej – mówił przewodniczący podkomisji, Grzegorz Napieralski z Koalicji Obywatelskiej, odnosząc się do duńskich regulacji ograniczających wykorzystywanie prywatnych wizerunków w deepfake’ach.
Drugim silnym wątkiem była zależność technologiczna. Posłowie porównywali możliwe scenariusze do sytuacji znanych z rynku energii – przerwania dostaw ropy czy gazu.
– Pytanie brzmi, w jakim stopniu jesteśmy zależni od dostawców AI, którzy w pewnym momencie mogą po prostu zaprzestać świadczenia swoich usług – dokładnie tak, jak widzieliśmy to w przypadku ropy i gazu – pytał poseł Bartłomiej Bliźniuk z Koalicji Obywatelskiej, porównując ryzyka technologiczne do kryzysów znanych z rynku energii.
Dyrektor NASK dr inż. Radosław Nielek podkreślał, że ryzyko całkowitego „odcięcia” nie jest abstrakcyjne, zwłaszcza, że działania nie zdarzyłyby się w trybie natychmiastowym.
– Jeśli dziś ktoś przestałby sprzedawać nam kluczowe technologie, jutro świat by się nie zatrzymał. Ale w perspektywie kilkunastu czy kilkudziesięciu miesięcy mielibyśmy poważny problem – podobnie jak w przypadku innych strategicznych surowców – mówił dyrektor Nielek.
W odpowiedzi na te obawy uczestnicy dyskusji wskazywali na potrzebę dywersyfikacji i budowania alternatyw – niekoniecznie pełnej samowystarczalności, ale realnego wyboru między dostawcami.
– Bezpieczeństwo nie polega na tym, że wszystko produkujemy sami. Polega na tym, że nie jesteśmy uzależnieni od jednego źródła – dodał dyrektor NASK.
Dyskusja jasno pokazała, że suwerenność w obszarze AI nie sprowadza się wyłącznie do posiadania własnych modeli czy infrastruktury. Chodzi o zdolność państwa do reagowania na nadużycia, ochrony obywateli przed skutkami technologii oraz zabezpieczenia się przed decyzjami podejmowanymi poza krajowym i europejskim systemem prawnym.
AI po stronie obrony
Sztuczna inteligencja bywa dziś opisywana głównie jako źródło zagrożeń. Tymczasem równie często jest narzędziem, które pozwala tym zagrożeniom przeciwdziałać. W NASK AI od lat wykorzystywana jest w praktyce – zarówno w usługach publicznych, jak i w ochronie kluczowych elementów polskiej infrastruktury cyfrowej.
Jednym z przykładów jest PLLuM – polski model językowy rozwijany przez NASK i partnerów, który stał się podstawą asystenta wspierającego użytkowników w aplikacji mObywtael. To jedno z największych wdrożeń sztucznej inteligencji w administracji publicznej w Europie, projektowane od początku z myślą o bezpieczeństwie i odporności na nadużycia.
PLLUM jest trenowany tak, żeby był bezpieczny. – Nie chcemy, żeby taki asystent zabierał stanowiska polityczne albo dawał się namówić do działań, których nie powinien wykonywać. Ma pomagać obywatelom w konkretnych sprawach – wypełnić formularz, złożyć wniosek – a nie generować treści, które mogą być szkodliwe – podkreślał dyrektor Nielek.
Sztuczna inteligencja wspiera także ochronę domeny .pl. Rozwiązania oparte na AI pozwalają analizować dane podawane przy rejestracji nowych domen i wykrywać próby ich wykorzystywania do phishingu lub innych działań przestępczych.
– Dzięki automatyzacji i wykorzystaniu sztucznej inteligencji udało się przesunąć domenę .pl z grupy najbardziej narażonych na phishing do grona jednych z najbezpieczniejszych domen na świecie – zaznaczył szef NASK.
Prawo, które musi nadążyć za technologią
Posiedzenie sejmowej podkomisji w NASK pokazało jednoznacznie, że rozmowa o sztucznej inteligencji nie jest już debatą o przyszłości, ale o teraźniejszych decyzjach. Nie chodzi o próbę zatrzymania technologii ani o rywalizację w globalnym wyścigu na skalę inwestycji, lecz o świadomy wybór obszarów, w których państwo może realnie wykorzystać potencjał AI.
Sztuczna inteligencja już dziś realnie wpływa na bezpieczeństwo, usługi publiczne i sposób funkcjonowania państwa. Pytanie nie brzmi więc, czy będzie regulowana, ale jak zrobić to mądrze – opierając się na wiedzy technicznej, testach i świadomości ryzyka, a nie na strachu przed technologią.
Wyróżnione aktualności
Od lajków do lęków – zaburzenia odżywiania w erze scrollowania
Zaburzenia psychiczne związane z jedzeniem i zniekształcony obraz ciała coraz częściej zaczynają się od ekranu telefonu. Problem ten wpisuje się szerzej w kryzys zdrowia psychicznego zanurzonych w środowisku cyfrowym młodych ludzi. Nastolatki patrzą na idealny świat w mediach społecznościowych, a siebie widzą w krzywym zwierciadle.
NASK rozwinie komunikację kwantową z europejskimi satelitami
Międzynarodowe konsorcjum pod przewodnictwem NASK zbuduje optyczną stację naziemną umożliwiającą kwantowe ustalanie klucza (QKD) z europejskimi satelitami. Projekt PIONIER-Q-SAT umożliwi łączność m.in. z satelitą Eagle-1 i połączy Polskę z innymi krajami biorącymi udział w programie EuroQCI Komisji Europejskiej.
Okazja czy pułapka? Kupuj bezpiecznie online
Black Friday i Cyber Monday wyewoluowały w całe tygodnie kuszące okazjami i promocjami, a gorączka świątecznych zakupów już się rozpoczęła. Wiedzą o tym nie tylko klienci, ale i cyberprzestępcy. By się przed nimi ustrzec, warto zajrzeć do najnowszej publikacji NASK o bezpiecznych zakupach online.
Wolność w sieci czy era regulacji?
Co zmieni się w internecie po wdrożeniu unijnych regulacji DSA? Jak nowe prawo może wpłynąć na nasze bezpieczeństwo, ochronę dzieci i wizerunku, a także przyszłość cyfrowej komunikacji? Odpowiedzi na te pytania padły podczas debaty Strefy Dialogu Jutra Human Answer Institute w Polskiej Agencji Prasowej.
Najnowsze aktualności
CERT Polska i policja. Wspólny front przeciw cyberprzestępcom
Najbardziej niszczycielskie rodzaje cyberataków? Ransomware. Nasz kraj jest na nie nieustannie narażony. Policjanci z Centralnego Biura Zwalczania Cyberprzestępczości (CBZC) wiedzą, jak pracować z podmiotami, które zostały zaatakowane. Wszystko dzięki ekspertom z CERT Polska, działającego w NASK, którzy przeprowadzili cykl szkoleń w ramach projektu CROPT.
Kończy się era, w której mogliśmy ufać własnym oczom – Kacper Szurek o SECURE 2026
Kacper Szurek to doświadczony praktyk cyberbezpieczeństwa, który od lat wspiera firmy w budowaniu cyfrowej odporności. Podczas SECURE 2026 będzie mówił o tym, jak oszuści wykorzystują AI, Już teraz opowiedział nam o zagrożeniach, których nie widać na pierwszy rzut oka.
Transgraniczna autostrada danych. Ruszył projekt QKD Germany‑Poland‑Czechia
Czy istnieje rozmowa, której nie da się podsłuchać albo informacje, których nie da się przechwycić? W niedalekiej przyszłości powstanie pierwsza tak rozbudowana sieć kwantowa w Europie Środkowej, która wykorzysta technologię generowania i dystrybucji kluczy kryptograficznych. To oznacza bezpieczne przesyłanie informacji międzynarodowych. NASK jest partnerem tej inicjatywy.







