AI – standardy i przyszłość. Europejskie warsztaty w NASK
UE chce by rewolucja AI była bezpieczna i zgodna z europejskimi wartościami – oparta na wspólnych, sprawdzonych standardach. To właśnie tym zagadnieniom poświęcone były warsztaty w NASK w zorganizowane ramach polskiej prezydencji w Unii Europejskiej. Wnioski ze spotkania będą przydatne m.in. podczas czerwcowego posiedzenia Rady UE.


Rozwój sztucznej inteligencji w Unii Europejskiej wchodzi na kolejne etapy – zarówno na poziomie inwestycji, jak i wdrażania regulacji. Spotkanie w siedzibie NASK miało charakter edukacyjny i doradczy. Jego celem było zebranie opinii różnych interesariuszy na potrzeby dalszych prac Rady ds. AI oraz Komisji Europejskiej. Wszystko to ma istotne znaczenie w kontekście wdrożeń opublikowanego w ubiegłym roku AI Act. Polska prezydencja podejmuje działania wspierające efektywne wdrożenie tych przepisów w całej Unii.
– Trwa wyścig o to, kto pierwszy ustanowi standardy bezpieczeństwa sztucznej inteligencji. Jeśli nie zrobimy tego teraz, większość naszych firm, naszych instytucji publicznych – zwłaszcza tych, które chronią nasze dane i nasze rejestry – będzie wdrażać AI bez żadnych standardów. Dziś otwieramy kolejny rozdział, bo musimy dać naszym firmom pewność, że wdrażają te technologie zgodnie ze standardami, którym mogą ufać. Dlatego ten warsztat dotyczy zaufania, przyspieszenia inwestycji, a – szczerze mówiąc – również przyszłości rozwiązań AI w Unii Europejskiej – mówił Dariusz Standerski, wiceminister cyfryzacji.
Warsztaty zostały zaplanowane tak, aby dostarczyć uczestnikom szerokiej perspektywy, dać możliwość spojrzenia na AI zarówno od strony standaryzacji i bezpieczeństwa sztucznej inteligencji w Unii Europejskiej, z punktu widzenia instytucji oraz sektora przemysłowego, jak i organizacji standaryzacyjnych.
– Standardy mogą na pierwszy rzut oka wydawać się tematem nudnym i mało atrakcyjnym na warsztat czy konferencję. Ale w rzeczywistości to niezwykle fascynujący, dotykający wielu obszarów i kluczowy temat w kontekście bezpieczeństwa sztucznej inteligencji. Dzisiejszy warsztat to okazja, by wspólnie z ekspertami z różnych sektorów odpowiedzieć na fundamentalne pytania: czy standardy bezpieczeństwa AI już istnieją, czy są dobre, gotowe do wdrożenia i użyteczne w praktyce – zaznaczał Paweł Kostkiewicz, dyrektor ds. certyfikacji w NASK.
Spotkanie rozpoczęło wystąpienie Kiliana Grossa, zastępca dyrektora działającego w ramach Komisji Europejskiej Urzędu ds. Sztucznej Inteligencji (AI Office). Przedstawił on unijną perspektywę na proces standaryzacji bezpieczeństwa sztucznej inteligencji.
– W Europie mamy zgodność co do tego, że chcemy być liderem w dziedzinie AI. Chcemy, żeby ta technologia była bezpieczna, zgodna z naszymi wartościami i służyła ludziom – podkreślał przedstawiciel Komisji Europejskiej.
Kilian Gross podkreślił, że AI Act nie jest regulacją wymierzoną przeciwko rozwojowi sztucznej inteligencji, lecz przeciwnie – ma stworzyć ramy umożliwiające jej bezpieczne wdrażanie w całej Unii Europejskiej. Celem przepisów jest bowiem zbudowanie zaufania społecznego i biznesowego do sztucznej inteligencji poprzez minimalizowanie ryzyk oraz jasne określenie obowiązków dla twórców i użytkowników systemów AI.
Ekspert zwrócił szczególną uwagę na cyberbezpieczeństwo, jako jeden z kluczowych i obowiązkowych filarów AI Act. Wskazał, że sztuczna inteligencja ma na nie wpływ w obu kierunkach: może być wsparciem dla ataków (np. automatyzacja phishingu, generowania złośliwego oprogramowania), ale może także wzmacniać ochronę systemów i danych. Dlatego AI Act przewiduje obowiązki zapewnienia przez dostawców bezpiecznego działania modeli i systemów sztucznej inteligencji, zwłaszcza tych wdrażanych w sektorach wrażliwych i krytycznych, takich jak np. transport, medycyna, usługi publiczne czy energetyka.
W swoim wystąpieniu Gross podkreślał, że AI Act ma zapewnić harmonijne, innowacyjne i bezpieczne wdrażanie sztucznej inteligencji w Europie, a cyberbezpieczeństwo stanowi jeden z jego fundamentalnych, obowiązkowych elementów. Ostatecznie, to Komisja zdecyduje o kształcie norm i standardów, które pozwolą na praktyczne bezpieczeństwo europejskich konsumentów i obywateli.
Podczas spotkania zabrali głos także eksperci z wiodących organizacji standaryzacyjnych – Scott Cadzow z ETSI i Sebastian Hallensleben, Sebastian Hallensleben, który przewodniczy pracom nad standardami wdrożenia AI w ramach CEN/CENELEC JCT21. Uczestnicy warsztatów poznali też praktyczne spojrzenie na stosowanie standardów, o czym opowiadał m.in. przedstawiciel Microsoftu Nicholas Butts. Z kolei ekspert z SGS Michał Cichocki opowiadał o pierwszych certyfikacjach w obszarze AI opartych na normie 4201. Uczestnicy mieli także okazję zapoznać się z kodeksem dobrych praktyk opracowanym przez Brytyjskie Narodowe Centrum Cyberbezpieczeństwa (UK NCSC). Ostatni głos w dyskusji należał do Karoliny Seweryn z NASK, która mówiła o budowie bezpiecznych i godnych zaufania rozwiązań AI na przykładzie polskiego modelu językowego PLLuM.
Cyberbezpieczeństwo i rozwój sztucznej inteligencji stanowią jeden z kluczowych priorytetów polskiej prezydencji w Radzie Unii Europejskiej, która rozpoczęła się 1 stycznia 2025 roku i potrwa do końca czerwca 2025 roku. W dobie dynamicznych przemian technologicznych, Polska przyjęła ambitną agendę działań, które mają na celu przyspieszenie rozwoju AI w całej UE. Podczas naszego przewodnictwa priorytetem jest poszukiwanie konkretnych rozwiązań: inwestycyjnych, wspierających wynalazców oraz o standardach i normach, które przełożą się na bezpieczeństwo produktów i usług z AI.
Wyróżnione aktualności
Razem dla bezpieczeństwa sieci 5G – warsztaty 5G TACTIC w NASK
5G ma napędzać transport, przemysł, administrację, a za chwilę – rzeczy, których jeszcze nawet nie nazywamy. Problem w tym, że im więcej od tej technologii zależy, tym mniej miejsca zostaje na pomyłki.
Transgraniczna autostrada danych. Ruszył projekt QKD Germany‑Poland‑Czechia
Czy istnieje rozmowa, której nie da się podsłuchać albo informacje, których nie da się przechwycić? W niedalekiej przyszłości powstanie pierwsza tak rozbudowana sieć kwantowa w Europie Środkowej, która wykorzysta technologię generowania i dystrybucji kluczy kryptograficznych. To oznacza bezpieczne przesyłanie informacji międzynarodowych. NASK jest partnerem tej inicjatywy.
Moc obliczeniowa dla polskiej AI. Pierwszy superkomputer NASK wystartował
NASK uruchomił nowy klaster do obliczeń AI. Wart 30 milionów złotych projekt to inwestycja w zdolność prowadzenia badań, tworzenia własnych narzędzi i rozwijania technologii, które odpowiadają na konkretne potrzeby państwa i obywateli.
Cyberbezpiecznie od 30 lat. CERT Polska
Od 12 incydentów w 1996 roku, po przeszło 260 tysięcy w ubiegłym. Te liczby najlepiej pokazują, jak diametralnie zmieniła się skala cyberataków oraz rola CERT Polska w podnoszeniu świadomości o cyberbezpieczeństwie. Pierwszy w Polsce zespół reagowania na zagrożenia w sieci, który powstał w NASK, obchodzi właśnie 30 urodziny.
Najnowsze aktualności
Technologia sama nas nie obroni. SECURE 2026
Ludzie atakują. Ludzie bronią. Ludzie popełniają błędy. To wreszcie ludzie odzyskują to, co przejęli hakerzy. Technologia jest tylko narzędziem. Właśnie o tym był SECURE 2026 – najstarsza w Polsce konferencja o cyberbezpieczeństwie. Ponad 600 uczestników i przeszło 30 prelegentów, dyskutowało na blisko 20 tematów. Wszystko, by wysnuć jeden wniosek: cyberbezpieczeństwo zaczyna się i kończy na człowieku.
Prawie 2 tys. zgłoszeń każdego dnia. Raport CERT Polska za 2025 rok
Aż o 152 proc. wzrosła rok do roku liczba zarejestrowanych incydentów cyberbezpieczeństwa. To trend, od którego nie ma już odwrotu – wraz z rozwojem technologii rośnie skala cyberataków. Jest też druga strona medalu – internauci są coraz bardziej świadomi zagrożeń, które czyhają na nich w sieci. To wnioski płynące z „Raportu rocznego z działalności zespołu CERT Polska w 2025 roku”. Swoją premierę miał podczas konferencji SECURE 2026.
AI w cyberbezpieczeństwie to miecz obosieczny – Marcin Dudek o SECURE 2026
Narzędzia to nie wszystko. Marcin Dudek, szef CERT Polska, ekspert od zagrożeń APT i bezpieczeństwa systemów przemysłowych, uważa, że największym problemem branży nie jest brak technologii, ale brak kompetencji, by z niej korzystać. Przed SECURE 2026 opowiedział nam, co dziś napędza cyberzagrożenia i dlaczego AI zmienia zasady gry.







