AI – standardy i przyszłość. Europejskie warsztaty w NASK
UE chce by rewolucja AI była bezpieczna i zgodna z europejskimi wartościami – oparta na wspólnych, sprawdzonych standardach. To właśnie tym zagadnieniom poświęcone były warsztaty w NASK w zorganizowane ramach polskiej prezydencji w Unii Europejskiej. Wnioski ze spotkania będą przydatne m.in. podczas czerwcowego posiedzenia Rady UE.


Rozwój sztucznej inteligencji w Unii Europejskiej wchodzi na kolejne etapy – zarówno na poziomie inwestycji, jak i wdrażania regulacji. Spotkanie w siedzibie NASK miało charakter edukacyjny i doradczy. Jego celem było zebranie opinii różnych interesariuszy na potrzeby dalszych prac Rady ds. AI oraz Komisji Europejskiej. Wszystko to ma istotne znaczenie w kontekście wdrożeń opublikowanego w ubiegłym roku AI Act. Polska prezydencja podejmuje działania wspierające efektywne wdrożenie tych przepisów w całej Unii.
– Trwa wyścig o to, kto pierwszy ustanowi standardy bezpieczeństwa sztucznej inteligencji. Jeśli nie zrobimy tego teraz, większość naszych firm, naszych instytucji publicznych – zwłaszcza tych, które chronią nasze dane i nasze rejestry – będzie wdrażać AI bez żadnych standardów. Dziś otwieramy kolejny rozdział, bo musimy dać naszym firmom pewność, że wdrażają te technologie zgodnie ze standardami, którym mogą ufać. Dlatego ten warsztat dotyczy zaufania, przyspieszenia inwestycji, a – szczerze mówiąc – również przyszłości rozwiązań AI w Unii Europejskiej – mówił Dariusz Standerski, wiceminister cyfryzacji.
Warsztaty zostały zaplanowane tak, aby dostarczyć uczestnikom szerokiej perspektywy, dać możliwość spojrzenia na AI zarówno od strony standaryzacji i bezpieczeństwa sztucznej inteligencji w Unii Europejskiej, z punktu widzenia instytucji oraz sektora przemysłowego, jak i organizacji standaryzacyjnych.
– Standardy mogą na pierwszy rzut oka wydawać się tematem nudnym i mało atrakcyjnym na warsztat czy konferencję. Ale w rzeczywistości to niezwykle fascynujący, dotykający wielu obszarów i kluczowy temat w kontekście bezpieczeństwa sztucznej inteligencji. Dzisiejszy warsztat to okazja, by wspólnie z ekspertami z różnych sektorów odpowiedzieć na fundamentalne pytania: czy standardy bezpieczeństwa AI już istnieją, czy są dobre, gotowe do wdrożenia i użyteczne w praktyce – zaznaczał Paweł Kostkiewicz, dyrektor ds. certyfikacji w NASK.
Spotkanie rozpoczęło wystąpienie Kiliana Grossa, zastępca dyrektora działającego w ramach Komisji Europejskiej Urzędu ds. Sztucznej Inteligencji (AI Office). Przedstawił on unijną perspektywę na proces standaryzacji bezpieczeństwa sztucznej inteligencji.
– W Europie mamy zgodność co do tego, że chcemy być liderem w dziedzinie AI. Chcemy, żeby ta technologia była bezpieczna, zgodna z naszymi wartościami i służyła ludziom – podkreślał przedstawiciel Komisji Europejskiej.
Kilian Gross podkreślił, że AI Act nie jest regulacją wymierzoną przeciwko rozwojowi sztucznej inteligencji, lecz przeciwnie – ma stworzyć ramy umożliwiające jej bezpieczne wdrażanie w całej Unii Europejskiej. Celem przepisów jest bowiem zbudowanie zaufania społecznego i biznesowego do sztucznej inteligencji poprzez minimalizowanie ryzyk oraz jasne określenie obowiązków dla twórców i użytkowników systemów AI.
Ekspert zwrócił szczególną uwagę na cyberbezpieczeństwo, jako jeden z kluczowych i obowiązkowych filarów AI Act. Wskazał, że sztuczna inteligencja ma na nie wpływ w obu kierunkach: może być wsparciem dla ataków (np. automatyzacja phishingu, generowania złośliwego oprogramowania), ale może także wzmacniać ochronę systemów i danych. Dlatego AI Act przewiduje obowiązki zapewnienia przez dostawców bezpiecznego działania modeli i systemów sztucznej inteligencji, zwłaszcza tych wdrażanych w sektorach wrażliwych i krytycznych, takich jak np. transport, medycyna, usługi publiczne czy energetyka.
W swoim wystąpieniu Gross podkreślał, że AI Act ma zapewnić harmonijne, innowacyjne i bezpieczne wdrażanie sztucznej inteligencji w Europie, a cyberbezpieczeństwo stanowi jeden z jego fundamentalnych, obowiązkowych elementów. Ostatecznie, to Komisja zdecyduje o kształcie norm i standardów, które pozwolą na praktyczne bezpieczeństwo europejskich konsumentów i obywateli.
Podczas spotkania zabrali głos także eksperci z wiodących organizacji standaryzacyjnych – Scott Cadzow z ETSI i Sebastian Hallensleben, Sebastian Hallensleben, który przewodniczy pracom nad standardami wdrożenia AI w ramach CEN/CENELEC JCT21. Uczestnicy warsztatów poznali też praktyczne spojrzenie na stosowanie standardów, o czym opowiadał m.in. przedstawiciel Microsoftu Nicholas Butts. Z kolei ekspert z SGS Michał Cichocki opowiadał o pierwszych certyfikacjach w obszarze AI opartych na normie 4201. Uczestnicy mieli także okazję zapoznać się z kodeksem dobrych praktyk opracowanym przez Brytyjskie Narodowe Centrum Cyberbezpieczeństwa (UK NCSC). Ostatni głos w dyskusji należał do Karoliny Seweryn z NASK, która mówiła o budowie bezpiecznych i godnych zaufania rozwiązań AI na przykładzie polskiego modelu językowego PLLuM.
Cyberbezpieczeństwo i rozwój sztucznej inteligencji stanowią jeden z kluczowych priorytetów polskiej prezydencji w Radzie Unii Europejskiej, która rozpoczęła się 1 stycznia 2025 roku i potrwa do końca czerwca 2025 roku. W dobie dynamicznych przemian technologicznych, Polska przyjęła ambitną agendę działań, które mają na celu przyspieszenie rozwoju AI w całej UE. Podczas naszego przewodnictwa priorytetem jest poszukiwanie konkretnych rozwiązań: inwestycyjnych, wspierających wynalazców oraz o standardach i normach, które przełożą się na bezpieczeństwo produktów i usług z AI.
Wyróżnione aktualności
NASK rozwinie komunikację kwantową z europejskimi satelitami
Międzynarodowe konsorcjum pod przewodnictwem NASK zbuduje optyczną stację naziemną umożliwiającą kwantowe ustalanie klucza (QKD) z europejskimi satelitami. Projekt PIONIER-Q-SAT umożliwi łączność m.in. z satelitą Eagle-1 i połączy Polskę z innymi krajami biorącymi udział w programie EuroQCI Komisji Europejskiej.
Od lajków do lęków – zaburzenia odżywiania w erze scrollowania
Zaburzenia psychiczne związane z jedzeniem i zniekształcony obraz ciała coraz częściej zaczynają się od ekranu telefonu. Problem ten wpisuje się szerzej w kryzys zdrowia psychicznego zanurzonych w środowisku cyfrowym młodych ludzi. Nastolatki patrzą na idealny świat w mediach społecznościowych, a siebie widzą w krzywym zwierciadle.
Okazja czy pułapka? Kupuj bezpiecznie online
Black Friday i Cyber Monday wyewoluowały w całe tygodnie kuszące okazjami i promocjami, a gorączka świątecznych zakupów już się rozpoczęła. Wiedzą o tym nie tylko klienci, ale i cyberprzestępcy. By się przed nimi ustrzec, warto zajrzeć do najnowszej publikacji NASK o bezpiecznych zakupach online.
Wolność w sieci czy era regulacji?
Co zmieni się w internecie po wdrożeniu unijnych regulacji DSA? Jak nowe prawo może wpłynąć na nasze bezpieczeństwo, ochronę dzieci i wizerunku, a także przyszłość cyfrowej komunikacji? Odpowiedzi na te pytania padły podczas debaty Strefy Dialogu Jutra Human Answer Institute w Polskiej Agencji Prasowej.
Najnowsze aktualności
Innowacja w polskiej nauce. Współpraca NASK i NAWA
Bezpieczeństwo, rozwój i nowe możliwości dla polskiej nauki. List intencyjny podpisany przez NASK z Narodową Agencją Wymiany Akademickiej NAWA to kolejny krok w stronę tworzenia i udoskonalania polskiej sztucznej inteligencji, która staje się niezbędnym narzędziem w pracy naukowców.
Oświadczenie NASK
W związku z informacjami dotyczącymi NASK publikowanymi w przestrzeni publicznej, informujemy.
Polsko-koreańska współpraca nad bezpieczeństwem AI
NASK zyskuje prestiżowego partnera w pracach nad bezpieczną sztuczną inteligencją. Współpraca z Koreańskim Instytutem Badań nad Bezpieczeństwem Sztucznej Inteligencji (AISI Korea AI Safety Institute) działającym w strukturach Instytutu Badawczego Elektroniki i Telekomunikacji (ETRI) obejmie realizację wspólnych badań, seminariów, programów szkoleniowych dla inżynierów oraz transfer technologii.






