Typ_aktualnosc Aktualność
28 Lipca 2025|8 min. czytania

Zakazane systemy AI. Gdzie przebiega granica?

Deepfake’i polityczne, boty, podszywające się pod ludzi i reklamy, analizujące na bieżąco mimikę twarzy. Wykorzystanie sztucznej inteligencji (AI) staje się coraz bardziej niebezpieczne i coraz mocniej wpływa na nasze decyzje – ekonomiczne, prywatne i polityczne. Na straży naszych praw ma stanąć AI Act. O jego wdrażaniu rozmawiali uczestnicy zorganizowanego przez NASK webinaru.

Ilustracja przedstawia mapę Europy w odcieniach niebieskiego z naniesionymi schematami obwodów elektronicznych, symbolizującymi cyfryzację. Na środku mapy, na obszarze Europy Zachodniej, znajduje się stylizowany układ scalony z dużym napisem "AI", co symbolizuje rozwój sztucznej inteligencji w Europie.
Łuna gradientu wychodząca od dołu

Unijne Rozporządzenie AI Act zakazuje stosowania sztucznej inteligencji tam, gdzie na szwank narażane będą podstawowe prawa człowieka. Przykłady takich naruszeń można mnożyć.  

Systemy sztucznej inteligencji, które wykorzystują dane psychologiczne i behawioralne do manipulacji, budzą tutaj szczególne obawy. Niektóre platformy reklam online potrafią na bieżąco analizować mimikę za pomocą kamery. Wszystko po to, by dostosowywać przekaz reklamowy w czasie rzeczywistym. Są też aplikacje, które identyfikują podatność odbiorcy na impulsy zakupowe lub polityczne na podstawie tonu głosu i mikroekspresji. Według AI Act takie rozwiązania są niedopuszczalne.  

Ponadto unijne przepisy jednoznacznie zakazują tworzenia deepfake’ów politycznych, które mają dezinformować wyborców. Wśród zakazanych ruchów znajduje się także wykorzystywanie chatbotów podszywających się pod ludzi. Dotyczy to sytuacji, gdy użytkownik nie jest świadomy, że rozmawia z maszyną. Zwłaszcza, jeśli może to wpłynąć na jego decyzje zakupowe, finansowe czy polityczne.  

Zabronione są też systemy, które profilują zachowania użytkowników w mediach społecznościowych w oparciu o emocje, gdy celem tych działań jest manipulacja ich decyzjami lub nastrojami. 

O tym, jakie są granice dopuszczalnego użycia AI, jak zmieni się polskie prawo i co nas czeka w przyszłości – dyskutowali goście webinaru “Zakazane systemy AI – gdzie przebiega granica?”. Wiceminister cyfryzacji Dariusz Standerski mówił o wdrażaniu nowego prawa i przygotowywanych przez resort polskich regulacjach w ramach AI Act.  

Głos zabrali także paneliści z NASK, instytucji publicznych i naukowych, omawiając założenia przepisów i wytyczne do ich stosowania.  

– Unijny Akt o sztucznej inteligencji to złożony i wielowymiarowy akt prawny. Dlatego Komisja Europejska publikuje wytyczne, których zadaniem jest ułatwienie jego interpretacji. Zawierają wyjaśnienia poszczególnych pojęć oraz – co szczególnie ważne w przypadku zakazów z Aktu – przykłady konkretnych systemów AI, które mogą zostać zakwalifikowane jako zabronione lub dopuszczalne. Komisja wskazuje na przykład, że za zakazany system AI może zostać uznany taki system, który wywołuje poważną szkodą dla zdrowia psychicznego użytkownika taką jak stan depresyjny lub trauma nawet jeżeli konsekwencje działania systemu są rozłożone w czasie – tłumaczy Emilia Zalewska-Czajczyńska, ekspertka NASK ds. analiz strategicznych z obszaru cyberbezpieczeństwa. 

Rozporządzenie Komisji Europejskiej, znane jako AI Act weszło w życie w ubiegłym roku. Obecnie państwa członkowskie, w tym Polska pracują nad przepisami krajowymi, które mają na celu dostosowanie prawa wewnętrznego do unijnych regulacji. Jasno określają one, jakich rozwiązań nie wolno stosować. Chodzi o to, by chronić nasze podstawowe prawa. A nowych technologii używać w sposób bezpieczny i korzystny dla wszystkich.  

Na czym polega AI Act? 

AI Act, czyli Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689, to pierwsze na świecie tak kompleksowe prawo regulujące rozwój i stosowanie sztucznej inteligencji. To kluczowy akt prawny przyjęty przez Unię Europejską w odpowiedzi na szybki rozwój technologii AI i konieczność zapewnienia jej bezpiecznego, etycznego i zgodnego z wartościami UE wykorzystania. 

Rozporządzenie AI Act weszło w życie 1 sierpnia 2024 roku i tworzy jednolite ramy prawne dla funkcjonowania systemów sztucznej inteligencji na terenie całej Unii Europejskiej. 

Podstawą jest podejście oparte na analizie ryzyka. Systemy AI są klasyfikowane według poziomu zagrożenia, jakie mogą stwarzać dla zdrowia, bezpieczeństwa oraz praw podstawowych obywateli. Wyróżniono cztery główne kategorie: 

  • Systemy o minimalnym ryzyku – np. filtry antyspamowe, 
  • Systemy o ograniczonym ryzyku – np. chatboty i generatory tekstu, 
  • Systemy wysokiego ryzyka – np. AI stosowana w ochronie zdrowia, edukacji, transporcie czy rekrutacji, 
  • Systemy o niedopuszczalnym ryzyku – które są zakazane, np. scoring społeczny, manipulacja emocjonalna czy masowe rozpoznawanie twarzy w przestrzeni publicznej. 

AI Act nakłada obowiązki prawne zarówno na dostawców, jak i użytkowników systemów sztucznej inteligencji – bez względu na to, czy działają oni na terenie Unii Europejskiej, czy poza nią (o ile ich produkty są dostępne w UE). 

Celem AI Act jest nie tylko ochrona obywateli przed zagrożeniami związanymi ze sztuczną inteligencją, ale również wspieranie rozwoju innowacyjnych technologii. Przepisy przewidują m.in. tworzenie tzw. piaskownic regulacyjnych – specjalnych środowisk testowych, w których przedsiębiorstwa mogą bezpiecznie rozwijać i wypróbowywać nowe rozwiązania z zakresu sztucznej inteligencji. 

Czego AI w UE nie może? 

Nowe prawo AI Act wskazuje, w jaki sposób sztuczna inteligencja nie może być wykorzystywana. Ograniczenia te wynikają z troski o prawa podstawowe Europejczyków i transparentność.  

– Zakazaną praktyką jest scoring społeczny, czyli ocena lub klasyfikacja osób na podstawie ich zachowań społecznych, cech osobistych lub osobowości, która prowadzi do ich niekorzystnego traktowania w kontekstach społecznych. Przykładem będzie agencja rządowa, która wykorzystuje system AI, by wyszukiwać rodziny, w których może dochodzić do wychowawczych zaniedbań, zanim coś złego wydarzy się dzieciom. Cel jest szlachetny i bardzo ważny społecznie, ale ocena w oparciu o zachowania rodziców, jak na przykład opuszczanie wizyt lekarskich lub otrzymywanie mandatów, nie jest społecznie sprawiedliwa – mówiła Emilia Zalewska-Czajczyńska, ekspertka NASK ds. analiz strategicznych z obszaru cyberbezpieczeństwa. 

I  tak AI Act zabrania np. wykorzystywania automatycznej oceny zdolności kredytowej lub ubezpieczeniowej wyłącznie na podstawie danych dotyczących naszych zachowań. Jednocześnie wśród ekspertów budzą się pytania o interpretacje i to, gdzie leżą granice.  

– Jeśli mówimy o scoringu, to raczej myślimy, że prawodawca miał na myśli model chiński i punktowe oceny obywateli. Natomiast co w przypadku banków, gdzie system analizuje przelewy, wykonywane kartą transakcje, robi to stale i długotrwale, zbierając informacje o danym kliencie. Dzięki tym narzędziom jest w stanie wykryć, że np. ktoś zamierza bądź kupił sobie nowy samochód i na tej podstawie proponuje ofertę leasingu albo kredytu – zwracała uwagę Barbara Rychalska z Eridani.AI. 

Nowe przepisy zakazują też korzystania ze sztucznej inteligencji w systemach do masowej inwigilacji – np. rozpoznawania twarzy na żywo bez indywidualnych podstaw prawnych. Nie mogą działać w miejscach publicznych. 

Eksperci zwracali uwagę, że podejście oparte na zakazie konkretnych przypadków zamiast szerokiego i ogólnego zakazu technologii sprzyja innowacjom: dopuszczalne pozostają badania i rozwój, o ile odbywają się w bezpiecznych, transparentnych warunkach. 

Strażnicy AI 

Aby przepisy unijnego AI Actu faktycznie działały w Polsce, urzędy muszą zatrudnić ludzi, którzy rozumieją zarówno prawo, jak i samą technologię. Chodzi o to, żeby państwo kontrolowało, czy firmy przestrzegają przepisów AI Act. Dlatego w instytucjach nadzorczych, takich jak UKOKiK, urzędnicy będą oceniać, czy dana firma nie przekracza naszych granic, np. czy aplikacja, przez którą robimy zakupy, nie narusza naszej prywatności, by lepiej dopasować reklamy. O wyzwaniach, które przed instytucjami stawiają nowe regulacje, mówił Piotr Adamczewski z UOKiK. 

– Jako agencja rządowa też wprowadziliśmy swoje własne systemy AI, żeby wzmocnić naszą efektywność. I już na wstępie rozważań na temat implementacji unijnego rozporządzenia pojawiła się podstawowa kwestia tj. czy systemy, nad którymi my pracujemy, aby usprawnić naszą własną pracę, są zgodne z AI Act? – zauważył Adamczewski i dodał: – Bardzo dobrą informacją jest to, że my jako Polska, też podjęliśmy starania w kierunku wyprodukowania własnych modeli językowych takich jak Bielik i PLLuM. Prawdopodobnie dadzą nam one większe możliwości wykorzystania ich w pracy agencji rządowej. 

Wspólne standardy między państwami członkowskimi ułatwią wykrywanie i ściganie naruszeń.  

AI Act tarczą ochronną dla Europejczyków 

Przyszłość sztucznej inteligencji w Europie zależy od decyzji, które podejmujemy już dziś. AI Act to dopiero pierwszy krok w kierunku jej odpowiedzialnego i bezpiecznego rozwoju. Kierunek został wytyczony. Teraz czas na konkretne działania. Takie, które sprawią, że technologia będzie wspierać ludzi, a nie im szkodzić.  

Panelistami webinaru byli:  

  • NASK: Filip Konopczyński, Emilia Zalewska-Czajczyńska i Piotr Słowiński 
  • Ministerstwo Cyfryzacji: Pamela Krzypkowska 
  • UOKiK: Piotr Adamczewski 
  • Eridani.AI: Barbara Rychalska  
  • Uniwiwersytet WSB Merito: Dota Szymborska 
Tematy powiązane
Udostępnij ten post

Wyróżnione aktualności

Zdjęcie z wydarzenia medialnego Impact. Na pierwszym planie widać ekran podglądu realizatorskiego, który pokazuje dwa kadry: po lewej stronie Radosław Nielek, dyrektor NASK, w brązowej marynarce i białej koszuli, po prawej stronie dziennikarka trzymająca mikrofon. W tle widoczni rozmyci uczestnicy rozmowy oraz kamery.
Typ_aktualnosc Aktualność
14 Maja 2025|3 min. czytania

Szeroki front małych systemów na Impact’25

Wbrew pozorom zapewnienie cyfrowego bezpieczeństwa w gminie jest trudniejsze niż w banku – mówił w dyskusji podczas Impact’25 Radosław Nielek, dyrektor NASK. W jednej gminie może znajdować się jednocześnie wiele różnych systemów informatycznych – wodociągów, szkół, placówek medycznych.

Piotr Bisialski z NASK na scenie podczas konferencji.
Typ_aktualnosc Aktualność
13 Maja 2025|7 min. czytania

NASK o krok przed cyberprzestępcami. Forum Bezpieczeństwa Banków 2025

Kradzież tożsamości, ataki na infrastrukturę i próby manipulacji danymi. Sektor finansowy jest na pierwszej linii frontu w walce z cyberprzestępcami. NASK – jako lider w dziedzinie cyberbezpieczeństwa - wychodzi naprzeciw tym wyzwaniom. – Udział w Forum Bezpieczeństwa Banków to dla nas okazja do poznania realnych potrzeb sektora bankowego i wdrożenia konkretnych działań – mówił Piotr Bisialski, kierownik zespołu NASK Incident Response Team.

Wiceminister cyfryzacji Dariusz Standerski przemawia podczas konferencji dotyczącej projektu HIVE AI. W tle na ekranie widoczne są slajdy prezentacji z tytułem „Cele, założenia i organizacja projektu”. Przy stole prezydialnym siedzą Radosław Nielek, Agnieszka Karlińska. W sali znajduje się licznie zgromadzona publiczność, a jedno z przemówień jest rejestrowane telefonem przez uczestnika.
Typ_aktualnosc Aktualność
12 Maja 2025|5 min. czytania

PLLuM rośnie w siłę

600 tysięcy promptów wpisanych w okienko PLLuMa i nowości, od których dzielą nas nie lata, a zaledwie tygodnie – kolejne modele i prototyp inteligentnego asystenta. W siedzibie NASK w Warszawie spotkali się wszyscy uczestnicy konsorcjum HIVE AI. Grupy, która ma za zadanie rozwijać i wdrażać polski model językowy (PLLuM).

MAK od NASK
Typ_aktualnosc Aktualność
12 Maja 2025|4 min. czytania

Rozkwitnij z MAK. Program Mentoringu Aktywnych Kobiet nabiera barw

Podnieś swoje kompetencje z zakresu cyberbezpieczeństwa i wejdź na rynek nowych technologii! Już kilkaset kobiet zgłosiło chęć udziału w programie MAK (Mentoring Aktywnych Kobiet), ogłoszonym przez NASK we współpracy z Ministerstwem Cyfryzacji. Zostań jedną z nich — zgłoś swój udział i rozwiń skrzydła w indywidualnym programie mentoringowym. Nabór trwa do końca maja.

Informacje

Najnowsze aktualności

Numer 116 123 na tle widowni na festiwalu.
Typ_aktualnosc Aktualność
29 Lipca 2025|6 min. czytania

116 123. Pomoc w zasięgu telefonu

Stres i wyczerpanie emocjonalne, depresja, trudności w relacjach z bliskimi – z takimi problemami mierzy się coraz więcej osób. W kryzysie wsparcia udzielają konsultanci poradni telefonicznej 116 123 i platformy 116sos.pl. W ciągu roku odebrali niemal 50 tys. telefonów i odpisali na ponad 30 tys. wiadomości na czacie. Przyznana rekordowa dotacja od Ministerstwa Cyfryzacji pozwoli NASK na jeszcze skuteczniejsze niesienie pomocy przez kolejny rok.

oszust wabi kobietę
Typ_aktualnosc Aktualność
24 Lipca 2025|4 min. czytania

Klikniesz serce, stracisz konto. Gdy uczucia stają się bronią

Randki online to dziś codzienność – wystarczy kilka kliknięć, by poznać kogoś z drugiego końca świata. Ale tam, gdzie łatwo o emocje, łatwo też o manipulację. Oszustwa typu romance scam stały się jednym z najczęstszych zagrożeń w internecie. I nie chodzi tu tylko o pieniądze. Ofiary często płacą znacznie więcej – złamanym sercem, wstydem, poczuciem winy.

nauczycielka na tle klasy z tabletam w ręku
Typ_aktualnosc Aktualność
23 Lipca 2025|4 min. czytania

Setki milionów na nowoczesny sprzęt w szkołach

Ponad sto tysięcy sal lekcyjnych w całym kraju zostanie wyposażonych w nowoczesny sprzęt do nauki zdalnej! Komisja przetargowa NASK otworzyła właśnie oferty w postępowaniu wartym ponad 120 milionów złotych.