Polsko-koreańska współpraca nad bezpieczeństwem AI
NASK zyskuje prestiżowego partnera w pracach nad bezpieczną sztuczną inteligencją. Współpraca z Koreańskim Instytutem Badań nad Bezpieczeństwem Sztucznej Inteligencji (AISI Korea AI Safety Institute) działającym w strukturach Instytutu Badawczego Elektroniki i Telekomunikacji (ETRI) obejmie realizację wspólnych badań, seminariów, programów szkoleniowych dla inżynierów oraz transfer technologii.


[English below]
Technologia AI rozwija się w niezwykle dynamicznym tempie, dlatego międzynarodowa współpraca ekspertów jest kluczowa, aby zapewnić jej odpowiedzialne i bezpieczne wdrażanie.
– Współpraca między Koreańskim Instytutem Badań nad Bezpieczeństwem Sztucznej Inteligencji w ETRI a Ośrodkiem Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK wzmacnia nie tylko nasze wspólne zaangażowanie w bezpieczną i godną zaufania sztuczną inteligencję, ale także szersze fundamenty współpracy gospodarczej, strategicznego partnerstwa obronnego oraz rozwijających się więzi kulturalnych i naukowych między Koreą a Polską – mówi Radosław Nielek, dyrektor NASK. – Memorandum uznaje znaczenie prowadzenia badań nad bezpieczeństwem AI w naszych lokalnych językach i kontekstach, odzwierciedlając praktyczne doświadczenie, jakie obie instytucje wnoszą. Podchodzimy do tej współpracy z otwartością i wyraźną gotowością do wymiany pomysłów, aby wspierać rozwój bezpieczniejszej i bardziej niezawodnej sztucznej inteligencji.
Memorandum daje możliwość realizacji ambitnych projektów, które będą kształtować standardy bezpieczeństwa AI w Polsce i na świecie. To początek współpracy, która może zmienić sposób, w jaki myślimy o odpowiedzialnym rozwoju technologii.
– Sztuczna inteligencja kształtuje nowy globalny ekosystem. W tej perspektywie fakt, że Polska i Korea mogą rozpocząć współpracę, jest zarówno znaczący, jak i wzajemnie korzystny. Istnieje afrykańskie przysłowie, które mówi: „Jeśli chcesz iść szybko – idź sam; jeśli chcesz zajść daleko – idź razem z innymi”. Wierzę, że to przysłowie trafnie opisuje nasz obecny moment. Szczerze mam nadzieję, że Polska i Korea razem zajdą daleko – mówi Myuhng‑Joo Kim, dyrektor Korea AISI. – Polska, jako wiodące państwo członkowskie Unii Europejskiej, jest krajem, od którego Korea może się wiele nauczyć i którego liczne atuty głęboko podziwiamy. Polska to państwo o silnych kompetencjach w zakresie cyberbezpieczeństwa. Mam nadzieję, że wraz z podpisaniem Memorandum rzeczywista i praktyczna współpraca pomiędzy Koreańskim Instytutem Badań nad Bezpieczeństwem Sztucznej Inteligencji a NASK naprawdę się rozpocznie. Liczę, że dzięki temu partnerstwu zobaczymy znaczące postępy w realizacji wspólnych celów: zapewnienia bezpiecznej sztucznej inteligencji oraz budowy zrównoważonego ekosystemu AI dla obu krajów. Jestem naprawdę szczęśliwy, że zyskujemy tak wartościowego partnera.
W obliczu dynamicznego rozwoju
Polsko-koreańskie porozumienie to ogromna szansa na międzykontynentalną wymianę wiedzy i doświadczenia. Współpraca z Koreańskim Instytutem Bezpieczeństwa Sztucznej Inteligencji w ETRI umożliwi wspólne badania nad tym, jak sprawdzać bezpieczeństwo systemów AI i tworzyć wspólne standardy porównawcze, a także projektować zabezpieczenia dopasowane do lokalnych potrzeb. To także możliwość wymiany wiedzy eksperckiej i doświadczeń w zakresie wdrażania prawa – w tym implementacji europejskiego AI Act – oraz tworzenia piaskownic regulacyjnych i systemów certyfikacji.
Wymiana informacji i organizacja wspólnych seminariów to jedno, ale na mocy Memorandum będzie też możliwa realizacja wspólnych projektów badawczo-rozwojowych, które pozwolą na transfer technologii i rozwój innowacyjnych rozwiązań. Pierwsze spotkanie koreańskich ekspertów z polskimi już się odbyło i dotyczyło badań nad deepfake’ami. NASK reprezentowały Ewelina Bartuzi-Trokielewicz, która kieruje w NASK Działem Analizy Audiowizualnej i Systemów Biometrycznych oraz członkini jej zespołu Alicja Martinek. Naukowczynie odwiedziły Koreański Instytut Bezpieczeństwa Sztucznej Inteligencji podczas konferencji ACM CIKM 2025.
ETRI i bezpieczeństwo AI
ETRI, założony w 1976 roku, jest kluczowym koreańskim instytutem badawczym w obszarze ICT, w tym sztucznej inteligencji. Instytut wnosi wkład w rozwój gospodarczy i społeczny kraju poprzez badania, rozwój oraz upowszechnianie kluczowych technologii przemysłowych w dziedzinie informatyki, telekomunikacji, elektroniki, nadawania i technologii konwergencyjnych. Działa na rzecz technologii konwergencyjnych, promując wzrost poprzez projekty takie jak standardy bezpieczeństwa AI i autonomiczne systemy jazdy.
Z kolei, działający w ramach ETRI, Koreański Instytut Bezpieczeństwa Sztucznej Inteligencji (Korea AISI) to powołana w listopadzie 2024 organizacja poświęcona ocenie ryzyk związanych z modelami lub systemami AI oraz badaniom technologii zapobiegających i łagodzących te ryzyka. Korea AISI dąży do tworzenia środowiska sprzyjającego rozwojowi i zastosowaniu bezpiecznej AI, wzmacniając konkurencyjność koreańskich firm AI na rynkach globalnych, jednocześnie umacniając międzynarodową solidarność i standardy bezpieczeństwa AI.
Misja NASK
NASK to kluczowa polska instytucja odpowiedzialna za rozwój i bezpieczeństwo infrastruktury teleinformatycznej. W 2024 roku NASK powołał Ośrodek Badań nad Bezpieczeństwem Sztucznej Inteligencji, który skupia się na analizie ryzyk AI, w tym związanych ze stosowaniem dużych modeli językowych, i zagrożeniami płynącymi ze szkodliwych treści syntetycznych i deepfake’ów. Naukowcy z OBnBSI zajmują się też tworzeniem, rozwijaniem i wdrażaniem rodziny polskich modeli językowych PLLuM.
Za sprawą działań Ośrodka w NASK Polska umacnia swoją pozycję w międzynarodowej debacie o bezpieczeństwie AI, stając się aktywnym uczestnikiem globalnego ekosystemu odpowiedzialnej sztucznej inteligencji.
Polish-Korean Cooperation on AI Safety
NASK gains a prestigious partner in its work on safe artificial intelligence. The collaboration with the Korea AI Safety Institute, operating within the structures of the Electronics and Telecommunications Research Institute (ETRI), will include joint research, seminars, training programs for engineers, and technology transfer.
AI technology is developing at an extremely dynamic pace, so international cooperation of experts is crucial to ensure its responsible and safe implementation.
“The cooperation between the Korea AI Safety Institute at ETRI and the AI Safety Research Center at NASK strengthens our joint commitment to safe and trustworthy artificial intelligence. It also contributes to building the broader foundations of economic cooperation, strategic defense partnership, and the development of cultural and scientific ties between Korea and Poland,” says Radosław Nielek, Director of NASK. “The Memorandum recognizes the importance of conducting research on AI security in our local languages and contexts, reflecting the practical experience that both institutions bring. We approach this collaboration with openness and a clear willingness to exchange ideas to support the development of safer and more reliable AI.
The Memorandum provides an opportunity to implement ambitious projects that will shape AI security standards in Poland and around the world. This is the beginning of a collaboration that can change the way we think about responsible technology development.
“AI has already begun to shape a global AI ecosystem. In this sense, the fact that Poland and Korea are now able to embark on a collaboration is both meaningful and mutually beneficial. There is an African proverb that says, ‘If you want to go fast, go alone; if you want to go far, go together.’ I believe this proverb aptly describes our current moment. I sincerely hope that Poland and Korea will go far together. Poland, as a leading member state of the European Union, is a country from which Korea has much to learn and whose many strengths we deeply admire. We also recognize Poland as a nation with strong expertise in cyber security. With the signing of this Memorandum of Understanding, I hope that substantive and practical cooperation between the Korea AI Safety Institute and Poland’s NASK will truly begin. Through this partnership, I look forward to seeing meaningful progress toward the shared goals of ensuring safe AI and building a sustainable AI ecosystem for both countries. I am truly delighted to have met such a valuable partner and friend,” says Myuhng-Joo Kim, Director of Korea AISI.
In the face of dynamic development
The Polish-Korean agreement is a great opportunity for an intercontinental exchange of knowledge and experience. Collaboration with the AISI Korea AI Safety Institute at ETRI will enable collaborative research on how to check the safety of AI systems and create standard benchmarks, as well as design security tailored to local needs. It is also an opportunity to exchange expert knowledge and experience in the field of law implementation – including the implementation of the European AI Act – and the creation of regulatory sandboxes and certification schemes.
Exchanging information and organising joint seminars is one thing, but the Memorandum will also allow for joint research and development projects that will allow for technology transfer and the development of innovative solutions. The first meeting between Korean experts and Polish experts has already taken place and concerned research on deepfakes. NASK was represented by Ewelina Bartuzi-Trokielewicz, who heads the Audiovisual Analysis and Biometric Systems Department at NASK, and Alicja Martinek, a member of her team. The scientists visited the Korea AI Safety Institute during the ACM CIKM 2025 conference.
ETRI and AI safety
ETRI, founded in 1976, is a key Korean research institute in the field of ICT, including artificial intelligence. The Institute contributes to the economic and social development of the country through research, development and dissemination of key industrial technologies in the fields of informatics, telecommunications, electronics, broadcasting and convergent technologies. It works for convergent technologies, promoting growth through projects such as AI safety standards and autonomous driving systems.
In turn, the Korea AI Safety Institute (Korea AISI), which operates within ETRI, is an organization established in November 2024 dedicated to assessing risks associated with AI models or systems and researching technologies to prevent and mitigate these risks. Korea AISI strives to create an environment conducive to the development and application of safe AI, strengthening the competitiveness of Korean AI companies in global markets while strengthening international solidarity and AI safety standards.
NASK’s mission
NASK is a key Polish institution responsible for the development and safety of ICT infrastructure. The Institute manages the .pl domain registry, coordinates the NASK CSIRT team for responding to cybersecurity incidents and conducts research on digital protection, including AI and deepfakes, as well as creates technological solutions that are used by both public institutions, private companies and citizens. NASK’s activities also include education in the field of digital security and technology awareness.
In 2024, NASK established the AI Safety Research Center, which focuses on the analysis of AI risks, including those related to the use of large language models, and the risks posed by harmful synthetic content and deepfakes. Scientists from are also involved in creating, developing and implementing a family of Polish language models PLLuM.
Thanks to the Centre’s activities at NASK, Poland strengthens its position in the international debate on AI safety, becoming an active participant in the global ecosystem of responsible AI.
Wyróżnione aktualności
NASK rozwinie komunikację kwantową z europejskimi satelitami
Międzynarodowe konsorcjum pod przewodnictwem NASK zbuduje optyczną stację naziemną umożliwiającą kwantowe ustalanie klucza (QKD) z europejskimi satelitami. Projekt PIONIER-Q-SAT umożliwi łączność m.in. z satelitą Eagle-1 i połączy Polskę z innymi krajami biorącymi udział w programie EuroQCI Komisji Europejskiej.
Od lajków do lęków – zaburzenia odżywiania w erze scrollowania
Zaburzenia psychiczne związane z jedzeniem i zniekształcony obraz ciała coraz częściej zaczynają się od ekranu telefonu. Problem ten wpisuje się szerzej w kryzys zdrowia psychicznego zanurzonych w środowisku cyfrowym młodych ludzi. Nastolatki patrzą na idealny świat w mediach społecznościowych, a siebie widzą w krzywym zwierciadle.
Okazja czy pułapka? Kupuj bezpiecznie online
Black Friday i Cyber Monday wyewoluowały w całe tygodnie kuszące okazjami i promocjami, a gorączka świątecznych zakupów już się rozpoczęła. Wiedzą o tym nie tylko klienci, ale i cyberprzestępcy. By się przed nimi ustrzec, warto zajrzeć do najnowszej publikacji NASK o bezpiecznych zakupach online.
Wolność w sieci czy era regulacji?
Co zmieni się w internecie po wdrożeniu unijnych regulacji DSA? Jak nowe prawo może wpłynąć na nasze bezpieczeństwo, ochronę dzieci i wizerunku, a także przyszłość cyfrowej komunikacji? Odpowiedzi na te pytania padły podczas debaty Strefy Dialogu Jutra Human Answer Institute w Polskiej Agencji Prasowej.
Najnowsze aktualności
Oświadczenie NASK
W związku z informacjami dotyczącymi NASK publikowanymi w przestrzeni publicznej, informujemy.
PLLuM ułatwi życie (m)obywatelom
Jak złożyć wniosek o paszport? Jak zastrzec numer PESEL? Jak zgłosić sprzedaż samochodu? Już od 31 grudnia na te pytania w aplikacji mObywatel odpowie model językowy PLLuM – wirtualny asystent, który ułatwi korzystanie z usług publicznych. Rozwiązanie opracowane z udziałem NASK krok po kroku prowadzi użytkowników do właściwych usług i dokumentów.
Cyfrowy reset na nowy rok
Po listopadowym ogromnym wycieku danych, południowokoreański gigant e-commerce wypłaci rekompensaty dziesiątkom milionów użytkowników. To mocny sygnał ostrzegawczy, że konta zakładane lata temu, nieużywane aplikacje czy stare urządzenia wciąż przechowują nasze prywatne informacje. Skoro koniec roku skłania do porządków i noworocznych postanowień – warto zajrzeć nie tylko do szafy, ale też na pulpit i do smartfona.






