Powstał Ośrodek Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK
Sztuczna inteligencja staje się częścią naszej codzienności, a to niesie za sobą zarówno korzyści, jak i wyzwania. W odpowiedzi na rosnące potrzeby zapewnienia bezpieczeństwa i przejrzystości w rozwoju AI, w NASK powstał Ośrodek Badań nad Bezpieczeństwem Sztucznej Inteligencji.


Na czele Ośrodka, który powstał w wyniku przekształcenia Pionu Sztucznej Inteligencji, stanął dr hab. inż. Szymon Łukasik, prof. AGH z Wydziału Fizyki i Informatyki Stosowanej. Zmiana jest podyktowana potrzebą skupienia się konkretnych zagadnieniach związanych z rozwojem AI.
Główne zadania jakie stoją przed nami to rozwój i wprowadzanie nowych technologii sztucznej inteligencji. Ze szczególną uwagą będziemy skupiać się na uwzględnieniu metod bezpiecznych, transparentnych i wyjaśnialnych w kluczowych obszarach, takich jak administracja publiczna, bezpieczeństwo sieci oraz ochrona cyberprzestrzeni. Ośrodek ma również za zadanie edukować i wspierać społeczeństwo w świadomym korzystaniu z nowoczesnych technologii AI – mówi Szymon Łukasik, dyrektor Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK.
Sztuczna inteligencja na tapet
Naukowcy z nowego Ośrodka skupiają się na prowadzeniu innowacyjnych badań w obszarze AI, z naciskiem na cyberbezpieczeństwo, które jest dla NASK kluczowe. To droga, która będzie prowadzić do odpowiedzialnego zastosowania technologii sztucznej inteligencji w administracji, czy bezpieczeństwie sieci.
W strukturze Ośrodka znajduje się szereg specjalistycznych zakładów badawczych, w tym:
- Zakład Analiz Audiowizualnych i Systemów Biometrycznych, który prowadzi badania nad biometryczną weryfikacją tożsamości oraz przetwarzaniem informacji z wykorzystaniem uczenia głębokiego.
- Zakład Inżynierii Lingwistycznej i Analizy Tekstu, zajmujący się przetwarzaniem języka naturalnego i analizą tekstu, w tym wykrywaniem nielegalnych lub wrażliwych treści.
- Zakład Nauki o Danych, który rozwija metody analizy dużych zbiorów danych, w tym związanych z cyberbezpieczeństwem oraz zwalczaniem dezinformacji.
- Zakład Zastosowań Sztucznej Inteligencji w Medycynie i Analizie Danych Wrażliwych, którego celem jest rozwój systemów AI wspomagających diagnostykę i analizę danych medycznych.
- Niebawem prace rozpocznie także Zakład Bezpieczeństwa i Przejrzystości Sztucznej Inteligencji, który będzie koncentrował się na badaniach nad bezpieczeństwem i wyjaśnialnością modeli AI, a także wspiera krajowe i międzynarodowe inicjatywy w tym zakresie. Obecnie trwa budowa zespołu.
NASK liderem i partnerem w rozwoju AI
Naukowcy z NASK wiedzą jak cenna jest współpraca, wymiana wiedzy i doświadczeń. Dlatego Ośrodek Badań nad Bezpieczeństwem Sztucznej Inteligencji będzie stwarzał możliwości realizacji ambitnych projektów badawczych i współpracował z innymi instytucjami naukowymi i badawczo-rozwojowymi, takimi jak np. Akademia Górniczo-Hutnicza w Krakowie, Politechnika Warszawska czy Instytut IDEAS. Ośrodek będzie też zaangażowany w popularyzację wiedzy na temat sztucznej inteligencji, prowadząc liczne inicjatywy edukacyjne i społeczne.
NASK-PIB to instytucja, której misją jest rozwój i bezpieczeństwo sieci teleinformatycznych w Polsce. Instytut odgrywa kluczową rolę w kształtowaniu polityk związanych z bezpieczeństwem cyfrowym i rozwojem społeczeństwa informacyjnego. Ośrodek Badań nad Bezpieczeństwem Sztucznej Inteligencji stanowi integralną część tych działań, odpowiadając na współczesne wyzwania związane z rosnącą obecnością technologii AI w życiu codziennym.
Rozwój sztucznej inteligencji to nie tylko postęp technologiczny, ale także ogromna odpowiedzialność. Ośrodek Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK jest odpowiedzią na kluczowe wyzwania naszych czasów związane z rozwojem AI. Naszą misją jest nie tylko tworzenie innowacyjnych technologii, ale także zapewnienie, że będą one bezpieczne, przejrzyste i zrozumiałe dla wszystkich. Chcemy wspierać świadome i odpowiedzialne korzystanie z potencjału sztucznej inteligencji
– zaznacza Radosław Nielek, dyrektor NASK
Rola NASK w cyberbezpiecznym AI
NASK podejmuje szereg inicjatyw, które zapewniają bezpieczeństwo i ochronę internetu i jego użytkowników przed różnymi cyberzagrożeniami. Prowadzi projekty dotyczące bezpieczeństwa AI. Instytut bierze udział w rozwijaniu – w ramach konsorcjum skupiającym kilka uczelni i instytutów badawczych – Polskiego Dużego Modelu Językowego (PLLuM), odpowiadając głównie za aspekty bezpieczeństwa tworzonych modeli. Czerpiąc z własnego know-how w zakresie wykrywania szkodliwych treści NASK prowadzi także prace nad analizą i detekcją materiałów syntetycznych generowanych z użyciem technik sztucznej inteligencji (tzw. deep fake). Analitycy Instytutu skupiają się w tym obszarze na perspektywie wielomodalnej (tj. równoczesnej analizie dźwięku, wideo i tekstu). Poza pracami badawczymi NASK dba o rozwój młodych talentów – staramy się być przyjaznym miejscem dla doktorantów, początkujących naukowców i inżynierów, którzy stawiają pierwsze kroki w dziedzinie sztucznej inteligencji i AI Safety.
Wyróżnione aktualności
Razem dla bezpieczeństwa sieci 5G – warsztaty 5G TACTIC w NASK
5G ma napędzać transport, przemysł, administrację, a za chwilę – rzeczy, których jeszcze nawet nie nazywamy. Problem w tym, że im więcej od tej technologii zależy, tym mniej miejsca zostaje na pomyłki.
Transgraniczna autostrada danych. Ruszył projekt QKD Germany‑Poland‑Czechia
Czy istnieje rozmowa, której nie da się podsłuchać albo informacje, których nie da się przechwycić? W niedalekiej przyszłości powstanie pierwsza tak rozbudowana sieć kwantowa w Europie Środkowej, która wykorzysta technologię generowania i dystrybucji kluczy kryptograficznych. To oznacza bezpieczne przesyłanie informacji międzynarodowych. NASK jest partnerem tej inicjatywy.
Moc obliczeniowa dla polskiej AI. Pierwszy superkomputer NASK wystartował
NASK uruchomił nowy klaster do obliczeń AI. Wart 30 milionów złotych projekt to inwestycja w zdolność prowadzenia badań, tworzenia własnych narzędzi i rozwijania technologii, które odpowiadają na konkretne potrzeby państwa i obywateli.
Cyberbezpiecznie od 30 lat. CERT Polska
Od 12 incydentów w 1996 roku, po przeszło 260 tysięcy w ubiegłym. Te liczby najlepiej pokazują, jak diametralnie zmieniła się skala cyberataków oraz rola CERT Polska w podnoszeniu świadomości o cyberbezpieczeństwie. Pierwszy w Polsce zespół reagowania na zagrożenia w sieci, który powstał w NASK, obchodzi właśnie 30 urodziny.
Najnowsze aktualności
Szybki zarobek czy sprytna manipulacja? Gdy oferta pracy okazuje się oszustwem
Praca zdalna stała się marzeniem wielu z nas. Elastyczne godziny, brak dojazdów, możliwość dorobienia po godzinach. Nic więc dziwnego, że ogłoszenia obiecujące kilka tysięcy złotych dziennie za „proste zadania w internecie” kuszą coraz więcej osób. Problem w tym, że za częścią z nich nie stoi żadna firma, a cyberoszuści, którzy wykorzystują takie oferty do wyłudzania pieniędzy i danych osobowych.
Technologia sama nas nie obroni. SECURE 2026
Ludzie atakują. Ludzie bronią. Ludzie popełniają błędy. To wreszcie ludzie odzyskują to, co przejęli hakerzy. Technologia jest tylko narzędziem. Właśnie o tym był SECURE 2026 – najstarsza w Polsce konferencja o cyberbezpieczeństwie. Ponad 600 uczestników i przeszło 30 prelegentów, dyskutowało na blisko 20 tematów. Wszystko, by wysnuć jeden wniosek: cyberbezpieczeństwo zaczyna się i kończy na człowieku.
Prawie 2 tys. zgłoszeń każdego dnia. Raport CERT Polska za 2025 rok
Aż o 152 proc. wzrosła rok do roku liczba zarejestrowanych incydentów cyberbezpieczeństwa. To trend, od którego nie ma już odwrotu – wraz z rozwojem technologii rośnie skala cyberataków. Jest też druga strona medalu – internauci są coraz bardziej świadomi zagrożeń, które czyhają na nich w sieci. To wnioski płynące z „Raportu rocznego z działalności zespołu CERT Polska w 2025 roku”. Swoją premierę miał podczas konferencji SECURE 2026.







