
Ekspert /-tka ds. sztucznej inteligencji
16 000 - 20 000 PLN brutto miesięcznie + 20% premii wypłacanej kwartalnie
- Warszawa
- umowa o pracę
- pełen etat
- senior
- praca hybrydowa
Do Zakładu Bezpieczeństwa i Przejrzystości Sztucznej Inteligencji poszukujemy osoby z doświadczeniem w uczeniu maszynowym, która będzie pracować nad bezpieczeństwem modeli AI. W ramach nowo tworzonego Centrum Cyberbezpieczeństwa NASK (CCN) powstaje Laboratorium Bezpieczeństwa AI. Dołączysz do naszego zespołu, którego głównym celem jest badanie szeroko pojętego bezpieczeństwa modeli AI oraz rozwój metod szukających podatności modeli generatywnych (Red Teaming).
Zespół koncentruje się na przeciwdziałaniu zagrożeniom związanym z generatywną AI, w tym ograniczaniu halucynacji modeli i poprawie przejrzystości ich działania. Pracujemy nad rozwiązaniami, które mają realny wpływ na bezpieczeństwo cyfrowe, a jednocześnie dbamy o to, by nasze wyniki były publikowane na wiodących konferencjach naukowych. To wyjątkowa okazja, aby połączyć prace badawcze z praktycznym zastosowaniem. W zależności od Twoich zainteresowań, rola może być bardziej ukierunkowana na badania lub na transfer technologii.
Zadania:
- Badanie bezpieczeństwa systemów AI/ML w kontekście cech wpływających na zaufanie (odporność, wiarygodność, transparentność, audytowalność, wyjaśnialność, ochrona danych)
- Rozwój metod atakujących modele AI (Red Teaming)
- Tworzenie i publikacja wyników badań na wiodących konferencjach oraz ich prezentacja
- Współtworzenie strategii i wizji zespołu
- Samodzielne prowadzenie badań i eksperymentów
- Identyfikacja realnych potrzeb rynkowych w obszarze ewaluacji modeli AI
- Współpraca z zespołami badawczymi w kraju i za granicą
Nasze oczekiwania:
- Minimum 5 lat doświadczenia w obszarze uczenia maszynowego (projekty badawcze lub komercyjne)
- Wykształcenie wyższe (informatyka, matematyka, fizyka lub kierunki pokrewne)
- Znajomość i zainteresowanie tematyką bezpieczeństwa systemów AI, w tym: zbieżność modeli z zamierzonymi celami, ograniczanie halucynacji, metody szacowania niepewności, ataki na modele (w tym adwersarialne) oraz metody obrony, a także wyjaśnialność modeli
- Bardzo dobra znajomość algorytmów uczenia maszynowego, szczególnie w kontekście modeli generatywnych
- Zaawansowana znajomość języka Python oraz bibliotek ML (TensorFlow / PyTorch) i doświadczenie w pracy z dużymi modelami
- Znajomość języka angielskiego na poziomie umożliwiającym czytanie dokumentacji technicznej i publikacji naukowych
Mile widziane:
- Stopień doktora lub równoważne doświadczenie w obszarze sztucznej inteligencji
- Publikacje w renomowanych konferencjach rangi CORE A/A* (np. NeurIPS, ICML, ICLR, ACL, EACL)
- Doświadczenie w tematyce związanej z bezpieczeństwem systemów AI
Oferujemy:
- Współpracę naukową z najlepszymi ośrodkami badawczymi na świecie
- Współpracę w wielu ambitnych projektach badawczych
- Możliwość rozwoju naukowego
- Komfortowe warunki pracy naukowej (nowoczesna przestrzeń biurowa) w trybie hybrydowym
Prosimy o wysłanie CV wraz z listem motywacyjnym.
Zapewniamy dobre warunki pracy
O właściwych ludzi trzeba odpowiednio dbać. Dlatego oferujemy cały szereg dodatkowych korzyści. Od szkoleń i kursów zawodowych, poprzez zajęcia z jogi i owocowe czwartki, po dofinansowaną kartę Multisport albo zwrot za bilety do kina czy teatru. To wszystko jest jednak dodatkiem do tego, że po prostu dobrze się z nami pracuje.
Zaczynamy między 7 a 10 rano.
Dbamy o zachowanie zdrowego podejścia do obowiązków służbowych.
Daje możliwość podnoszenia swoich kompetencji.
Działamy na pograniczu nauki, cyberbezpieczeństwa i nowych technologii.
Każdy pracownik ma możliwość korzystania z prywatnej opieki medycznej
Zachęcamy do aktywności sportowej lub uzyskania zwrotu za wydatki poniesione na kulturę.
Zwracamy część kosztów związanych z urlopem (tzw. wakacje pod gruszą).
Dajemy możliwość zawarcia dodatkowego ubezpieczenia na życie.