18 krajów podpisało porozumienie w kwestii bezpiecznego rozwoju sztucznej inteligencji. Wśród nich Polska

18 krajów podpisało porozumienie w kwestii bezpiecznego rozwoju sztucznej inteligencji. Dokument o nazwie „Wytyczne w sprawie bezpiecznego rozwoju sztucznej inteligencji” opracowany został pod przewodnictwem Wielkiej Brytanii. Ze strony polskiej w przyjęcie tego dokumentu zaangażowały się Ministerstwo Cyfryzacji oraz Państwowy Instytut Badawczy NASK.

„Wytyczne w sprawie bezpiecznego rozwoju sztucznej inteligencji” (ang. Guidelines for secure AI system development) opracowane zostały przez brytyjskie Krajowe Centrum Cyberbezpieczeństwa (NCSC UK), we współpracy z amerykańską Agencją ds. Cyberbezpieczeństwa i Bezpieczeństwa Infrastruktury (CISA) oraz 21 innymi agencjami, instytucjami i ministerstwami z całego świata – w tym z polskim Ministerstwem Cyfryzacji oraz Państwowym Instytutem Badawczym NASK. Dokument został podpisany przez przedstawicieli agencji z 18 państw w poniedziałek, 29.11.2023 r. Polskę reprezentował Krzysztof Silicki, dyrektor ds. strategicznego rozwoju cyberbezpieczeństwa w NASK.

Dokument przedstawiający wytyczne to pokłosie szczytu „AI Safety Summit”, który odbył się w Bletchey Park w Wielkiej Brytanii na początku listopada, na którym została przyjęta wspólna deklaracja dotycząca bezpieczeństwa rozwoju sztucznej inteligencji – wyjaśnił Krzysztof Silicki – NCSC UK, wspólnie z partnerami z Polski i innych krajów, w krótkim czasie opracowało poradnik, który w przystępny sposób pokazuje, jak zapewnić cyberbezpieczeństwo systemów sztucznej inteligencji w całym ich cyklu życia: od fazy projektowania, poprzez wdrożenie, po eksploatację. Uznajemy to za ważne działanie, dlatego NASK-PIB, zgodnie ze swa misją, jest zaangażowany w tworzenie dobrych warunków dla bezpieczeństwa rozwoju przełomowych technologii, w szczególności sztucznej inteligencji.

Pełna lista sygnatariuszy:

  • Australia – Australian Cyber Security Centre (ACSC)
  • Chile – CSIRT rządowy
  • Czechy – Národní úřad pro kybernetickou a informační bezpečnost (NUKIB)
  • Estonia – Riigi Infosüsteemi Amet (RIA) oraz National Cyber Security Centre (NCSC-EE)
  • Francja – Agence nationale de la sécurité des systèmes d'information (ANSSI)
  • Izrael – Israel National Cyber Directorate (INCD)
  • Japonia – National Center of Incident Readiness and Strategy for Cybersecurity (NISC)
  • Kanada – Canadian Centre for Cyber Security (CCCS)
  • Korea Południowa – National Intelligence Service (NIS)
  • Niemcy – Bundesamt für Sicherheit in der Informationstechnik (BSI)
  • Nigeria – National Information Technology Development Agency (NITDA)
  • Norwegia – National Cyber Security Centre (NCSC-NO)
  • Nowa Zelandia – National Cyber Security Centre (NCSC-NZ)
  • Polska  –  Ministerstwo Cyfryzacji oraz Państwowy Instytut Badawczy NASK
  • Singapur – Cyber Security Agency of Singapore (CSA)
  • Stany Zjednoczone – Cybersecurity and Infrastructure Agency (CISA), National Security Agency (NSA), Federal Bureau of Investigations (FBI)
  • Wielka Brytania – National Cyber Security Centre (NCSC)
  • Włochy – Autorità nazionale per la cybersicurezza (ACN)

Wytyczne na rzecz bezpiecznego rozwoju AI

W podpisanym dokumencie zawarte są wytyczne dla twórców i dostawców wszelkiego typu rozwiązań wykorzystujących sztuczną inteligencję (AI) – niezależnie od tego, czy zostały one stworzone od podstaw, czy też opracowano je, bazując na narzędziach i usługach dostarczanych przez inne podmioty. Wdrożenie przekazanych wytycznych ma pomóc dostawcom budować systemy informacyjne bazujące na sztucznej inteligencji, które będą działać zgodnie z założonymi celami, będą dostępne, odporne na zagrożenia w cyberprzestrzeni i będą działać bez ujawniania wrażliwych danych osobom nieupoważnionym.

Sygnatariusze dokumentu wezwali wszystkie zainteresowane strony, w tym naukowców, programistów, menedżerów i decydentów, do zapoznania się z przedstawionymi wytycznymi, które mogą pomóc w podejmowaniu świadomych decyzji dotyczących projektowania, rozwoju, wdrażania i działania systemów sztucznej inteligencji.

Pełna treść przyjętego dokumentu dostępna jest  pod tym linkiem.