Jak stereotypy osłabiają skuteczność sztucznej inteligencji i cyberbezpieczeństwa?

Stronniczość algorytmów może kosztować zdrowie, karierę, przyszłość wiele osób – przekonywała dr Karolina Kulicka z Biura Rozwoju Nauki NASK podczas niedawnego webinarium „Jak podnieść skuteczność SI i cyberbezpieczeństwa, eliminując błędy wynikające ze stereotypów?”.

Technologie działające w oparciu o sztuczną inteligencję są używane coraz powszechniej. Nie są jednak wolne od błędów. Dr Karolina Kulicka przytoczyła przykład urządzeń do pomiaru natlenienia krwi. Pulsoksymetry okazały się zawodne u osób o ciemniejszym kolorze skóry.  W ich przypadku pomiary nie były prawidłowe. Inny przykład dotyczył egzaminów adwokackich w Stanach Zjednoczonych, przeprowadzanych przez specjalne oprogramowanie, które z kolei stygmatyzowało osoby niepełnosprawne, niewłaściwie oceniając ich zachowanie i traktując ją jak próbę oszustwa. 

Stronniczość algorytmów może kosztować zdrowie, karierę, przyszłość wielu osóbmówiła Karolina Kulicka, zwracając uwagę, że np. algorytmy mediów społecznościowych mogą ograniczać pewnym grupom osób dostęp do ogłoszeń o pracę. Ogłoszenia dla mechaników i pilotów pokazywano w większości mężczyznom. Z kolei ogłoszenia dla nauczycieli w przedszkolu czy psychologów prezentowano ównie kobietom.  

Źródłem błędów wynikających ze stereotypów w projektach rozwoju sztucznej inteligencji mogą być m.in.: płeć, rasa, wiek. Dr Kulicka zwróciła uwagę, że błędy biorą się z częściowego lub całkowitego braku reprezentacji niektórych grup w bazie, np. w bazach zdjęciowych brakuje wizerunków osób powyżej 70. roku życia. Często w danych treningowych brakuje też zróżnicowania kulturowego i etnicznego. 

Błędy wynikają również z procesów uczenia maszynowego. Algorytmy wzmacniają stereotypy, opierając się na silniej reprezentowanych – choć od początku błędnych – przesłankach. Zdarzają się też błędy generowane w wyniku użycia technologii, kiedy algorytm „uczy się” stronniczości od użytkowników.  

Część błędów ma związek z internetem rzeczy i tzw. problemem podwójnego użycia, kiedy produkty w nieodpowiednich rękach mogą zostać wykorzystane niewłaściwie. Okazuje się, że nowe technologie mogą wzmacniać stosowanie przemocy domowej. Np. kiedy ktoś śledzi swoją partnerkę za pośrednictwem aplikacji połączonej z samochodem - wykorzystuje technologię do monitorowania swojej ofiary, w rezultacie zastrasza ją. 

Co jest istotne, żeby ograniczać takie błędy? 

  1. Budowanie bardziej różnorodnych zespołów zajmujących się AI, dających szerszą perspektywę; 

  1. Edukacja pracowników branży AI, uważne podejście do stosowanych zbiorów treningowych; 

  1. Precyzja w opisywaniu materiałów i doborze atrybutów, czyli danych; 

  1. Podejście zwinne do rozwoju technologii (kładące nacisk na elastyczność, szybkość i ciągłą adaptację do zmieniających się warunków): pilotaże, testy; 

  1. Podnoszenie jakości danych treningowych: dywersyfikacja, usuwanie wrażliwych atrybutów (płeć, rasa); 

  1. Testy na różnorodnych populacjach, regularna reewaluacja modelu. 

Ekspertka podkreśla, że usuwanie wpływu stereotypów na dane w uczeniu maszynowym, biometrii oraz cyberbezpieczeństwie leży w naszym wspólnym interesie. Zwłaszcza że, jak powiedział John Giannandrea, szef pionu sztucznej inteligencji w Google, To nie roboty przejmujące kontrolę nad światem, ale stereotypy i uprzedzenia są prawdziwym zagrożeniem dla rozwoju sztucznej inteligencji”. 

Karolina Kulicka ukończyła studia doktorskie na Uniwersytecie Stanowym Nowy Jork w Buffalo. Zajmowała stanowiska doradcze i managerskie w Polsce, Niemczech, Belgii oraz USA.  Reprezentowała Polskę w instytucjach Unii Europejskiej oraz ONZ. Łączy doświadczenie w sektorze prywatnym, publicznym (m.in. Ministerstwo Finansów, Narodowe Centrum Badań i Rozwoju) oraz naukowym. Certyfikowana kierowniczka projektów (Scrum, PRINCE2, ITIL, MSP, P30). Ma na swoim koncie kilkadziesiąt wdrożonych projektów edukacyjnych, informatycznych, ERP, HR oraz z zakresu transformacji organizacji.  Oprócz pracy dla NASK aktywnie publikuje i pracuje naukowo, wyniki jej prac naukowych zdobyły nagrody w kraju i za granicą, m.in.: International Peace Scholarship, Social Impact Fellowship, UB Humanities Institute Fellowship, Outstanding Article Award in Administrative Theory and Praxis.