Przy zgłaszaniu CSAM liczy się czas. Denton Howard na SECURE 2024: Każda sekunda w sieci to większe cierpienie dziecka

88 proc. treści przedstawiających seksualne wykorzystanie dzieci w 2023 r. to były zupełnie nowe materiały. Znaczy to, że były nowe ofiary. - Nie uda się całkowicie pozbyć takich materiałów z sieci, ale poprzez międzynarodową współpracę i rozwiązania technologiczne możemy skutecznie usuwać je i zmniejszać cierpienie ofiar – przekonywał Denton Howard, dyrektor stowarzyszenia INHOPE, na konferencji SECURE nt. cyberbezpieczeństwa, organizowanej przez NASK.

INHOPE od wielu lat działa na rzecz usuwania z sieci treści przedstawiających seksualne wykorzystywanie dzieci, zrzeszając narodowe zespoły reagowania - hotline. Jego działania wspiera Interpol, Europol, Virtual Task Force, European Financial Coalition, INSAFE, ECPAT oraz globalne firmy sektora informatycznego. W Polsce do INHOPE należy Dyżurnet.pl, jeden z zespołów NASK. To tam należy zgłaszać treści CSAM (ang. child sexual abuse material).

Podczas wystąpienia „CSAM – a global problem needs a global solution” (w środę 17 kwietnia) Denton Howard mówił, że treści CSAM to sprawa nie tylko lokalna czy państwowa, ale globalna. Dlatego INHOPE zrzesza 54 hotline’y w 50 krajach, w których pracuje 240 analityków treści. Do hotline’ów można anonimowo zgłaszać podejrzenia nielegalnych treści, które potem są analizowane i usuwane z internetu. Howard zwracał uwagę, że w tym procesie kluczowy jest czas.

– Chcemy, by działo się to tak szybko, jak to możliwe – powiedział. - Liczy się każda sekunda, bo im dłużej materiał widnieje w sieci, tym więcej razy może zostać powielony i szerzej rozpowszechniony. Za każdym razem cierpienie dziecka się powiększa.

W poprzednich latach było wiele treści wykorzystywanych wielokrotnie. W 2023 roku 88 proc. to treści zupełnie nowe. To oznacza, że były nowe ofiary i szersze rozpowszechnianie

– informował Howard. Dlatego tak istotne jest zgłaszanie treści, bo jeśli ktoś tego nie zrobił, odpowiednie służby nie mogły w porę zareagować.

Sieć INHOPE analizuje 1 mln zgłoszeń rocznie. 95 proc. ofiar takich działań to dziewczynki, 83 proc. z nich było średnio w wieku 13 lat. Przeważająca większość tego typu treści powstaje w zaledwie 80 krajach na świecie. Niepokojący jest też fakt, że posługiwanie się sztuczną inteligencją wzrasta.

Howard podsumował, że ma świadomość, że CSAM nie zniknie z sieci, ale do tego, aby reagować na treści szybko, niezbędna jest współpraca, bo żadna organizacja nie jest w stanie działać sama. Kluczowe jest również rozwijanie technologii, szkolenie osób pracujących z CSAM i rozwijanie wspólnych standardów.