-
W policyjnej akcji sieć P2P została wykorzystana do monitorowania zainteresowania materiałami CSAM i przekierowywania użytkowników do informacji o działaniach służb.
-
– To tylko niewielki wycinek skali i zasięgu zjawiska – mówi w rozmowie z Interią Katarzyna Staciwa.
-
Raport Internet Watch Foundation wykazał 260-krotny wzrost liczby filmów CSAM wygenerowanych przez sztuczną inteligencję w 2025 roku w porównaniu do roku poprzedniego.
-
Więcej ważnych informacji znajdziesz na stronie głównej Interii
Policjanci zastawili pułapkę, a jej efekty widzimy na wspomnianej czarno-żółtej mapie Police2Peer. Pokazuje ona w czasie rzeczywistym zainteresowanie materiałami wideo i zdjęciami ukazującymi seksualne wykorzystanie małoletnich. Materiały takie określa się mianem CSAM (akronim od angielskiej nazwy: Child Sexual Abuse Materials).
Tam, gdzie na mapie pokazuje się żółty punkcik, ktoś właśnie pobiera pliki, których opisy sugerują, że zawierają takie materiały. W tabeli obok widzimy listę państw i informację o rozmiarze danych – Niemcy 221 MB, Wielka Brytania 0,3 MB, USA 12 MB, Chile 4 MB, Malezja 15,96 MB, Rosja 8 MB, Kanada 4,5 MB, Holandia 46 MB, Polska 2MB… Lista aktualizuje się co ułamek sekundy, tyle jest pobrań. Użytkownicy z Polski w ciągu minionych 30 dni ściągnęli na swoje urządzenia 456,8 gigabajtów plików CSAM.
Przynajmniej tak im się wydawało. W rzeczywistości zamiast szukanych materiałów na ekranach zobaczyli zdjęcie policjanta i informację o akcji służb. To skoordynowane przedsięwzięcie policji norweskiej we współpracy z Europolem. Służby udostępniły w sieci P2P (ang. peer to peer) pliki opisane tak, jak opisywane są zazwyczaj takie treści przez zainteresowane nimi osoby. Policjanci szacują, że rocznie dotyczy to ok. 600 tys. indywidualnych adresów IP.
Mechanizm dla początkujących…
– To tylko niewielki wycinek skali i zasięgu zjawiska – mówi w rozmowie z Interią Katarzyna Staciwa z Państwowej komisji ds. przeciwdziałania wykorzystaniu seksualnemu małoletnich do lat 15 (PKDP), była policjantka i wieloletnia funkcjonariuszka Europolu.
Niewielki wycinek, ale już robi piorunujące wrażenie. – O to właśnie chodziło – wskazuje Staciwa. Upubliczniona mapa jest częścią projektu rozpoczętego w 2017 roku. Zgodnie z jego celem – zwiększaniem świadomości – została teraz udostępniona na stronie PKDP. Ma zwracać uwagę na to, jak poważnym problemem są treści CSAM krążące w sieci.
– Pliki udostępnione przez policjantów wykorzystują wspomniany model wymiany danych, tj. peer to peer. Uznaje się, że to dosyć prosty mechanizm, w którym urządzenia komunikują się bezpośrednio ze sobą. Uogólniając, powiedziałabym: dla początkujących. Obok zwrócenia uwagi na skalę i zasięg problemu, celem całej akcji jest też przekierowanie takiego użytkownika, który szuka w sieci treści CSAM, do miejsca, gdzie może znaleźć pomoc, w tym terapeutyczną (o ile znajduje się ona w zasobach danego państwa). To często osoby, które jeszcze nie dopuściły się bezpośredniego skrzywdzenia dziecka i trzeba zrobić wszystko, żeby to się nie zmieniło – mówi Staciwa.
Ale jest też druga strona medalu, o wiele bardziej mroczna i dla bardziej zaawansowanych – darknet. Ale i tam działają policjanci.
W marcu 2025 roku niemiecka policja poinformowała o zamknięciu platformy KidFlix. Pod tą niewinnie brzmiącą nazwą krył się serwis udostępniający treści pokazujące wykorzystywanie seksualne dzieci. Między kwietniem 2022 a marcem 2025 miał 1,8 miliona (!) zalogowanych użytkowników na całym świecie.
Użytkownicy płacili kryptowalutami, które był wymieniane na tokeny, działające na zasadzie kuponów – można było za nie kupić dostęp do plików. Tokeny można było też zdobyć, udostępniając własne materiały, czy weryfikując tytuły i opisy filmów, przypisując im kategorie.
Platforma funkcjonowała od 2021 roku, została założony przez cyberprzestępcę, który zarobił na niej ogromne pieniądze. W sumie udostępniono na niej 91 tysięcy unikalnych filmów – średnio 3,5 filmu co godzinę. Ich czas trwania wyniósł w sumie 6 288 godzin. Wiele z tych treści była nieznana wcześniej organom ścigania – to znaczy, że dzieci doświadczały nowej krzywdy albo krzywdzeni byli kolejni małoletni.
Śledztwo prowadziła niemiecka policja wspierana przez Europol. W marcu ubiegłego roku informowano o 79 aresztowanych za udostępnianie i rozpowszechnianie materiałów CSAM, ale wśród zatrzymanych były też osoby, które nie tylko oglądały i zamieszczały zdjęcia i filmy, ale same dopuszczały się wykorzystywania małoletnich. Zidentyfikowano 14000 podejrzanych na całym świecie, 39 dzieci objęto ochroną, a sprawa ma charakter rozwojowy.
Gigantyczna skala przerażającego zjawiska
Według danych z lipca 2024, z bazy ICSE Interpolu, dzięki analizie niemal 5 milionów zdjęć i nagrań wideo udało się zidentyfikować 42 300 ofiar na całym świecie.
– To jeden z najbardziej szanowanych przeze mnie zakątków pracy policji – przyznaje Katarzyna Staciwa. Jak mówi, specjalne akcje (Victim Identification Task Force, VIDTF) zidentyfikowania krzywdzonych dzieci i namierzania sprawców organizuje także Europol – Europejskie Centrum ds. Walki z Cyberprzestępczością.
– Co jakiś czas zbierają się specjalne grupy zadaniowe złożone z międzynarodowych ekspertów, które w czasie dwutygodniowych sesji pracują na wytypowanym wcześniej materiale. Analizują zdjęcia i nagrania, szukają najdrobniejszych szczegółów, które mogłyby naprowadzić na konkretną lokalizację. To mogą być informacje z samego pliku, ale też detale na zdjęciach i nagraniach, jakaś książka w tle, widok za oknem – opisuje rozmówczyni Interii. Od 2014 roku działania VIDTF pomogły ochronić ponad 940 dzieci i przyczyniły się do aresztowania ponad 283 sprawców.
Wrześniowa akcja Europolu, w której wzięło udział 27 ekspertów z 22 państw, pozwoliła na zidentyfikowanie 51 dzieci. Co się dzieje dalej? Po zebraniu pomocnych informacji są one przekazywane policji w danym kraju, ta już przejmuje działania na swoim terenie.
– Zdarzało się tak, że ustalony przez grupę zadaniową ślad pozwalał lokalnej policji namierzyć potencjalnego sprawcę i jeszcze przed końcem sesji grupy zadaniowej do jego drzwi pukały służby – opowiada Katarzyna Staciwa. Dodaje też, że do działań identyfikacyjnych zostali też zaproszeni użytkownicy internetu. Każda osoba, która chce pomóc, może sprawdzić udostępnione przez Europol w ramach inicjatywy TraceanObject np. elementy ubioru dziecka i przekazać stosowną informację.
To nie są „tylko” zdjęcia i filmy
Z danych amerykańskiej organizacji non profit NCMEC (National Center for Missing and Exploited Children) za 2024 rok wynika, że zgłoszeń tzw. pilnych, które oznaczają dziecko w niebezpieczeństwie w czasie rzeczywistym, było 51 tysięcy. Informacja ta pochodzi z Cyber Tipline, scentralizowanego systemu zgłaszania przypadków wykorzystania dzieci w internecie. Materiały unikalne stanowiły 44 proc. zgłoszonych zdjęć i 25 proc. wideo.
Poważnym problemem są także materiały powielane. – Zgodnie z ustaleniami CyberTipline wizerunek jednego dziecka był rozpowszechniany przez ostatnie 19 lat, pojawiając się ponad 1,3 miliona razy w zgłoszeniach do tej infolinii – wskazuje Katarzyna Staciwa. I wymienia skutki, z jakimi zmagają się pokrzywdzeni – trauma, stygmatyzacja, poczucie utraty kontroli. – To, że takie treści krążą w internecie, powoduje wtórną wiktymizację – mówi.
Jak wynika z danych PKDP, przemoc online dotyczy obecnie ponad 20 proc. wszystkich postępowań, jakimi zajmuje się Państwowa Komisja.
Rekordowy poziom i 260-krotny wzrost
Rosnącym problemem jest też tworzenie materiałów CSAM z wykorzystaniem sztucznej inteligencji. Najnowszy raport brytyjskiej organizacji Internet Watch Foundation (IWF) pokazuje, że wykorzystanie AI do tworzeniach takich treści osiągnął rekordowy poziom.
W 2025 roku IWF zidentyfikowała 8029 materiałów wygenerowanych przez sztuczną inteligencję, przedstawiających wykorzystanie dzieci w bardzo realistyczny – jak piszą autorzy raportu – i coraz bardziej brutalny sposób.
W porównaniu z rokiem poprzednim liczba treści o charakterze przestępczym wzrosła o 14 proc.
„Jestem zaskoczony brakiem cenzury”
Gwałtowny i gigantyczny wzrost zanotowała liczba filmów stworzonych z wykorzystaniem sztucznej inteligencji – z 13 wideo w 2024 roku do 3 443 w 2025 roku. To 260-krotny wzrost.
Co więcej, 65 proc. z tych materiałów zostało zakwalifikowane jako kategoria A. To najsurowsza kategoria w brytyjskim prawie.
Analitycy IWF, którzy obserwowali komentarze użytkowników wymieniających się CSAM w darknecie, wskazują, że rozwój zdolności AI do tworzenia coraz bardziej realistycznych i brutalnych treści, przyjmują oni z zachwytem. „Dzieło sztuki!”, „ekstremalny realizm”, „jestem zaskoczony brakiem cenzury” – piszą.
Katastrofalne w skutkach spóźnienie UE
Skąd sprawcy biorą zdjęcia i wideo dzieci? Zewsząd, przede wszystkim z ogólnodostępnej sieci, w tym z mediów społecznościowych.
Tymczasem Europa ma poważny problem z uregulowaniem systemu przeciwdziałania wykorzystaniu seksualnemu w sieci.
Kluczowa regulacja dotycząca CSAM utknęła w Parlamencie Europejskim. Tymczasowe przepisy przestaną obowiązywać 3 kwietnia.
– Po tym dniu platformy cyfrowe w UE mogą rezygnować z dobrowolnych działań mających na celu walkę z treściami z tej kategorii. Każdy dzień zwłoki to krzywda dzieci, realna krzywda, nie wirtualna – wskazuje Katarzyna Staciwa. I dodaje: – Chciałabym, żeby obecność tej mapy była wyrzutem sumienia dla tych z nas, którzy mieli wpływ na doprowadzenie do uchwalenia przepisów chroniących dzieci przed wykorzystaniem w cyberprzestrzeni, a z różnych powodów zawiedli.
Justyna Kaczmarczyk (kontakt do autorki: justyna.kaczmarczyk@firma.interia.pl)


