W środę, 12 listopada, w siedzibie PAP odbyła się debata „Internet po DSA — między wolnością a odpowiedzialnością”, poświęcona projektowi nowelizacji ustawy o świadczeniu usług drogą elektroniczną przygotowanej przez Ministerstwo Cyfryzacji. Wydarzenie zorganizowała Strefa Dialogu Jutra Human Answer Institute i dotyczyło praktycznego wdrożenia unijnego Aktu o usługach cyfrowych (DSA).
Cenzura w internecie?
DSA, w pełni obowiązujący w całej UE od 17 lutego 2024 r., po raz pierwszy na taką skalę przenosi odpowiedzialność za treści na platformy internetowe, a jego art. 9 i 10 pozwalają organom sądowym i administracyjnym nakazywać blokowanie materiałów w sieci. Polski projekt wdrożeniowy doprecyzowuje krajową procedurę: zgłoszenia treści uznanych za nielegalne będą mogły składać organy publiczne (m.in. Policja, Prokuratura, KAS) oraz zwykli użytkownicy. Dla instytucji przewidziano krótsze terminy — jeśli to Policja wskaże naruszenie, Urząd Komunikacji Elektronicznej ma dwa dni na wydanie decyzji.
Wiceminister cyfryzacji Dariusz Standerski podkreślił, że nowe przepisy nie służą cenzurze, lecz egzekwowaniu prawa w środowisku cyfrowym. Wskazał analogię do świata offline: nielegalny plakat zdjęto by z ulicy — w sieci powinien zniknąć równie sprawnie. Odniósł się też do fałszowania dokumentów: sfałszowanie mDowodu traktowane jest jak podrobienie plastikowego dowodu i skutkuje odpowiedzialnością karną, niezależnie od wieku sprawcy.
Mecenas Tomasz Bukowski dodał, że obecnie platformy funkcjonują „pomiędzy rygorem prasowym, a telekomunikacyjnym”, co powoduje chaos w odpowiedzialności za publikowane treści. Implementacja DSA ma raz na zawsze ten problem uporządkować.
W panelu podkreślano rosnący problem mowy nienawiści. Magda Rozenek-Majdan opowiadała o swoich doświadczeniach: „Mam dość zgłoszeń, na które platformy odpowiadają: ‚Nie narusza to naszych standardów’, a trzy dni później X usuwa tę treść komuś innemu, bo zadziałał algorytm”. Zwróciła też uwagę, że „10% przychodów Mety to reklamy scamów”, co jest trudne do wyobrażenia i podważa skuteczność moderacji.
Specjaliści z NASK-u wskazali, że wiele zgłoszeń dotyczy treści szkodliwych dla dzieci, a wiele takich zgłoszeń trafia bez odpowiedniej reakcji ze strony platform. Zaufane podmioty sygnalizujące, które będą finansowane stabilnie, mają radykalnie poprawić usuwanie nielegalnych materiałów.
Przepisy wdrożeniowe
Krytycy, w tym poseł PiS Dariusz Matecki, ostrzegają przed ryzykiem politycznej kontroli internetu i arbitralnym rozstrzyganiem „co jest prawdą”. Standerski odpowiada, że mechanizm dotyczy wyłącznie treści nielegalnych, a ścieżka decyzji i odwołań jest uregulowana.
Projekt nowelizacji precyzuje katalog materiałów podlegających blokadzie. Procedura obejmie treści powiązane z 27 czynami zabronionymi w kodeksie karnym, w tym: groźby karalne, nakłanianie do samobójstwa, pochwalanie zachowań pedofilskich, propagowanie ideologii totalitarnych, nawoływanie do nienawiści i znieważanie na tle narodowościowym, etnicznym, rasowym czy wyznaniowym. Nakazami mogą być objęte również: werbunek do handlu ludźmi, utrwalanie wizerunku nagiej osoby lub w trakcie czynności seksualnych bez zgody, prezentowanie treści pornograficznych małoletnim poniżej 15 lat, rozsyłanie fałszywych alarmów, oszustwa komputerowe, a także nielegalna sprzedaż przez internet wyrobów tytoniowych, e-papierosów i woreczków nikotynowych. W wykazie znalazły się ponadto naruszenia praw autorskich oraz treści związane z nielegalną sprzedażą towarów czy świadczeniem usług.
Zgodnie z założeniami, każdy usługobiorca będzie mógł zgłosić treść budzącą wątpliwości, a organy — w przyspieszonym trybie — wydadzą decyzję o zablokowaniu materiału. Rząd przekonuje, że to konieczne, by realnie egzekwować prawo w internecie; przeciwnicy przestrzegają przed nadużyciami. Spór o granicę między wolnością słowa a odpowiedzialnością platform ma więc przenieść się z debaty do praktyki, wraz z wejściem w życie nowych przepisów.













