Artykuł 11 Karty praw podstawowych Unii Europejskiej, która powiela część art. 10 tej ustawy Europejska Konwencja Praw Człowieka, chroni prawo obywateli europejskich do „posiadania opinii oraz do otrzymywania i przekazywania informacji i idei bez ingerencji władz publicznych i bez względu na granice” oraz potwierdza, że „należy szanować wolność i pluralizm mediów”. Niestety, los wolności słowa w Europie wisi obecnie w dużej mierze pod znakiem zapytania, ponieważ Unia Europejska właśnie przyjęła ustawę, która upoważnia Komisję do znacznego ograniczenia możliwości korzystania przez obywateli z platform cyfrowych w celu angażowania się w zdecydowany i szczery dyskurs demokratyczny .
Zgodnie z niedawno uchwalonym Ustawa o usługach cyfrowychKomisja Europejska może wywierać znaczący nacisk na platformy cyfrowe, aby ukrócić „mowę nienawiści”, „dezinformację” i zagrożenia dla „dyskursu obywatelskiego”, a wszystkie te kategorie stanowią notorycznie niejasne i niejasne kategorie, kategorie, które w przeszłości były dokooptowane w celu wzmocnienia narracja klasy panującej. Dając Komisji Europejskiej szerokie uprawnienia dyskrecjonalne w zakresie nadzorowania polityki moderowania treści Big Tech, ten akt prawny czyni wolność słowa zakładnikiem ideologicznych skłonności niewybranych urzędników europejskich i ich armii „zaufanych sygnalistów”.
Cel ustawy o usługach cyfrowych
Podany cel ww Ustawa o usługach cyfrowych (DSA), która właśnie weszła w życie w Europie, ma zapewnić większą „harmonizację” warunków wpływających na świadczenie „pośrednich” usług cyfrowych, w szczególności platform internetowych, na których udostępniane są treści udostępniane przez ich klientów. Ustawa obejmuje oszałamiający wachlarz zagadnień, od ochrony konsumentów i regulacji algorytmów reklamowych po pornografię dziecięcą i moderację treści. Wśród innych celów pojawiających się w brzmieniu ustawy znajduje się wspieranie „bezpiecznego, przewidywalnego i godnego zaufania środowiska internetowego”, ochrona wolności wypowiedzi obywateli oraz harmonizacja przepisów UE mających wpływ na internetowe platformy cyfrowe, które obecnie zależą od prawa poszczególnych Państw Członkowskich.
DSA nie jest tak niewinne, jak się wydaje
Na powierzchowny rzut oka, Ustawa o usługach cyfrowych (DSA) może wyglądać raczej niewinnie. Nakłada dość formalne wymogi na „bardzo duże platformy internetowe”, takie jak Google, Twitter/X, Facebook i TikTok, dotyczące jasnych procedur odwoławczych i przejrzystości w zakresie regulacji dotyczących szkodliwych i nielegalnych treści. Na przykład w art. 45 ustawy jako dość łagodny wymóg dotykowy nałożono, aby dostawcy usług cyfrowych online („usługi pośredniczące”) informowali klientów o warunkach i zasadach firmy:
Dostawcy usług pośrednictwa powinni wyraźnie wskazać i na bieżąco aktualizować w swoim regulaminie informację o podstawach, na podstawie których mogą ograniczyć świadczenie swoich usług. W szczególności powinny zawierać informacje na temat wszelkich polityk, procedur, środków i narzędzi wykorzystywanych do moderacji treści, w tym algorytmicznego podejmowania decyzji i weryfikacji ludzkiej, a także regulaminu wewnętrznego systemu rozpatrywania skarg. Powinny także zapewniać łatwo dostępną informację o prawie do zakończenia korzystania z usługi.
Jeśli jednak zaczniesz zagłębiać się w tę ustawę, bardzo szybko odkryjesz, że jest ona szkodliwa dla wolności słowa i nie jest zgodna z duchem Artykuł 11 Karty praw podstawowych UE, która gwarantuje obywatelom „wolność posiadania poglądów oraz otrzymywania i przekazywania informacji i idei bez ingerencji władzy publicznej i bez względu na granice”. Poniżej szczegółowo opisałem niektóre aspekty ustawy, które łącznie stanowią bezprecedensowe zagrożenie dla wolności słowa w Europie:
1. DSA (Ustawa o usługach cyfrowych) tworzy podmioty zwane „zaufanymi podmiotami zgłaszającymi”, których zadaniem jest zgłaszanie „nielegalnych treści”, które rozpoznają na dużych platformach internetowych. Ustawa nakłada na platformy internetowe obowiązek niezwłocznego reagowania na zgłoszenia dotyczące nielegalnych treści przekazywane przez „zaufane podmioty sygnalizujące” wyznaczone przez „koordynatorów usług cyfrowych” wyznaczonych przez państwa członkowskie. Ustawa nakłada na duże platformy internetowe obowiązek „podjęcia niezbędnych środków w celu zapewnienia, że powiadomienia przekazywane przez zaufane podmioty sygnalizujące, działające w ramach ich wyznaczonego obszaru specjalizacji, za pośrednictwem mechanizmów powiadamiania i podejmowania działań wymaganych na mocy niniejszego rozporządzenia” traktowane są priorytetowo".
2. Ściśle rzecz ujmując, chociaż platformy cyfrowe mają obowiązek reagowania na zgłoszenia dotyczące nielegalnych treści przesyłane przez „zaufane podmioty zgłaszające”, z brzmienia ustawy wynika, że platformy mają swobodę decydowania, jak dokładnie postąpić w przypadku takich zgłoszeń. Mogą na przykład nie zgodzić się z opinią prawną „zaufanego podmiotu zgłaszającego” i zdecydować o nieusuwaniu oznaczonych treści. Będą jednak poddawani okresowym kontrolom zgodności swoich działań z ustawą, przeprowadzanym przez audytorów działających w imieniu Komisji Europejskiej, a kontrole te nie wróżą pozytywnie wzorca bierności wobec oznaczonych treści.
3. Ustawa o usługach cyfrowych nakłada również na „bardzo duże platformy internetowe” (platformy takie jak Google, YouTube, Facebook i Twitter) obowiązek przeprowadzania okresowych ocen „ograniczania ryzyka”, w których uwzględnia się „ryzyka systemowe” związane z ich platformami, w tym m.in. nie ogranicza się do dziecięcej pornografii, „przemocy ze względu na płeć” (cokolwiek to oznacza), „dezinformacji” w zakresie zdrowia publicznego oraz „rzeczywistego lub przewidywalnego negatywnego wpływu na procesy demokratyczne, dyskurs obywatelski i procesy wyborcze, a także bezpieczeństwo publiczne”. Na mocy ustawy platformy mają obowiązek dochowania należytej staranności w celu podjęcia odpowiednich środków w celu zarządzania tym ryzykiem. W przeciwieństwie do dobrowolnego kodeksu postępowania, rezygnacja nie jest możliwa, a nieprzestrzeganie obowiązków związanych z „należytą starannością” będzie podlegać surowym sankcjom.
4. Sankcje związane z nieprzestrzeganiem ustawy są godne uwagi. Komisja, jeśli uzna, że duża platforma internetowa, taka jak X/Twitter, nie przestrzega przepisów DSA, może nałożyć na nią karę grzywny do 6 procent swojego rocznego światowego obrotu. Ponieważ pojęcie nieprzestrzegania przepisów jest trudne do oszacowania i dość niejasne (co dokładnie jest wymagane, aby spełnić „obowiązki należytej staranności” w ramach zarządzania ryzykiem systemowym?), wydaje się prawdopodobne, że firmy, które chcą uniknąć problemów prawnych i finansowych, wolałyby zachować ostrożność i okazywać „przestrzeganie przepisów”, aby uniknąć kary.
5. Okresowe audyty przewidziane w niniejszej ustawie posłużą Komisji jako narzędzie do wywierania presji na duże platformy internetowe, aby podjęły działania mające na celu „zarządzanie” „ryzykiem” dezinformacji i zagrożeniami dla „dyskursu obywatelskiego i procesów wyborczych”, zagrożeniami, które są notorycznie niejasne i prawdopodobnie niemożliwe do zdefiniowania w sposób politycznie bezstronny. W tle tych audytów i związanych z nimi „zaleceń” czai się zagrożenie, że Komisja może nałożyć wielomiliardowe kary na platformy internetowe za nieprzestrzeganie przepisów. Ze względu na dość niejasne pojęcie o nieprzestrzeganiu „obowiązków należytej staranności” oraz dyskrecjonalny charakter sankcji finansowych grożących w DSA, ustawa ta stworzy atmosferę niepewności prawnej zarówno dla platform internetowych, jak i i dla swoich użytkowników. Silnie zachęca platformy internetowe do stosowania przemówień policyjnych w sposób nie dorównujący Komisji Europejskiej i skupiających się wokół niejasnych kategorii, takich jak „dezinformacja” i „mowa nienawiści”, co oczywiście będzie miało konsekwencje dla użytkowników końcowych.
6. Według Komisji Europejskiej„Przestępstwa i wypowiedzi motywowane nienawiścią są nielegalne w świetle prawa UE. Decyzja ramowa z 2008 r. w sprawie zwalczania niektórych form wyrazu rasizmu i ksenofobii wymaga kryminalizacji publicznego nawoływania do przemocy lub nienawiści ze względu na rasę, kolor skóry, religię, pochodzenie albo pochodzenie narodowe lub etniczne. Należy podkreślić, że Komisja Europejska opowiada się za rozszerzeniem kategorii nielegalnej mowy nienawiści na poziomie ogólnoeuropejskim tak, aby obejmowały one nie tylko „rasę, kolor skóry, religię, pochodzenie lub pochodzenie narodowe lub etniczne”, ale także nowe kategorie (prawdopodobnie włączając w to kwestie takie jak tożsamość płciowa). Zatem nielegalne nawoływanie do nienawiści jest „ruchomym celem”, które z biegiem czasu prawdopodobnie stanie się coraz szersze i bardziej nacechowane politycznie. Według Komisji Europejskiej Własna strona,
W 9 grudzień 2021, the Komisja Europejska przyjęła komunikat co skłania Radę do podjęcia decyzji o rozszerzeniu obecnego wykazu „przestępstw UE” zawartego w art. 83 ust. 1 TFUE o przestępstwa z nienawiści i mowę nienawiści. Jeżeli decyzja Rady zostanie przyjęta, Komisja Europejska będzie mogła w drugim etapie zaproponować prawodawstwo wtórne umożliwiające UE kryminalizację innych form mowy nienawiści i przestępstw z nienawiści, oprócz pobudek rasistowskich lub ksenofobicznych.
7. Najbardziej niepokojącym aspektem DSA jest ogromna władza i swoboda, jaką oddaje w ręce Komisji Europejskiej – w szczególności niewybieralnej komisji – w zakresie nadzorowania przestrzegania DSA i decydowania, kiedy platformy internetowe nie przestrzegają swoich zasad „obowiązki należytej staranności” w celu zarządzania ryzykami, których znaczenie jest notorycznie niejasne i podatne na manipulację, takimi jak mowa nienawiści, dezinformacja i dyskurs antyobywatelski. Komisja Europejska przyznaje sobie również uprawnienia do ogłoszenia ogólnoeuropejskiego stanu nadzwyczajnego, co umożliwiłoby jej zażądanie dodatkowych interwencji ze strony platform cyfrowych w celu przeciwdziałania zagrożeniu publicznemu. Nie będzie pewności prawnej co do tego, kiedy Komisja Europejska może ogłosić „stan nadzwyczajny”. Nie ma też pewności prawnej co do tego, jak Komisja Europejska i jej audytorzy będą interpretować „ryzyka systemowe”, takie jak dezinformacja i mowa nienawiści, ani jak oceniać wysiłki dostawców usług mające na celu ograniczenie takiego ryzyka, ponieważ są to uprawnienia dyskrecjonalne.
8 Nie jest też jasne, w jaki sposób Komisja mogłaby przeprowadzić kontrolę „ryzyka systemowego” dezinformacji oraz zagrożeń dla dyskursu obywatelskiego i procesów wyborczych, nie uwzględniając w szczególności tego, co jest prawdziwe, a co nieprawdziwe, pożyteczne i szkodliwe informacje, udaremniając w ten sposób demokrację proces, w ramach którego obywatele sami oceniają te kwestie.
9. Nie jest też jasne, jakie mechanizmy kontroli i równowagi zostaną wprowadzone, aby zapobiec temu, aby DSA stała się bronią w ulubionych celach Komisji Europejskiej, czy to wojnie na Ukrainie, wdrażaniu szczepionek, polityce klimatycznej czy „wojnie z terroryzmem”. Szerokie uprawnienia do ogłaszania stanu nadzwyczajnego i wymagania od platform dokonywania „ocen” ich polityk w odpowiedzi na tę sytuację, w połączeniu z szeroką swobodą decyzyjną w zakresie nakładania kar finansowych na platformy internetowe za „nieprzestrzeganie” z natury niejasnych „obowiązków należytej staranności”, dają Komisji dużą swobodę, aby panować nad platformami internetowymi i wywierać na nie nacisk, aby promowały jej ulubioną narrację polityczną.
10. Szczególnie podstępnym aspektem tej ustawy jest to, że Komisja skutecznie czyni dezinformację nielegalną *poprzez tylne drzwi*, że tak powiem. Zamiast jasno zdefiniować, co rozumieją przez „dezinformację” i uznać ją za nielegalną – co prawdopodobnie wywołałoby zamieszanie – nakładają na duże platformy internetowe, takie jak Twitter i Facebook, wymóg „należytej staranności”, aby podejmowały uznaniowe środki przeciwko dezinformacji i łagodziły „ ryzyka systemowe” na swoich platformach (w tym ryzyko „dezinformacji w zakresie zdrowia publicznego”). Można przypuszczać, że okresowe audyty przestrzegania ustawy przez te firmy niemiło odbiłyby się na politykach, które ledwo egzekwowały zasady dezinformacji.
Zatem ostatecznym skutkiem tej ustawy byłoby wywarcie niemal nieodpartej presji na platformy mediów społecznościowych, aby zaangażowały się w grę „przeciwdziałającą dezinformacji” w sposób, który przeszedł testy audytorów Komisji i uniknął w ten sposób wysokich kar. Istnieje duża niepewność co do tego, jak rygorystyczne lub niedbałe byłyby takie audyty i jakiego rodzaju nieprzestrzeganie przepisów mogłoby skutkować nałożeniem sankcji finansowych. To dość dziwne, że regulacja prawna mająca na celu obronę wolności słowa stawia los wolności słowa na łasce w dużej mierze uznaniowych i z natury nieprzewidywalnych ocen niewybranych urzędników.
Jedyną nadzieją jest to, że ten brzydki, skomplikowany i regresywny akt prawny trafi przed sędziego, który rozumie, że wolność słowa nic nie znaczy, jeśli stanie się zakładnikiem poglądów Komisji Europejskiej na temat gotowości na wypadek pandemii, wojny rosyjsko-ukraińskiej czy czegokolwiek innego. liczy się jako wypowiedź „obraźliwa” lub „nienawistna”.
PS Potraktuj tę analizę jako wstępną próbę kogoś, kto nie specjalizuje się w prawie europejskim, zmierzenia się z niepokojącymi konsekwencjami ustawy o usługach cyfrowych dla wolności słowa, opartą na pierwszym czytaniu. Z radością przyjmuję poprawki i uwagi ekspertów prawnych oraz tych, którzy mieli cierpliwość, aby samodzielnie przebrnąć przez ustawę. Jest to najbardziej szczegółowa i rygorystyczna interpretacja DSA, jaką do tej pory opracowałem. Zawiera ważne niuanse, których nie uwzględniłem w moich poprzednich interpretacjach, i koryguje pewne błędne interpretacje – w szczególności platformy nie są prawnie zobowiązane do usuwania wszystkich oznaczonych treści, a osoby zgłaszające treści nielegalne nazywane są „zaufanymi podmiotami zgłaszającymi”, a nie „weryfikatorzy faktów”).
Opublikowane ponownie od autora Zastępki
Opublikowane pod a Creative Commons Uznanie autorstwa 4.0 Licencja międzynarodowa
W przypadku przedruków ustaw link kanoniczny z powrotem na oryginał Instytut Brownstone Artykuł i autor.