wtorek, 12 września 2023

Ustawa o usługach cyfrowych powinna cię bardzo martwić



Autor: David Thunder

Artykuł 11 Karty Praw Podstawowych UE, który powiela część art. 10 Europejskiej Konwencji Praw Człowieka, chroni prawo obywateli europejskich do "posiadania poglądów oraz otrzymywania i przekazywania informacji i idei bez ingerencji władz publicznych i bez względu na granice" oraz potwierdza, że "szanuje się wolność i pluralizm mediów". Niestety, los wolności słowa w Europie wisi teraz na włosku, ponieważ Unia Europejska właśnie uchwaliła prawo, które upoważnia Komisję do znacznego ograniczenia zdolności obywateli do korzystania z platform cyfrowych w celu angażowania się w solidny i szczery demokratyczny dyskurs.

Zgodnie z niedawno uchwaloną ustawą o usługach cyfrowych, Komisja Europejska może wywierać znaczną presję na platformy cyfrowe w celu ograniczenia "mowy nienawiści", "dezinformacji" i zagrożeń dla "dyskursu obywatelskiego", z których wszystkie stanowią notorycznie niejasne i śliskie kategorie, które w przeszłości były kooptowane w celu wzmocnienia narracji klasy rządzącej. Dając Komisji Europejskiej szerokie uprawnienia do nadzorowania polityki moderowania treści Big Tech, ten akt prawny czyni wolność słowa zakładnikiem ideologicznych skłonności niewybieralnych urzędników europejskich i ich armii "zaufanych sygnalistów".


Cel ustawy o usługach cyfrowych

Deklarowanym celem Digital Services Act (DSA), który właśnie wszedł w życie w Europie, jest zapewnienie większej "harmonizacji" warunków wpływających na świadczenie "pośredniczących" usług cyfrowych, w szczególności platform internetowych, które hostują treści udostępniane przez ich klientów. Ustawa obejmuje oszałamiający wachlarz zagadnień, od ochrony konsumentów i regulacji algorytmów reklamowych po pornografię dziecięcą i moderację treści. Wśród innych celów, które pojawiają się w treści ustawy, znajdujemy wspieranie "bezpiecznego, przewidywalnego i godnego zaufania środowiska online", ochronę wolności wypowiedzi obywateli oraz harmonizację przepisów UE dotyczących internetowych platform cyfrowych, które obecnie zależą od przepisów poszczególnych państw członkowskich.


DSA nie jest tak niewinna, jak się wydaje

Na pierwszy rzut oka ustawa o usługach cyfrowych (DSA) może wyglądać dość niewinnie. Nakłada ona dość formalne wymogi na "bardzo duże platformy internetowe", takie jak Google, Twitter/X, Facebook i TikTok, aby miały jasne procedury odwoławcze i były przejrzyste w zakresie regulacji dotyczących szkodliwych i nielegalnych treści. Dla przykładu, sekcja 45 ustawy stanowi dość łagodny wymóg, by dostawcy internetowych usług cyfrowych ("usług pośrednictwa") informowali klientów o warunkach i politykach firmy:

    Dostawcy usług pośrednictwa powinni wyraźnie wskazać i aktualizować w swoich warunkach informacje dotyczące podstaw, na podstawie których mogą ograniczyć świadczenie swoich usług. W szczególności powinni oni zawierać informacje na temat wszelkich polityk, procedur, środków i narzędzi wykorzystywanych do celów moderowania treści, w tym algorytmicznego podejmowania decyzji i weryfikacji przez człowieka, a także regulaminu wewnętrznego systemu rozpatrywania skarg. Powinny one również zapewniać łatwo dostępne informacje na temat prawa do zakończenia korzystania z usługi.

Ale jeśli zaczniesz zagłębiać się w ustawę, bardzo szybko odkryjesz, że jest ona trująca dla wolności słowa i nie jest zgodna z duchem art. 11 Karty praw podstawowych UE, który gwarantuje obywatelom "wolność posiadania poglądów oraz otrzymywania i przekazywania informacji i idei bez ingerencji władz publicznych i bez względu na granice". Poniżej szczegółowo opisuję niektóre aspekty ustawy, które łącznie stanowią bezprecedensowe zagrożenie dla wolności słowa w Europie:

1. DSA (Digital Services Act) tworzy podmioty zwane "zaufanymi podmiotami sygnalizującymi", których zadaniem jest zgłaszanie "nielegalnych treści" zidentyfikowanych na dużych platformach internetowych. Na mocy ustawy platformy internetowe są zobowiązane do niezwłocznego reagowania na zgłoszenia nielegalnych treści przekazywane przez "zaufanych sygnalistów" nominowanych przez wyznaczonych przez państwo członkowskie "koordynatorów ds. usług cyfrowych". Ustawa nakłada na duże platformy internetowe obowiązek "podjęcia niezbędnych środków w celu zapewnienia priorytetowego traktowania zgłoszeń przekazywanych przez zaufane podmioty sygnalizujące, działające w ramach wyznaczonego obszaru wiedzy specjalistycznej, za pośrednictwem mechanizmów powiadamiania i działania wymaganych na mocy niniejszego rozporządzenia".

 2. Ściśle rzecz biorąc, podczas gdy platformy cyfrowe są zobowiązane do reagowania na zgłoszenia nielegalnych treści przesłane przez "zaufane podmioty sygnalizujące", z brzmienia ustawy wynika, że platformy mają swobodę decydowania o tym, jak dokładnie postępować w przypadku takich zgłoszeń. Mogą one na przykład nie zgodzić się z opinią prawną "zaufanego podmiotu zgłaszającego" i zdecydować o nieusuwaniu oflagowanych treści. Będą one jednak musiały stawiać czoła okresowym audytom zgodności swoich działań z ustawą przeprowadzanym przez audytorów pracujących w imieniu Komisji Europejskiej, a przeglądy te raczej nie będą przychylnie patrzeć na wzorzec bezczynności w obliczu oflagowanych treści.

3. Ustawa o usługach cyfrowych wymaga również od "bardzo dużych platform internetowych" (platform takich jak Google, YouTube, Facebook i Twitter) przeprowadzania okresowych ocen "ograniczania ryzyka", w których odnoszą się one do "ryzyka systemowego" związanego z ich platformami, w tym między innymi pornografii dziecięcej, "przemocy ze względu na płeć" (cokolwiek to oznacza), "dezinformacji" w zakresie zdrowia publicznego oraz "rzeczywistych lub przewidywalnych negatywnych skutków dla procesów demokratycznych, dyskursu obywatelskiego i procesów wyborczych, a także bezpieczeństwa publicznego". Zgodnie z ustawą platformy są zobowiązane do zachowania "należytej staranności" w celu podjęcia odpowiednich środków w celu zarządzania tymi zagrożeniami. W przeciwieństwie do dobrowolnego kodeksu postępowania, rezygnacja nie jest opcją, a nieprzestrzeganie tych obowiązków "należytej staranności" będzie podlegać surowym sankcjom.

4. Sankcje związane z nieprzestrzeganiem ustawy są niezwykłe. Komisja, jeśli uzna, że duża platforma internetowa, taka jak X/Twitter, nie przestrzegała DSA, może nałożyć na nią grzywnę w wysokości do 6% jej rocznego globalnego obrotu. Ponieważ pojęcie niezgodności jest trudne do określenia ilościowego i dość niejasne (co dokładnie jest wymagane w celu spełnienia "obowiązków należytej staranności" w zakresie zarządzania ryzykiem systemowym?), wydaje się prawdopodobne, że firmy, które chcą uniknąć prawnych i finansowych bólów głowy, wolą zachować ostrożność i pokazać "zgodność", aby uniknąć grzywny.

5. Okresowe audyty przewidziane w tej ustawie będą służyć Komisji jako narzędzie nacisku na duże platformy internetowe, aby podejmowały działania w celu "zarządzania" "ryzykiem" dezinformacji i zagrożeniami dla "dyskursu obywatelskiego i procesów wyborczych", które są notorycznie niejasne i prawdopodobnie niemożliwe do zdefiniowania w sposób politycznie bezstronny. Zagrożeniem czającym się w tle tych audytów i związanych z nimi "zaleceń" jest to, że Komisja może nałożyć wielomiliardowe grzywny na platformy internetowe za nieprzestrzeganie przepisów. Ze względu na dość niejasną koncepcję nieprzestrzegania "obowiązków należytej staranności" oraz uznaniowy charakter sankcji finansowych grożących w DSA, ustawa ta stworzy atmosferę niepewności prawnej zarówno dla platform internetowych, jak i dla ich użytkowników. W znacznym stopniu zachęca ona platformy internetowe do nadzorowania wypowiedzi w sposób, który spełnia wymogi Komisji Europejskiej, wokół niejasnych kategorii, takich jak "dezinformacja" i "mowa nienawiści", co oczywiście będzie miało reperkusje dla użytkowników końcowych.

6. Według Komisji Europejskiej "przestępstwa i mowa motywowane nienawiścią są nielegalne na mocy prawa UE. Decyzja ramowa z 2008 r. w sprawie zwalczania pewnych form rasizmu i ksenofobii wymaga kryminalizacji publicznego podżegania do przemocy lub nienawiści ze względu na rasę, kolor skóry, religię, pochodzenie lub pochodzenie narodowe lub etniczne". Ważne jest, aby podkreślić, że Komisja Europejska opowiada się za rozszerzeniem kategorii nielegalnej mowy nienawiści na poziomie ogólnoeuropejskim, tak aby obejmowały one nie tylko "rasę, kolor skóry, religię, pochodzenie lub pochodzenie narodowe lub etniczne", ale także nowe kategorie (przypuszczalnie obejmujące takie kwestie, jak tożsamość płciowa). Tak więc nielegalna mowa nienawiści jest "ruchomym celem" i prawdopodobnie z biegiem czasu będzie stawać się coraz szersza i bardziej politycznie naładowana.  

Według strony internetowej Komisji Europejskiej,


    W dniu 9 grudnia 2021 r. Komisja Europejska przyjęła komunikat, który skłania Radę do podjęcia decyzji o rozszerzeniu obecnego wykazu "przestępstw UE" w art. 83 ust. 1 TFUE o przestępstwa z nienawiści i mowę nienawiści. Jeśli ta decyzja Rady zostanie przyjęta, Komisja Europejska będzie mogła, w drugim etapie, zaproponować prawodawstwo wtórne umożliwiające UE kryminalizację innych form mowy nienawiści i przestępstw z nienawiści, oprócz motywów rasistowskich lub ksenofobicznych.
7. Najbardziej niepokojącym aspektem DSA jest ogromna władza i swoboda decyzyjna Komisji Europejskiej - w szczególności niewybranej komisji - w zakresie nadzorowania zgodności z DSA i decydowania, kiedy platformy internetowe nie spełniają swoich "obowiązków należytej staranności" w zakresie zarządzania ryzykiem, którego znaczenie jest notorycznie niejasne i podatne na manipulacje, takie jak mowa nienawiści, dezinformacja i dyskurs antyobywatelski. Komisja Europejska daje sobie również prawo do ogłoszenia ogólnoeuropejskiego stanu wyjątkowego, który pozwoliłby jej zażądać dodatkowych interwencji ze strony platform cyfrowych w celu przeciwdziałania zagrożeniom publicznym. Nie będzie pewności prawnej co do tego, kiedy Komisja Europejska może ogłosić "stan wyjątkowy". Nie ma również żadnej pewności prawnej co do tego, w jaki sposób Komisja Europejska i jej audytorzy będą interpretować "ryzyko systemowe", takie jak dezinformacja i mowa nienawiści, ani oceniać wysiłków usługodawców w celu złagodzenia takiego ryzyka, ponieważ są to uprawnienia uznaniowe.

8. Nie jest również jasne, w jaki sposób Komisja mogłaby przeprowadzić audyt "ryzyka systemowego" dezinformacji i zagrożeń dla dyskursu obywatelskiego i procesów wyborczych bez przyjęcia określonego poglądu na to, co jest prawdą, a co nieprawdą, zbawienną i szkodliwą informacją, uprzedzając w ten sposób proces demokratyczny, w ramach którego obywatele sami oceniają te kwestie.

9. Nie jest również jasne, jakie mechanizmy kontroli i równowagi zostaną wprowadzone, aby zapobiec przekształceniu DSA w broń służącą ulubionym celom Komisji Europejskiej, czy to wojnie na Ukrainie, przyjmowaniu szczepionek, polityce klimatycznej czy "wojnie z terroryzmem". Szerokie uprawnienia do ogłaszania stanu zagrożenia publicznego i wymagania od platform przeprowadzania "ocen" ich polityk w odpowiedzi na to, w połączeniu z szerokim uznaniowym uprawnieniem do nakładania grzywien na platformy internetowe za "nieprzestrzeganie" z natury niejasnych "obowiązków należytej staranności", dają Komisji dużą swobodę panowania nad platformami internetowymi i wywierania na nie presji w celu promowania jej ulubionej narracji politycznej.

10. Jednym ze szczególnie podstępnych aspektów tej ustawy jest to, że Komisja skutecznie czyni dezinformację nielegalną * tylnymi drzwiami*, że tak powiem. Zamiast jasno zdefiniować, co rozumie przez "dezinformację" i uczynić ją nielegalną - co prawdopodobnie wywołałoby wrzawę - Komisja nakłada wymóg "należytej staranności" na duże platformy internetowe, takie jak Twitter i Facebook, w celu podjęcia uznaniowych środków przeciwko dezinformacji i złagodzenia "ryzyka systemowego" na swoich platformach (które obejmuje ryzyko "dezinformacji w zakresie zdrowia publicznego"). Przypuszczalnie okresowe audyty zgodności tych firm z ustawą będą niemile patrzeć na politykę, która ledwo egzekwuje zasady dezinformacji.

Tak więc efektem netto ustawy byłoby wywarcie niemal nieodpartej presji na platformy mediów społecznościowych, aby grały w grę "przeciwdziałania dezinformacji" w sposób, który przeszedłby kontrolę audytorów Komisji, a tym samym uniknąłby wysokich grzywien. Istnieje duża niepewność co do tego, jak rygorystyczne lub pobłażliwe byłyby takie audyty i jakie rodzaje niezgodności mogłyby spowodować nałożenie sankcji finansowych. To dość dziwne, że regulacja prawna, która rzekomo ma bronić wolności słowa, zdałaby los wolności słowa na łaskę wysoce uznaniowych i z natury nieprzewidywalnych osądów niewybranych urzędników.

Jedyną nadzieją jest to, że ten brzydki, skomplikowany i regresywny akt prawny trafi do sędziego, który zrozumie, że wolność słowa nic nie znaczy, jeśli jest zakładnikiem poglądów Komisji Europejskiej na temat gotowości na wypadek pandemii, wojny rosyjsko-ukraińskiej lub tego, co liczy się jako "obraźliwa" lub "nienawistna" mowa.

**Source

Brak komentarzy:

Prześlij komentarz