poniedziałek, 28 marca 2022

Ustawa o bezpieczeństwie dzieci w Internecie jest planem ciężkiej ręki, aby zmusić platformy do szpiegowania dzieci




Umieszczanie dzieci pod nadzorem i ograniczanie ich dostępu do informacji nie czyni ich bezpieczniejszymi - w rzeczywistości, badania sugerują coś wręcz przeciwnego. Niestety, taktyka ta jest popierana przez ustawę Kids Online Safety Act of 2022 (KOSA), wprowadzoną przez senatorów Blumenthala i Blackburna. Projekt ustawy zasługuje na uznanie za próbę poprawy ochrony prywatności młodych ludzi w internecie oraz za próbę aktualizacji przepisów z 1998 r. dotyczących ochrony prywatności dzieci w internecie (COPPA). Jednak zawarty w niej plan wprowadzenia wymogu nadzoru i cenzury wobec osób poniżej szesnastego roku życia znacznie zagroziłby prawom i bezpieczeństwu młodych ludzi w sieci.

KOSA wymagałaby następujących działań:

    Nowy obowiązek prawny dla platform, aby zapobiegać pewnym szkodom: KOSA określa szeroki zbiór treści, za które platformy mogą zostać pozwane, jeśli młodzi ludzie się z nimi zetkną, w tym "promowanie samookaleczeń, samobójstw, zaburzeń odżywiania, nadużywania substancji oraz innych spraw, które stanowią zagrożenie dla zdrowia fizycznego i psychicznego osób niepełnoletnich".
    Zmuszanie platform do udostępniania danych badaczom
    rozbudowany system weryfikacji wieku, prawdopodobnie prowadzony przez zewnętrznego dostawcę
    Kontrola rodzicielska, włączona i ustawiona na najwyższe ustawienia, w celu blokowania lub filtrowania szerokiego zakresu treści

Plan ten budzi wiele zastrzeżeń. Kontrola rodzicielska wymagałaby w efekcie od ogromnej liczby platform internetowych stworzenia systemów umożliwiających rodzicom szpiegowanie i kontrolowanie rozmów, jakie młodzi ludzie mogą prowadzić w sieci, a także domyślnego włączenia tych systemów. Prawdopodobnie doprowadziłoby to także do dalszego śledzenia wszystkich użytkowników.

Gromadzenie danych jest plagą dla każdego użytkownika Internetu, niezależnie od wieku.

Aby uniknąć odpowiedzialności za wyrządzenie wymienionych szkód, niemal każda platforma internetowa ukryłaby lub usunęła znaczną część treści. A ponieważ każdy z wymienionych obszarów problemowych wiąże się z istotnymi szarymi strefami, platformy będą nadmiernie cenzurować, próbując uniknąć nowego ryzyka odpowiedzialności.

Wymagania te byłyby stosowane znacznie szerzej niż prawo, które KOSA ma nadzieję zaktualizować - COPPA. Podczas gdy COPPA ma zastosowanie do osób poniżej trzynastego roku życia, KOSA miałaby zastosowanie do osób poniżej szesnastego roku życia - grupy wiekowej, która według organizacji praw dziecka ma większą potrzebę prywatności i niezależności niż młodsze nastolatki i dzieci. W przeciwieństwie do systemu samoweryfikacji wieku COPPA, KOSA upoważniałaby do przeprowadzenia federalnego badania "najbardziej technologicznie wykonalnych opcji rozwoju systemów weryfikacji wieku na poziomie urządzenia lub systemu operacyjnego".

Systemy weryfikacji wieku są kłopotliwe - wymaganie takich systemów mogłoby przekazać znaczne uprawnienia i prywatne dane firmom zewnętrznym zajmującym się weryfikacją tożsamości, takim jak Clear czy ID.me. Dodatkowo, taki system prawdopodobnie skłoniłby platformy do stworzenia rozbudowanych systemów weryfikacji wieku dla wszystkich, co oznaczałoby, że wszyscy użytkownicy musieliby podawać swoje dane osobowe.

Wreszcie, niezwykle szeroka definicja platformy objętej ustawą KOSA obejmowałaby każdą "komercyjną aplikację lub usługę elektroniczną, która łączy się z Internetem i jest używana, lub istnieje uzasadnione prawdopodobieństwo, że będzie używana, przez osobę niepełnoletnią".

Prawdopodobnie obejmowałoby to wszystko, od iMessage i Signal firmy Apple, po przeglądarki internetowe, aplikacje pocztowe i oprogramowanie VPN, a także platformy takie jak Facebook i TikTok - platformy o bardzo różnych bazach użytkowników i zastosowaniach.

Nie jest też jasne, jak głęboko w "stosie technologicznym" sięgałby taki wymóg - hosty internetowe czy rejestry domen prawdopodobnie nie są platformami, które miałyby być objęte KOSA, ale w zależności od interpretacji mogłyby podlegać jego wymogom.

Ponadto, projekt ustawy budzi obawy co do tego, jak dostawcy szyfrowanych na całej długości platform komunikacyjnych, takich jak iMessage, Signal i WhatsApp, będą interpretować swój obowiązek monitorowania komunikacji nieletnich, co może spowodować, że firmy będą po prostu rezygnować z szyfrowania, aby uniknąć sporu sądowego.
Cenzura nie jest rozwiązaniem

KOSA zmusiłaby strony internetowe do stosowania filtrów w celu blokowania treści - filtrów, które, jak wielokrotnie się przekonaliśmy, nie są w stanie prawidłowo odróżnić "dobrych" wypowiedzi od "złych". Rodzaje treści, których dotyczy KOSA, są złożone i często niebezpieczne - ale dyskutowanie o nich nie jest z założenia złe.

Bardzo trudno jest rozróżnić, czy nieletni prowadzą dyskusje na te tematy w sposób, który do nich zachęca, czy też w sposób, który do nich zniechęca. Zgodnie z tą ustawą wszelkie dyskusje i przeglądanie tych tematów przez nieletnich powinny być blokowane.

Prawo wymaga, by platformy zakazały potencjalnie nieskończonej kategorii "innych spraw, które stanowią zagrożenie dla zdrowia fizycznego i psychicznego nieletnich".
 

Istnieją już badania pokazujące, że takie zakazy nie działają: kiedy Tumblr zakazał dyskusji o anoreksji, okazało się, że słowa kluczowe używane w treściach promujących anoreksję były tymi samymi, których używano, aby zniechęcić do anoreksji. Inne badania wykazały, że takie zakazy w rzeczywistości ułatwiają wyszukiwanie treści, ponieważ zmuszają ludzi do tworzenia nowych słów kluczowych do dyskusji na ich temat (na przykład "thinspiration" stało się "thynsperation").

Prawo wymaga również od platform zakazania potencjalnie nieskończonej kategorii "innych spraw, które stanowią zagrożenie dla zdrowia fizycznego i psychicznego osób niepełnoletnich". Jak widzieliśmy w przeszłości, gdy legalność materiału jest przedmiotem interpretacji, istnieje większe prawdopodobieństwo, że zostanie on całkowicie zakazany, co pozostawia ogromne luki w zakresie informacji dostępnych w sieci. Prawo to poważnie zagroziłoby dostępowi do informacji dla nastolatków, którzy mogą chcieć zgłębiać idee bez wiedzy lub zgody rodziców.

Na przykład mogą mieć pytania dotyczące zdrowia seksualnego, o które nie czują się bezpiecznie pytać rodziców, albo mogą chcieć pomóc koledze z zaburzeniami odżywiania lub problemem z nadużywaniem substancji psychoaktywnych. (Badania wykazały, że znaczna większość młodych ludzi korzystała z Internetu w celu poszukiwania informacji na temat zdrowia).

KOSA umożliwiłaby poszczególnym stanowym prokuratorom generalnym wnoszenie pozwów przeciwko platformom, jeśli mieszkańcy danego stanu są "zagrożeni lub dotknięci negatywnymi skutkami zaangażowania jakiejkolwiek osoby w praktykę naruszającą niniejszą ustawę". Pozostawia to w gestii poszczególnych stanowych prokuratorów generalnych decyzję, jakie tematy stanowią zagrożenie dla zdrowia fizycznego i psychicznego nieletnich. Współautorka ustawy, senator Blackburn z Tennessee, określiła edukację na temat dyskryminacji rasowej jako "niebezpieczną dla dzieci". Wiele stanów zgodziło się z tym stwierdzeniem i ostatnio wprowadziło ograniczenia w publicznej edukacji na temat historii dyskryminacji rasowej, płciowej i seksualnej.

Niedawno gubernator Teksasu nakazał stanowemu Departamentowi ds. Rodziny i Opieki Społecznej zbadanie, czy opieka nad dziećmi z zaburzeniami identyfikacji płciowej nie jest wykorzystywana. KOSA upoważniłaby prokuratora generalnego Teksasu do definiowania materiałów szkodliwych dla dzieci, a obecne stanowisko stanu obejmowałoby zasoby dla młodzieży transseksualnej. Dzięki temu stan mógłby zmusić serwisy internetowe do usuwania i blokowania dostępu do takich materiałów wszędzie - nie tylko w Teksasie. Nie wspominając już o częstym myleniu przez platformy technologiczne treści LGBTQ z niebezpiecznymi materiałami "o charakterze seksualnym". KOSA może doprowadzić do utraty dostępu do informacji, co do których zdecydowana większość ludzi zgodziłaby się, że nie są niebezpieczne, ale są atakowane politycznie.
Inwigilacja nie jest rozwiązaniem

KOSA wywołuje pewne uzasadnione obawy. Gromadzenie danych jest plagą dla każdego użytkownika Internetu, niezależnie od wieku. Inwazyjne śledzenie młodych ludzi przez platformy internetowe jest szczególnie szkodliwe - EFF od dawna sprzeciwia się na przykład zdalnemu proctoringowi.

Odpowiedzią na nasz brak prywatności nie jest jednak więcej śledzenia. Pomimo wszechobecności technologii, która to ułatwia, nadzór nad młodymi ludźmi jest dla nich szkodliwy, nawet w najzdrowszych gospodarstwach domowych, i nie jest rozwiązaniem, które pomoże im poruszać się w Internecie. Rodzice mają interes w decydowaniu o tym, co ich dzieci mogą oglądać w sieci, ale nikt nie może twierdzić, że interes ten jest taki sam, jeśli dziecko ma pięć czy piętnaście lat.

Dzięki KOSA wszystkie dzieci poniżej szesnastego roku życia znalazłyby się w tej samej grupie, co wymagałoby ukrywania przed nimi określonych treści, a także śledzenia i rejestrowania innych treści przez narzędzia dla rodziców. Zmusiłoby to platformy do ściślejszego monitorowania tego, co robią wszyscy użytkownicy.

Mechanizmy kontroli rodzicielskiej KOSA domyślnie dawałyby rodzicom dostęp do monitorowania i kontrolowania korzystania z Internetu przez młodych ludzi. Podczas gdy narzędzie takie jak Screen Time firmy Apple pozwala rodzicom ograniczyć dostęp do określonych aplikacji lub ograniczyć korzystanie z nich do określonych godzin, platformy musiałyby zrobić znacznie więcej w ramach KOSA.

Musiałyby oferować rodzicom możliwość modyfikowania wyników wszelkich algorytmicznych systemów rekomendacji, "w tym prawo do rezygnacji lub obniżenia rangi typów lub kategorii rekomendacji", skutecznie decydując za młodych ludzi o tym, co widzą - lub czego nie widzą - w sieci. Dałoby to również rodzicom możliwość całkowitego usunięcia konta dziecka, jeśli nie są zadowoleni z korzystania przez nie z platformy.

Odpowiedzią na nasz brak prywatności nie jest więcej śledzenia.

Projekt ustawy dotyczy systemów algorytmicznych, wymagając od platform "przeglądu sposobu, w jaki algorytmiczne systemy rekomendacji są wykorzystywane (...) do dostarczania informacji użytkownikom platformy, którzy są niepełnoletni, w tym sposobu, w jaki takie systemy wykorzystują dane osobowe należące do niepełnoletnich". Przejrzystość działania algorytmów platformy oraz narzędzia pozwalające użytkownikom na otwieranie i tworzenie własnych kanałów są kluczowe dla szerszego zrozumienia algorytmicznej kurateli, rodzaju treści, do których może ona zachęcać, oraz konsekwencji, jakie może mieć.

 

EFF popiera także umożliwienie użytkownikom większej kontroli nad treściami, które widzą w Internecie. KOSA wymaga jednak, aby rodzice mogli zrezygnować z rekomendacji lub obniżyć ich rangę bez zgody lub wiedzy użytkownika, w tym nastolatków.

Wreszcie, zgodnie z KOSA, platformy będą musiały zapobiegać wzorcom korzystania wskazującym na uzależnienie oraz oferować rodzicom możliwość ograniczenia funkcji, które "zwiększają, podtrzymują lub rozszerzają korzystanie z platformy objętej programem przez osobę niepełnoletnią, takich jak automatyczne odtwarzanie mediów, nagrody za czas spędzony na platformie oraz powiadomienia". O ile minimalizowanie ciemnych wzorców, które mogą nakłaniać użytkowników do podawania danych osobowych, jest celem godnym pochwały, o tyle określenie, jakie funkcje "powodują uzależnienie", jest bardzo trudne.

Jeśli szesnastolatek spędza trzy godziny dziennie na Discordzie, pracując nad zadaniami szkolnymi lub dyskutując z przyjaciółmi o muzyce, czy można to uznać za zachowanie "uzależniające"? KOSA prawdopodobnie obejmowałaby tak różne funkcje, jak automatyczne odtwarzanie odcinków w serwisie Netflix czy powiadomienia o nowych wiadomościach w aplikacji iMessage. Łączenie tych funkcji pod pojęciem "uzależniające" nie pozwala zrozumieć, które z ciemnych wzorców faktycznie szkodzą użytkownikom, w tym młodym ludziom.

EFF od dawna popiera kompleksowe przepisy dotyczące prywatności danych dla wszystkich użytkowników. Jednak ustawa o bezpieczeństwie dzieci w sieci nie chroni prywatności dzieci ani dorosłych. Jest to plan wymuszenia na firmach technologicznych szpiegowania młodych ludzi i uniemożliwienia im dostępu do treści, które nie leżą "w ich najlepszym interesie", zgodnie z definicją rządu i interpretacją platform technologicznych.

**By Jason Kelley

**Source

Brak komentarzy:

Prześlij komentarz