wtorek, 23 maja 2023

Sztuczna inteligencja jest już wykorzystywana w systemie prawnym — musimy zwracać większą uwagę na to, jak z niej korzystamy

 

 Sztuczna inteligencja (AI) stała się tak ważną częścią naszego codziennego życia, że trudno jej uniknąć – nawet jeśli jej nie rozpoznajemy. Podczas gdy ChatGPT i wykorzystanie algorytmów w mediach społecznościowych cieszą się dużym zainteresowaniem, ważnym obszarem, w którym AI obiecuje mieć wpływ, jest prawo. Pomysł, aby sztuczna inteligencja decydowała o winie w postępowaniu sądowym, może wydawać się naciągany, ale teraz musimy poważnie się nad nim zastanowić.  

To dlatego, że rodzi pytania o kompatybilność AI z prowadzeniem uczciwych procesów. UE uchwaliła przepisy mające na celu określenie, w jaki sposób sztuczna inteligencja może i nie może być wykorzystywana w prawie karnym. W Ameryce Północnej algorytmy zaprojektowane w celu wspierania uczciwych procesów są już w użyciu. Należą do nich Compas, ocena bezpieczeństwa publicznego (PSA) i przedprocesowy instrument oceny ryzyka (PTRA).  The EU has enacted legislation designed to govern how AI can and can’t  Compas, the Public Safety Assessment (PSA)

W listopadzie 2022 r. Izba Lordów  published a report opublikowała raport dotyczący wykorzystania technologii sztucznej inteligencji w brytyjskim systemie wymiaru sprawiedliwości w sprawach karnych.

  Algorytmy wspomagające 

 Z jednej strony byłoby fascynujące zobaczyć, jak sztuczna inteligencja może znacząco usprawnić wymiar sprawiedliwości w dłuższej perspektywie, np. obniżyć koszty usług sądowych czy prowadzić postępowania sądowe w sprawach o drobne wykroczenia. Systemy sztucznej inteligencji mogą uniknąć typowych błędów ludzkiej psychologii i mogą podlegać rygorystycznym kontrolom. Dla niektórych mogą być nawet bardziej bezstronni niż zwykli sędziowie.  

Ponadto algorytmy mogą generować dane, aby pomóc prawnikom zidentyfikować precedensy w orzecznictwie, znaleźć sposoby na usprawnienie procedur sądowych i wesprzeć sędziów. Z drugiej strony, powtarzalne zautomatyzowane decyzje algorytmów mogą prowadzić do braku kreatywności w interpretacji prawa, co może skutkować spowolnieniem lub zatrzymaniem rozwoju systemu prawnego.  

Narzędzia sztucznej inteligencji przeznaczone do wykorzystania w procesie muszą być zgodne z szeregiem europejskich instrumentów prawnych, które określają standardy w zakresie poszanowania praw człowieka. Obejmują one Europejską Komisję Proceduralną na rzecz Efektywności Wymiaru Sprawiedliwości, Europejską kartę etyczną dotyczącą wykorzystania sztucznej inteligencji w systemach sądowych i ich środowisku (2018 r.) oraz inne przepisy przyjęte w ostatnich latach w celu ukształtowania skutecznych ram dotyczących wykorzystania i ograniczeń 

AI w sądownictwie karnym. Potrzebujemy jednak również skutecznych mechanizmów nadzoru, takich jak sędziowie i komisje. Kontrolowanie i zarządzanie sztuczną inteligencją jest wyzwaniem i obejmuje różne dziedziny prawa, takie jak prawo ochrony danych, prawo ochrony konsumentów i prawo konkurencji, a także kilka innych dziedzin, takich jak prawo pracy. Na przykład decyzje podejmowane przez maszynę podlegają bezpośrednio RODO, Ogólnemu Rozporządzeniu o Ochronie Danych Osobowych, w tym podstawowemu wymogowi rzetelności i odpowiedzialności. 

 W RODO znajdują się przepisy zapobiegające temu, by ludzie podlegali wyłącznie zautomatyzowanym decyzjom, bez interwencji człowieka. Dyskusje na temat tej zasady toczyły się także w innych dziedzinach prawa. Problem już jest z nami: w Stanach Zjednoczonych narzędzia „oceny ryzyka” zostały wykorzystane do wspomagania ocen przedprocesowych, które określają, czy oskarżony powinien zostać zwolniony za kaucją, czy przetrzymywany w oczekiwaniu na proces. Jednym z przykładów jest algorytm Compas w USA, który został zaprojektowany do obliczania ryzyka recydywy – ryzyka dalszego popełniania przestępstw nawet po ukaraniu. Pojawiły się jednak oskarżenia – zdecydowanie odrzucone przez stojącą za nim firmę – że algorytm Compas ma niezamierzone uprzedzenia rasowe. 

 W 2017 roku mężczyzna z Wisconsin sentenced to six years in prison został skazany na sześć lat więzienia w wyroku opartym częściowo na jego wyniku w Compas. Prywatna firma będąca właścicielem Compas uważa swój algorytm za tajemnicę handlową. Ani sądy, ani pozwani nie mogą zatem badać zastosowanego wzoru matematycznego.  

W kierunku zmian społecznych? 

 Ponieważ prawo jest uważane za naukę humanistyczną, istotne jest, aby narzędzia sztucznej inteligencji pomagały sędziom i prawnikom, a nie zastępowały ich. 

 Podobnie jak we współczesnych demokracjach, sprawiedliwość następuje po podziale władzy. Jest to zasada, według której instytucje państwowe, takie jak ustawodawca, który stanowi prawo, i sądownictwo, system sądów stosujących prawo, są wyraźnie podzielone. Ma to na celu ochronę swobód obywatelskich i ochronę przed tyranią. Wykorzystanie sztucznej inteligencji do podejmowania decyzji procesowych mogłoby zachwiać równowagą sił między władzą ustawodawczą a sądownictwem poprzez kwestionowanie praw człowieka i procesu decyzyjnego. W konsekwencji sztuczna inteligencja może doprowadzić do zmiany naszych wartości.  

A ponieważ wszelkiego rodzaju dane osobowe mogą być wykorzystywane do analizowania, prognozowania i wpływania na ludzkie działania, wykorzystanie sztucznej inteligencji może na nowo zdefiniować, co jest uważane za złe i właściwe zachowanie – być może bez żadnych niuansów. Łatwo też sobie wyobrazić, jak sztuczna inteligencja stanie się zbiorową inteligencją. Collective AI po cichu pojawiło się w dziedzinie robotyki. Na przykład drony mogą komunikować się ze sobą, aby latać w szyku. W przyszłości możemy sobie wyobrazić coraz więcej maszyn komunikujących się ze sobą

tam do wykonania wszelkiego rodzaju zadań. Stworzenie algorytmu bezstronności wymiaru sprawiedliwości może oznaczać, że uważamy algorytm za bardziej zdolny niż ludzki sędzia. Możemy nawet być gotowi powierzyć temu narzędziu los własnego życia. Być może pewnego dnia wyewoluujemy w społeczeństwo podobne do tego przedstawionego w serii powieści science fiction 
 
The Robot Cycle autorstwa Isaaca Asimova, w której roboty mają inteligencję podobną do ludzi i przejmują kontrolę nad różnymi aspektami społeczeństwa. Świat, w którym kluczowe decyzje są przekazywane nowej technologii, budzi strach u wielu ludzi, być może dlatego, że obawiają się, że może to wymazać to, co zasadniczo czyni nas ludźmi. Jednocześnie sztuczna inteligencja jest potężnym narzędziem, które może ułatwić nam codzienne życie.  
 
W ludzkim rozumowaniu inteligencja nie reprezentuje stanu doskonałości ani nieomylnej logiki. Na przykład błędy odgrywają ważną rolę w ludzkim zachowaniu. Pozwalają nam ewoluować w kierunku konkretnych rozwiązań, które pomagają nam ulepszać to, co robimy. Jeśli chcemy rozszerzyć wykorzystanie sztucznej inteligencji w naszym codziennym życiu, mądrze byłoby nadal kierować się ludzkim rozumowaniem.
 
Rozmowa 
 

**By Morgiane Noel

**Source


Brak komentarzy:

Prześlij komentarz