Sztuczna inteligencja (AI) stała się tak ważną częścią naszego codziennego życia, że trudno jej uniknąć – nawet jeśli jej nie rozpoznajemy. Podczas gdy ChatGPT i wykorzystanie algorytmów w mediach społecznościowych cieszą się dużym zainteresowaniem, ważnym obszarem, w którym AI obiecuje mieć wpływ, jest prawo. Pomysł, aby sztuczna inteligencja decydowała o winie w postępowaniu sądowym, może wydawać się naciągany, ale teraz musimy poważnie się nad nim zastanowić.
To dlatego, że rodzi pytania o kompatybilność AI z prowadzeniem uczciwych procesów. UE uchwaliła przepisy mające na celu określenie, w jaki sposób sztuczna inteligencja może i nie może być wykorzystywana w prawie karnym.
W Ameryce Północnej algorytmy zaprojektowane w celu wspierania uczciwych procesów są już w użyciu. Należą do nich Compas, ocena bezpieczeństwa publicznego (PSA) i przedprocesowy instrument oceny ryzyka (PTRA). The EU has enacted legislation designed to govern how AI can and can’t Compas, the Public Safety Assessment (PSA)
W listopadzie 2022 r. Izba Lordów published a report opublikowała raport dotyczący wykorzystania technologii sztucznej inteligencji w brytyjskim systemie wymiaru sprawiedliwości w sprawach karnych.
Algorytmy wspomagające
Z jednej strony byłoby fascynujące zobaczyć, jak sztuczna inteligencja może znacząco usprawnić wymiar sprawiedliwości w dłuższej perspektywie, np. obniżyć koszty usług sądowych czy prowadzić postępowania sądowe w sprawach o drobne wykroczenia. Systemy sztucznej inteligencji mogą uniknąć typowych błędów ludzkiej psychologii i mogą podlegać rygorystycznym kontrolom. Dla niektórych mogą być nawet bardziej bezstronni niż zwykli sędziowie.
Ponadto algorytmy mogą generować dane, aby pomóc prawnikom zidentyfikować precedensy w orzecznictwie, znaleźć sposoby na usprawnienie procedur sądowych i wesprzeć sędziów. Z drugiej strony, powtarzalne zautomatyzowane decyzje algorytmów mogą prowadzić do braku kreatywności w interpretacji prawa, co może skutkować spowolnieniem lub zatrzymaniem rozwoju systemu prawnego.
Narzędzia sztucznej inteligencji przeznaczone do wykorzystania w procesie muszą być zgodne z szeregiem europejskich instrumentów prawnych, które określają standardy w zakresie poszanowania praw człowieka. Obejmują one Europejską Komisję Proceduralną na rzecz Efektywności Wymiaru Sprawiedliwości, Europejską kartę etyczną dotyczącą wykorzystania sztucznej inteligencji w systemach sądowych i ich środowisku (2018 r.) oraz inne przepisy przyjęte w ostatnich latach w celu ukształtowania skutecznych ram dotyczących wykorzystania i ograniczeń
AI w sądownictwie karnym. Potrzebujemy jednak również skutecznych mechanizmów nadzoru, takich jak sędziowie i komisje. Kontrolowanie i zarządzanie sztuczną inteligencją jest wyzwaniem i obejmuje różne dziedziny prawa, takie jak prawo ochrony danych, prawo ochrony konsumentów i prawo konkurencji, a także kilka innych dziedzin, takich jak prawo pracy. Na przykład decyzje podejmowane przez maszynę podlegają bezpośrednio RODO, Ogólnemu Rozporządzeniu o Ochronie Danych Osobowych, w tym podstawowemu wymogowi rzetelności i odpowiedzialności.
W RODO znajdują się przepisy zapobiegające temu, by ludzie podlegali wyłącznie zautomatyzowanym decyzjom, bez interwencji człowieka. Dyskusje na temat tej zasady toczyły się także w innych dziedzinach prawa. Problem już jest z nami: w Stanach Zjednoczonych narzędzia „oceny ryzyka” zostały wykorzystane do wspomagania ocen przedprocesowych, które określają, czy oskarżony powinien zostać zwolniony za kaucją, czy przetrzymywany w oczekiwaniu na proces. Jednym z przykładów jest algorytm Compas w USA, który został zaprojektowany do obliczania ryzyka recydywy – ryzyka dalszego popełniania przestępstw nawet po ukaraniu. Pojawiły się jednak oskarżenia – zdecydowanie odrzucone przez stojącą za nim firmę – że algorytm Compas ma niezamierzone uprzedzenia rasowe.
W 2017 roku mężczyzna z Wisconsin sentenced to six years in prison został skazany na sześć lat więzienia w wyroku opartym częściowo na jego wyniku w Compas. Prywatna firma będąca właścicielem Compas uważa swój algorytm za tajemnicę handlową. Ani sądy, ani pozwani nie mogą zatem badać zastosowanego wzoru matematycznego.
W kierunku zmian społecznych?
Ponieważ prawo jest uważane za naukę humanistyczną, istotne jest, aby narzędzia sztucznej inteligencji pomagały sędziom i prawnikom, a nie zastępowały ich.
Podobnie jak we współczesnych demokracjach, sprawiedliwość następuje po podziale władzy. Jest to zasada, według której instytucje państwowe, takie jak ustawodawca, który stanowi prawo, i sądownictwo, system sądów stosujących prawo, są wyraźnie podzielone. Ma to na celu ochronę swobód obywatelskich i ochronę przed tyranią. Wykorzystanie sztucznej inteligencji do podejmowania decyzji procesowych mogłoby zachwiać równowagą sił między władzą ustawodawczą a sądownictwem poprzez kwestionowanie praw człowieka i procesu decyzyjnego. W konsekwencji sztuczna inteligencja może doprowadzić do zmiany naszych wartości.
A ponieważ wszelkiego rodzaju dane osobowe mogą być wykorzystywane do analizowania, prognozowania i wpływania na ludzkie działania, wykorzystanie sztucznej inteligencji może na nowo zdefiniować, co jest uważane za złe i właściwe zachowanie – być może bez żadnych niuansów. Łatwo też sobie wyobrazić, jak sztuczna inteligencja stanie się zbiorową inteligencją. Collective AI po cichu pojawiło się w dziedzinie robotyki. Na przykład drony mogą komunikować się ze sobą, aby latać w szyku. W przyszłości możemy sobie wyobrazić coraz więcej maszyn komunikujących się ze sobą
Brak komentarzy:
Prześlij komentarz