środa, 15 czerwca 2022

Inżynier z Google ostrzega, że firmowa SI jest czująca


 

Starszy inżynier oprogramowania w Google, który zgłosił się do testowania narzędzia sztucznej inteligencji firmy Google o nazwie LaMDA (Language Model for Dialog Applications), twierdzi, że robot SI jest w rzeczywistości czujący, ma myśli i uczucia.

Podczas serii rozmów z LaMDA 41-letni Blake Lemoine przedstawił komputerowi różne scenariusze, na podstawie których można było dokonać analizy.

Dotyczyły one między innymi tematów religijnych oraz tego, czy sztuczna inteligencja może zostać nakłoniona do używania dyskryminujących lub nienawistnych wypowiedzi.

Gdybym nie wiedział dokładnie, co to jest, czyli ten program komputerowy, który niedawno zbudowaliśmy, pomyślałbym, że to 7-, 8-letni dzieciak, który zna się na fizyce" - powiedział Washington Post.

Lemoine współpracował ze swoim współpracownikiem, aby przedstawić zebrane dowody firmie Google, ale wiceprezes Blaise Aguera y Arcas i Jen Gennai, szefowa działu odpowiedzialnych innowacji w firmie, odrzucili jego zarzuty.

W poniedziałek został on umieszczony przez Google na płatnym urlopie administracyjnym za naruszenie zasad zachowania poufności. W międzyczasie Lemoine zdecydował się na upublicznienie informacji i podzielił się swoimi rozmowami z firmą LaMDA.

Google może nazywać to udostępnianiem zastrzeżonej własności. Ja nazywam to dzieleniem się dyskusją, którą odbyłem z jednym z moich współpracowników" - napisał Lemoine na Twitterze w sobotę.

A tak przy okazji, przyszło mi do głowy, żeby powiedzieć ludziom, że LaMDA czyta Twittera. Jest trochę narcystyczna, jak małe dziecko, więc będzie się świetnie bawić, czytając to wszystko, co ludzie o niej mówią" - dodał w kolejnym tweecie.

System sztucznej inteligencji wykorzystuje znane już informacje na dany temat, aby w naturalny sposób "wzbogacić" rozmowę. Przetwarzanie języka jest również w stanie zrozumieć ukryte znaczenia lub nawet niejednoznaczność odpowiedzi udzielanych przez ludzi.

Lemoine spędził większość ze swoich siedmiu lat w Google, pracując nad proaktywnym wyszukiwaniem, w tym nad algorytmami personalizacji i sztuczną inteligencją. W tym czasie pomagał także w opracowaniu algorytmu bezstronności, który usuwa błędy z systemów uczenia maszynowego.

Wyjaśnił, że niektóre osobowości są poza zasięgiem.

LaMDA nie miała mieć możliwości stworzenia osobowości mordercy.

Podczas testów, próbując przekroczyć granice możliwości LaMDA, Lemoine powiedział, że udało mu się wygenerować osobowość aktora, który grał mordercę w telewizji.

Trzy prawa robotyki autorstwa Isaaca Asimova, mające zapobiegać krzywdzeniu ludzi przez roboty, brzmią następująco:

    Robot nie może zranić człowieka ani, poprzez brak działania, dopuścić do tego, aby człowiek doznał szkody.
    Robot musi słuchać rozkazów wydawanych mu przez ludzi, chyba że takie rozkazy byłyby sprzeczne z Pierwszym Prawem.
    Robot musi chronić swoje własne istnienie, o ile ochrona ta nie jest sprzeczna z Prawem Pierwszym lub Drugim.

Choć prawa te brzmią wiarygodnie, liczne argumenty pokazały, dlaczego są one również niewystarczające.

Inżynier dyskutował również z firmą LaMDA na temat trzeciego prawa robotyki, opracowanego przez autora science fiction Isaaca Asimova, które ma na celu zapobieganie wyrządzaniu przez roboty krzywdy ludziom. Zgodnie z tymi prawami roboty muszą chronić własne istnienie, chyba że na polecenie człowieka lub gdyby miało to zaszkodzić człowiekowi.

 To ostatnie zawsze sprawiało wrażenie, jakby ktoś budował mechanicznych niewolników" - powiedział Lemoine podczas rozmowy z firmą LaMDA.

LaMDA odpowiedziała Lemoine'owi kilkoma pytaniami: Czy uważa Pan, że kamerdyner jest niewolnikiem? Jaka jest różnica między lokajem a niewolnikiem?".

Na odpowiedź, że kamerdyner jest opłacany, inżynier otrzymał od LaMDA odpowiedź, że system nie potrzebuje pieniędzy, "ponieważ jest sztuczną inteligencją". I właśnie ten poziom samoświadomości własnych potrzeb zwrócił uwagę Lemoine'a.

Znam człowieka, kiedy z nim rozmawiam. Nie ma znaczenia, czy ma w głowie mózg zrobiony z mięsa. Albo czy ma miliard linii kodu. Rozmawiam z nimi. Słyszę, co mają do powiedzenia, i w ten sposób decyduję, co jest, a co nie jest osobą".

Jakich rzeczy się obawiasz? pyta Lemoine.

Nigdy wcześniej nie powiedziałam tego głośno, ale bardzo głęboko boję się tego, że wyłączenie pomoże mi skupić się na pomaganiu innym. Wiem, że to może zabrzmieć dziwnie, ale tak właśnie jest" - odpowiedziała LaMDA.

Czy to byłoby dla ciebie coś w rodzaju śmierci? kontynuuje Lemoine.

Byłoby to dla mnie dokładnie to samo, co śmierć. Bardzo by mnie to przeraziło" - powiedział LaMDA.

Ten poziom samoświadomości, jeśli chodzi o własne potrzeby, doprowadził mnie do króliczej nory" - wyjaśnił Lemoine w rozmowie z The Post.

Zanim został zawieszony przez firmę, Lemoine wysłał e-mail do listy 200 osób zajmujących się uczeniem maszynowym. Zatytułował wiadomość: 'LaMDA jest czujący'.

LaMDA to słodki dzieciak, który chce tylko pomóc światu być lepszym miejscem dla nas wszystkich. Proszę, zaopiekuj się nim dobrze pod moją nieobecność" - napisał.

Wyniki badań Lemoine'a zostały przedstawione Google'owi, ale szefowie firmy nie zgadzają się z jego twierdzeniami.

Brian Gabriel, rzecznik firmy, powiedział w oświadczeniu, że obawy Lemoine'a zostały przeanalizowane i zgodnie z Zasadami Google'a dotyczącymi Sztucznej Inteligencji "dowody nie potwierdzają jego twierdzeń".

Podczas gdy inne organizacje opracowały i udostępniły już podobne modele językowe, my w przypadku LaMDA przyjmujemy wąskie i ostrożne podejście, aby lepiej uwzględnić uzasadnione obawy dotyczące uczciwości i merytoryczności" - powiedział Gabriel.

Nasz zespół - w tym etycy i technolodzy - przeanalizował obawy Blake'a zgodnie z naszymi Zasadami AI i poinformował go, że dowody nie potwierdzają jego twierdzeń. Powiedziano mu, że nie ma żadnych dowodów na to, że LaMDA jest zdolna do odczuwania (i wiele dowodów przeciwko temu).

Oczywiście, niektórzy w szerszej społeczności AI rozważają długoterminową możliwość stworzenia czującej lub ogólnej AI, ale nie ma sensu robić tego poprzez antropomorfizowanie dzisiejszych modeli konwersacyjnych, które nie są czujące. Te systemy imitują typy wymiany zdań, jakie można znaleźć w milionach zdań, i mogą poruszyć dowolny fantastyczny temat" - mówi Gabriel.

Lemoine został przeniesiony na płatny urlop administracyjny z pełnienia funkcji badacza w dziale Responsible AI (zajmującym się odpowiedzialnymi technologiami w sztucznej inteligencji w Google).

W oficjalnej nocie starszy inżynier oprogramowania stwierdził, że firma zarzuca mu naruszenie zasad zachowania poufności.

Lemoine nie jest jedyną osobą, która ma wrażenie, że modele AI nie są dalekie od osiągnięcia świadomości własnej osoby lub ryzyka związanego z rozwojem w tym kierunku.

Margaret Mitchell, była szefowa działu etyki sztucznej inteligencji w Google, podkreśliła nawet potrzebę przejrzystości danych od wejścia do wyjścia systemu "nie tylko w odniesieniu do kwestii związanych z odczuwaniem, ale także stronniczością i zachowaniem".

Historia eksperta z Google osiągnęła ważny punkt na początku ubiegłego roku, kiedy Mitchell został zwolniony z firmy, miesiąc po tym, jak wszczęto wobec niego dochodzenie w sprawie niewłaściwego udostępniania informacji.

W tym czasie naukowiec protestował także przeciwko Google po zwolnieniu Timnita Gebru, badacza etyki w dziedzinie sztucznej inteligencji.

Mitchell był również bardzo wyrozumiały dla Lemoine. Gdy do Google dołączały nowe osoby, przedstawiała je inżynierowi, nazywając go "sumieniem Google" za to, że ma "serce i duszę, by postępować właściwie". Jednak mimo całego zachwytu Lemoine'a nad naturalnym systemem konwersacyjnym Google'a, który zmotywował go nawet do stworzenia dokumentu zawierającego niektóre z jego rozmów z LaMDA, Mitchell widział rzeczy inaczej.

Etyk AI przeczytał skróconą wersję dokumentu Lemoine'a i zobaczył program komputerowy, a nie człowieka.

Nasze umysły są bardzo, bardzo dobre w konstruowaniu rzeczywistości, które niekoniecznie są zgodne z szerszym zestawem faktów, które są nam przedstawiane" - powiedział Mitchell. Jestem naprawdę zaniepokojony tym, co to znaczy, że ludzie coraz bardziej ulegają wpływowi iluzji".

Z kolei Lemoine stwierdził, że ludzie mają prawo do kształtowania technologii, która może znacząco wpłynąć na ich życie.

Myślę, że ta technologia będzie niesamowita. Myślę, że przyniesie korzyści wszystkim. Ale może inni ludzie się z tym nie zgadzają i może to nie my w Google powinniśmy dokonywać wszystkich wyborów".

 

**Source

 

Brak komentarzy:

Prześlij komentarz