Muszę przyznać, że znacznie wyprzedziłem swoje czasy. Po raz pierwszy zetknąłem się ze sztuczną inteligencją (AI) w 1968 roku, kiedy miałem zaledwie 24 lata i od samego początku wyczuwałem jej głębokie niebezpieczeństwa. Wyobraź to sobie.
Choć chciałbym się tym chwalić, nie byłem osamotniony. W rzeczywistości byłem niewątpliwie jedną z milionów osób, które obejrzały film 2001: Odyseja kosmiczna, wyreżyserowany przez Stanleya Kubricka na podstawie scenariusza napisanego wspólnie z Arthurem C. Clarke'em (zainspirowanego opowiadaniem "The Sentinel", które słynny pisarz science-fiction Clarke stworzył w - tak! - 1948). Sztuczna inteligencja miała wtedy rzeczywistą nazwę, HAL 9000 (ale nazywaj "go" Hal).
I nie, pierwsza wyimaginowana sztuczna inteligencja w moim świecie nie działała dobrze, co powinno być (ale nie okazało się) lekcją dla nas wszystkich. Osadzony w statku kosmicznym zmierzającym na Jowisza, zabił czterech z pięciu astronautów na pokładzie i zrobił wszystko, co w jego mocy, by zabić ostatniego z nich, zanim został wyłączony.
Powinno to oczywiście być ostrzeżeniem dla nas wszystkich przed światem, do którego rzeczywiście wkroczymy w tym stuleciu. Niestety, podobnie jak w przypadku wielu niepokojących rzeczy na Ziemi, wydaje się, że nie mogliśmy sobie pomóc. HAL miał stać się rzeczywistością - a raczej nieskończenie mnożącą się rzeczywistością - w tym naszym świecie. W tym kontekście, stały bywalec TomDispatch, Michael Klare, który od lat ostrzega przed "ludzką" przyszłością, w której "generałowie robotów" mogliby dowodzić siłami zbrojnymi na całym świecie, rozważa nadchodzące wojny, co może oznaczać, że sztuczna inteligencja zastąpi ludzką inteligencję w głównych siłach zbrojnych na całym świecie i dokąd może nas to zaprowadzić. Nie jestem pewien, czy Stanley Kubrick lub Arthur C. Clarke byliby zaskoczeni. ~ Tom Engelhardt
Wyginięcie człowieka jako szkoda uboczna
Michael Klare
Świat, w którym maszyny zarządzane przez sztuczną inteligencję (AI) systematycznie zastępują ludzi w większości funkcji biznesowych, przemysłowych i zawodowych, jest przerażający do wyobrażenia. W końcu, jak ostrzegają nas wybitni informatycy, systemy zarządzane przez sztuczną inteligencję są podatne na krytyczne błędy i niewytłumaczalne "halucynacje", co skutkuje potencjalnie katastrofalnymi skutkami. Istnieje jednak jeszcze bardziej niebezpieczny scenariusz, który można sobie wyobrazić w związku z rozprzestrzenianiem się superinteligentnych maszyn: możliwość, że te nie-ludzkie istoty mogą w końcu walczyć ze sobą, niszcząc przy tym całe ludzkie życie.
Pogląd, że superinteligentne komputery mogą wpaść w amok i wyrżnąć ludzi, był oczywiście od dawna podstawą kultury popularnej. W proroczym filmie WarGames z 1983 roku superkomputer znany jako WOPR (od War Operation Plan Response i, co nie jest zaskoczeniem, wymawiany jako "whopper") prawie wywołuje katastrofalną wojnę nuklearną między Stanami Zjednoczonymi a Związkiem Radzieckim, zanim zostaje unieszkodliwiony przez nastoletniego hakera (granego przez Matthew Brodericka). Seria filmów Terminator, począwszy od oryginalnego filmu z 1984 roku, podobnie przewidywała samoświadomy superkomputer o nazwie "Skynet", który, podobnie jak WOPR, został zaprojektowany do kontrolowania amerykańskiej broni nuklearnej, ale zamiast tego decyduje się zniszczyć ludzkość, postrzegając nas jako zagrożenie dla swojego istnienia.
Koncepcja superkomputerów zabijających ludzi, choć niegdyś ograniczona do sfery science fiction, stała się teraz wyraźną możliwością w bardzo realnym świecie niedalekiej przyszłości. Oprócz opracowywania szerokiej gamy "autonomicznych" lub zrobotyzowanych urządzeń bojowych, główne potęgi wojskowe spieszą się również z tworzeniem zautomatyzowanych systemów podejmowania decyzji na polu bitwy lub czegoś, co można nazwać "generałami robotów". Podczas wojen w niedalekiej przyszłości, takie systemy oparte na sztucznej inteligencji mogłyby być wykorzystywane do wydawania rozkazów bojowych amerykańskim żołnierzom, dyktując im gdzie, kiedy i jak mają zabijać wrogie oddziały lub przyjmować ostrzał przeciwników. W niektórych scenariuszach decydenci-roboty mogliby nawet sprawować kontrolę nad amerykańską bronią atomową, potencjalnie pozwalając im na wywołanie wojny nuklearnej prowadzącej do zagłady ludzkości.
Weźmy teraz na chwilę oddech. Instalacja takiego systemu dowodzenia i kontroli (C2) opartego na sztucznej inteligencji może wydawać się odległą możliwością. Niemniej jednak Departament Obrony Stanów Zjednoczonych ciężko pracuje nad systematycznym i coraz szybszym rozwojem wymaganego sprzętu i oprogramowania. Na przykład w swoim budżecie na 2023 rok Siły Powietrzne wnioskowały o 231 milionów dolarów na opracowanie zaawansowanego systemu zarządzania polem bitwy (ABMS), złożonej sieci czujników i komputerów obsługujących sztuczną inteligencję, zaprojektowanych w celu gromadzenia i interpretowania danych o operacjach wroga oraz dostarczania pilotom i siłom naziemnym menu optymalnych opcji ataku. W miarę postępu technologicznego system będzie w stanie wysyłać instrukcje "ognia" bezpośrednio do "strzelców", w dużej mierze omijając kontrolę człowieka.
"Narzędzie do wymiany danych między maszynami, które zapewnia opcje odstraszania lub wczesnego zaangażowania" - tak Will Roper, asystent sekretarza Sił Powietrznych ds. zakupów, technologii i logistyki, opisał system ABMS w wywiadzie z 2020 roku. Sugerując, że "musimy zmienić nazwę" w miarę ewolucji systemu, Roper dodał: "Myślę, że Skynet odpada, chociaż bardzo chciałbym to zrobić jako rzecz science fiction. Po prostu nie sądzę, byśmy mogli tam pójść".
I choć on nie może tam iść, to właśnie tam może zmierzać reszta z nas.
Pamiętaj, że to dopiero początek. W rzeczywistości ABMS Sił Powietrznych ma stanowić zalążek większej konstelacji czujników i komputerów, które połączą wszystkie siły bojowe USA, Joint All-Domain Command-and-Control System (JADC2, wymawiane jako "Jad-C-two"). "JADC2 zamierza umożliwić dowódcom podejmowanie lepszych decyzji poprzez gromadzenie danych z licznych czujników, przetwarzanie danych za pomocą algorytmów sztucznej inteligencji w celu identyfikacji celów, a następnie zalecanie optymalnej broni... do zaatakowania celu" - poinformowała Congressional Research Service w 2022 roku.
Sztuczna inteligencja i wyzwalacz nuklearny
Początkowo JADC2 zostanie zaprojektowany do koordynowania operacji bojowych wśród "konwencjonalnych" lub niejądrowych sił amerykańskich. Ostatecznie jednak oczekuje się, że połączy się z nuklearnymi systemami dowodzenia i łączności Pentagonu (NC3), potencjalnie dając komputerom znaczną kontrolę nad wykorzystaniem amerykańskiego arsenału nuklearnego. "JADC2 i NC3 są ze sobą powiązane" - wskazał w wywiadzie z 2020 roku generał John E. Hyten, wiceprzewodniczący Połączonych Szefów Sztabów. W rezultacie, dodał w typowym Pentagonese, "NC3 musi informować JADC2, a JADC2 musi informować NC3".
Nie trzeba wielkiej wyobraźni, aby wyobrazić sobie czas w niezbyt odległej przyszłości, kiedy jakiś kryzys - powiedzmy starcie wojskowe między USA a Chinami na Morzu Południowochińskim lub w pobliżu Tajwanu - wywołuje coraz bardziej intensywne walki między przeciwnymi siłami powietrznymi i morskimi. Wyobraźmy sobie, że JADC2 nakazuje intensywne bombardowanie baz wroga i systemów dowodzenia w samych Chinach, co wywołuje wzajemne ataki na obiekty amerykańskie i błyskawiczną decyzję JADC2 o odwecie za pomocą taktycznej broni jądrowej, wywołując długo oczekiwany holokaust nuklearny.
Możliwość, że tego rodzaju koszmarne scenariusze mogą doprowadzić do przypadkowego lub niezamierzonego wybuchu wojny nuklearnej, od dawna niepokoi analityków w społeczności zajmującej się kontrolą zbrojeń. Jednak rosnąca automatyzacja wojskowych systemów C2 wywołała niepokój nie tylko wśród nich, ale także wśród wyższych urzędników ds. bezpieczeństwa narodowego.
Już w 2019 roku, kiedy zapytałem generała porucznika Jacka Shanahana, ówczesnego dyrektora Wspólnego Centrum Sztucznej Inteligencji Pentagonu, o taką ryzykowną możliwość, odpowiedział: "Nie znajdziesz silniejszego zwolennika integracji zdolności AI w Departamencie Obrony, ale jest jeden obszar, w którym się wstrzymuję, i ma to związek z dowodzeniem i kontrolą nuklearną". Jest to "ostateczna ludzka decyzja, którą należy podjąć", więc "musimy być bardzo ostrożni". Biorąc pod uwagę "niedojrzałość" technologii, dodał, że potrzebujemy "dużo czasu na przetestowanie i ocenę [przed zastosowaniem sztucznej inteligencji w NC3]".
W ostatnich latach, pomimo takich ostrzeżeń, Pentagon przyspieszył rozwój zautomatyzowanych systemów C2. W przedłożonym budżecie na 2024 r. Departament Obrony zażądał 1,4 mld USD na JADC2 w celu "przekształcenia zdolności prowadzenia działań wojennych poprzez zapewnienie przewagi informacyjnej z szybkością istotności we wszystkich domenach i partnerach". Uh-oh! A następnie zażądał kolejnych 1,8 miliarda dolarów na inne rodzaje badań nad sztuczną inteligencją związanych z wojskiem.
Urzędnicy Pentagonu przyznają, że minie jeszcze trochę czasu, zanim generałowie robotów będą dowodzić ogromną liczbą żołnierzy amerykańskich (i autonomiczną bronią) w bitwie, ale uruchomili już kilka projektów mających na celu przetestowanie i udoskonalenie takich powiązań. Jednym z przykładów jest wojskowy projekt Convergence, obejmujący serię ćwiczeń terenowych mających na celu walidację systemów komponentów ABMS i JADC2. Na przykład w teście przeprowadzonym w sierpniu 2020 r. na poligonie Yuma Proving Ground w Arizonie armia wykorzystała różnorodne czujniki powietrzne i naziemne do śledzenia symulowanych sił wroga, a następnie przetworzyła te dane za pomocą komputerów obsługujących sztuczną inteligencję w Joint Base Lewis McChord w stanie Waszyngton. Komputery te z kolei wydawały instrukcje ogniowe artylerii naziemnej w Yumie. "Cała ta sekwencja została rzekomo wykonana w ciągu 20 sekund" - poinformowała później Congressional Research Service.
Mniej wiadomo o odpowiedniku AI Marynarki Wojennej, "Projekcie Overmatch", ponieważ wiele aspektów jego programowania było utrzymywanych w tajemnicy. Według admirała Michaela Gildaya, szefa operacji morskich, Overmatch ma "umożliwić marynarce wojennej, która roi się na morzu, dostarczając zsynchronizowane śmiercionośne i nieśmiercionośne efekty z bliska i daleka, z każdej osi i każdej domeny". Niewiele więcej zostało ujawnione na temat projektu.
Flash Wars" i wyginięcie ludzkości
Pomimo całej tajemnicy otaczającej te projekty, można myśleć o ABMS, JADC2, Convergence i Overmatch jako o elementach składowych przyszłej mega-sieci super-komputerów podobnych do Skynetu, zaprojektowanych do dowodzenia wszystkimi siłami USA, w tym siłami nuklearnymi, w walce zbrojnej. Im bardziej Pentagon będzie podążał w tym kierunku, tym bliżej będziemy czasów, w których sztuczna inteligencja będzie miała władzę nad wszystkimi amerykańskimi żołnierzami, siłami przeciwnika i wszelkimi cywilami złapanymi w krzyżowy ogień.
Taka perspektywa powinna być wystarczającym powodem do niepokoju. Na początek należy wziąć pod uwagę ryzyko błędów i błędnych obliczeń algorytmów będących sercem takich systemów. Jak ostrzegają nas czołowi informatycy, algorytmy te są zdolne do niezwykle niewytłumaczalnych błędów i, używając obecnie terminu AI, "halucynacji" - czyli pozornie rozsądnych wyników, które są całkowicie iluzoryczne. W takich okolicznościach nietrudno wyobrazić sobie, że komputery "halucynują" zbliżający się atak wroga i rozpoczynają wojnę, której w przeciwnym razie można by uniknąć.
I nie jest to najgorsze z zagrożeń, jakie należy wziąć pod uwagę. W końcu istnieje oczywiste prawdopodobieństwo, że przeciwnicy Ameryki w podobny sposób wyposażą swoje siły w generałów-robotów. Innymi słowy, przyszłe wojny będą prawdopodobnie toczone przez jeden zestaw systemów sztucznej inteligencji przeciwko drugiemu, oba połączone z bronią nuklearną, z całkowicie nieprzewidywalnymi - ale potencjalnie katastrofalnymi - rezultatami.
Niewiele wiadomo (przynajmniej ze źródeł publicznych) o rosyjskich i chińskich wysiłkach na rzecz automatyzacji wojskowych systemów dowodzenia i kontroli, ale uważa się, że oba kraje rozwijają sieci porównywalne z JADC2 Pentagonu. W rzeczywistości już w 2014 roku Rosja zainaugurowała w Moskwie Narodowe Centrum Kontroli Obrony (NDCC), scentralizowane stanowisko dowodzenia do oceny globalnych zagrożeń i inicjowania wszelkich działań wojskowych uznanych za konieczne, zarówno o charakterze niejądrowym, jak i nuklearnym. Podobnie jak JADC2, NDCC ma na celu gromadzenie informacji o ruchach wroga z wielu źródeł i dostarczanie wyższym oficerom wskazówek dotyczących możliwych reakcji.
Mówi się, że Chiny realizują jeszcze bardziej rozbudowane, choć podobne, przedsięwzięcie pod nazwą "Multi-Domain Precision Warfare" (MDPW). Według raportu Pentagonu z 2022 r. na temat rozwoju chińskiej armii, jej wojsko, Armia Ludowo-Wyzwoleńcza, jest szkolone i wyposażane w celu wykorzystania czujników i sieci komputerowych z obsługą sztucznej inteligencji do "szybkiego identyfikowania kluczowych słabych punktów w systemie operacyjnym USA, a następnie łączenia wspólnych sił w różnych domenach w celu przeprowadzenia precyzyjnych ataków na te słabe punkty".
Wyobraźmy sobie zatem przyszłą wojnę między Stanami Zjednoczonymi a Rosją lub Chinami (lub oboma tymi krajami), w której JADC2 dowodzi wszystkimi siłami USA, podczas gdy rosyjskie NDCC i chińskie MDPW dowodzą siłami tych krajów. Weźmy również pod uwagę, że wszystkie trzy systemy mogą doświadczać błędów i halucynacji. Jak bezpieczni będą ludzie, gdy generałowie robotów zdecydują, że nadszedł czas, aby "wygrać" wojnę poprzez zestrzelenie wrogów?
Sztucznej Inteligencji (National Security Commission on Artificial Intelligence), kongresowego przedsięwzięcia, któremu przewodniczyli Eric Schmidt, były szef Google, i Robert Work, były zastępca sekretarza obrony. "Podczas gdy Komisja uważa, że odpowiednio zaprojektowane, przetestowane i wykorzystane autonomiczne systemy uzbrojenia oparte na sztucznej inteligencji przyniosą znaczne korzyści wojskowe, a nawet humanitarne, niekontrolowane globalne wykorzystanie takich systemów potencjalnie grozi niezamierzoną eskalacją konfliktu i niestabilnością kryzysową", potwierdziła w swoim raporcie końcowym. Stwierdzono, że takie niebezpieczeństwa mogą pojawić się "z powodu trudnych i niesprawdzonych złożoności interakcji między sztuczną inteligencją a autonomicznymi systemami uzbrojenia na polu bitwy" - kiedy to sztuczna inteligencja walczy ze sztuczną inteligencją.
Chociaż może się to wydawać skrajnym scenariuszem, jest całkowicie możliwe, że przeciwstawne systemy AI mogą wywołać katastrofalną "wojnę błyskawiczną" - wojskowy odpowiednik "flash crash" na Wall Street, kiedy ogromne transakcje dokonywane przez super-wyrafinowane algorytmy handlowe wywołują paniczną sprzedaż, zanim ludzcy operatorzy zdążą przywrócić porządek. W niesławnym "Flash Crash" z 6 maja 2010 r., handel komputerowy spowodował 10% spadek wartości giełdy. Według Paula Scharre'a z Center for a New American Security, który jako pierwszy zbadał to zjawisko, "militarny odpowiednik takich kryzysów" na Wall Street powstałby, gdy zautomatyzowane systemy dowodzenia przeciwnych sił "zostałyby uwięzione w kaskadzie eskalujących starć". W takiej sytuacji, jak zauważył, "autonomiczna broń mogłaby w jednej chwili doprowadzić do przypadkowej śmierci i zniszczeń na katastrofalną skalę".
Obecnie nie istnieją praktycznie żadne środki mające na celu zapobieżenie przyszłej katastrofie tego rodzaju, ani nawet rozmowy między głównymi mocarstwami w celu opracowania takich środków. Sztucznej Inteligencji, takie środki kontroli kryzysowej są pilnie potrzebne, aby zintegrować "zautomatyzowane wyzwalacze eskalacji" z takimi systemami, "które zapobiegłyby zautomatyzowanej eskalacji konfliktu". W przeciwnym razie jakaś katastrofalna wersja III wojny światowej wydaje się aż nazbyt możliwa. Biorąc pod uwagę niebezpieczną niedojrzałość takiej technologii i niechęć Pekinu, Moskwy i Waszyngtonu do nakładania jakichkolwiek ograniczeń na uzbrojenie sztucznej inteligencji, dzień, w którym maszyny mogą zdecydować się na unicestwienie nas, może nadejść znacznie wcześniej, niż sobie wyobrażamy, a wyginięcie ludzkości może być uboczną szkodą takiej przyszłej wojny.
Śledź TomDispatch na Twitterze i dołącz do nas na Facebooku. Sprawdź najnowsze książki Dispatch Books, nową dystopijną powieść Johna Feffera, Songlands (ostatnią z jego serii Splinterlands), powieść Beverly Gologorsky Every Body Has a Story i A Nation Unmade by War Toma Engelhardta, a także In the Shadows of the American Century Alfreda McCoya: The Rise and Decline of U.S. Global Power, Johna Dowera The Violent American Century: Wojna i terror od czasów II wojny światowej oraz Ann Jones's They Were Soldiers: How the Wounded Return from America's Wars: The Untold Story.Every Body Has a Story, and Tom Engelhardt’s A Nation Unmade by War, as well as Alfred McCoy’s In the Shadows of the American Century: The Rise and Decline of U.S. Global Power, John Dower’s The Violent American Century: War and Terror Since World War II, and Ann Jones’s They Were Soldiers: How the Wounded Return from America’s Wars: The Untold Story.
Michael T. Klare, stały bywalec TomDispatch, jest emerytowanym profesorem studiów nad pokojem i bezpieczeństwem światowym w Hampshire College oraz starszym wizytatorem w Arms Control Association. Jest autorem 15 książek, z których najnowsza to All Hell Breaking Loose: The Pentagon's Perspective on Climate Change. Jest założycielem Committee for a Sane U.S.-China Policy. All Hell Breaking Loose: The Pentagon’s Perspective on Climate Change. He is a founder of the Committee for a Sane U.S.-China Policy.
Copyright 2023 Michael T. Klare
Source: TomDispatch via Antiwar
Brak komentarzy:
Prześlij komentarz