
Nowoczesna trajektoria ludzkości została zdefiniowana przez kilka punktów zwrotnych. Wynalazek elektryczności, żarówki, system telegraficzny, komputer i Internet, między innymi, zasygnalizował nowe nieodwracalne kamienie milowe w naszym modus vivendi. Niedawne wprowadzenie ChatGPT może jednak okazać się czymś więcej niż tylko punktem zwrotnym. Może być trwałym czynnikiem zakłócającym nasz sposób życia; nie zważając na wpadki i tantry Wokistów.
ChatGPT jest obecnie najszybciej rozwijającą się aplikacją konsumencką w historii. W ciągu dwóch miesięcy od uruchomienia w listopadzie 2022 roku, ChatGPT zdołał zgromadzić ponad 100 milionów użytkowników. Jego deweloper OpenAI, który zaczął od 375 pracowników i cienkich przychodów, jest teraz wyceniany na 30 miliardów dolarów i licząc.
Jak to działa? Ogólnie rzecz biorąc, ChatGPT agreguje dane ze źródeł online i syntetyzuje odpowiedzi na zapytanie w ciągu kilku sekund. Jest to obecnie najbardziej wszechstronny ze stajni nowych, zasilanych sztuczną inteligencją dużych modeli językowych. Może komponować nuty muzyczne, pisać kody oprogramowania, rozwiązywać równania matematyczne, pisać powieści, eseje i rozprawy, wśród wielu innych zadań. Może być wykorzystywany przez naukowców do tłumaczenia ich oryginalnych prac - napisanych w języku ojczystym - na język angielski. W miarę rozwoju narzędzi AI takich jak ChatGPT, mogą one wyprzeć ludzką działalność w szerokim, choć nieobliczalnym, spektrum. Stawką mogą być setki milionów miejsc pracy.
Jednak jej najbardziej bezpośredni wpływ będzie w obszarze ludzkiego uczenia się i podejmowania decyzji.
Ludzkie uczenie się
Uczenie się człowieka jest procesem trwającym przez całe życie, kształtowanym przez wiele czynników. Obejmują one (ale nie są ograniczone) doświadczenie, instynkt, interakcje, błędy (i korekty), introspekcję, osobisty gniew, śmiałość, nauczanie, dane tekstowe i indywidualną psychikę. Większość z tych warunków wstępnych jest obca ChatGPT i obejmuje to aksjomat "no pain no gain" dla ludzkiego uczenia się i rozwoju.
Na narzędzia AI nie mają również wpływu ludzkie ograniczenia, takie jak ograniczenia czasowe, zmęczenie, "dni wolne" i dolegliwości. Z czasem ograniczenia te skłoniły ludzi do przekazania maszynom ich egzystencjalnego wymogu myślenia i uczenia się. Nieubłagana cyfryzacja sprawiła, że wiemy, gdzie i jak szukać informacji, zamiast uczyć się, jak te informacje zachować. Ilu z nas pamięta dziś numery telefonów do rodziny, współpracowników i przyjaciół? Cyfrowa kula jest teraz niezbędna do nawigowania po drogach (np. Waze, Google Maps), gotowania (kanały wideo), naprawiania urządzeń (kanały DIY) i wielu innych prozaicznych czynności. Nasze codzienne zadania szybko stają się bardziej mechaniczne, wypierając naszą zdolność do tworzenia czegoś nowego lub zmieniającego grę. Stajemy się przedłużeniem naszych maszyn, a nie odwrotnie. W rezultacie ludzkość stoi obecnie w obliczu ery zbiorowego otępienia i konformizmu.
Nie ma lepszego sposobu, aby ocenić, jak narzędzia AI mogą wpłynąć na nasze zdolności myślenia i uczenia się, niż obserwując wpływ ChatGPT na globalny sektor edukacji. Zarówno studenci, jak i nauczyciele używają teraz ChatGPT jako dodatku edukacyjnego, narzędzia do oszukiwania lub jako cyfrowej kuli.
Ostatnie badanie przeprowadzone przez Walton Family Foundation i Impact Research wykazało, że większość nauczycieli (51%), a także wielu uczniów, już używa ChatGPT w szkołach. Inna ankieta obejmująca 1000 amerykańskich szkół wyższych wykazała, że 30% studentów używało ChatGPT do zadań pisemnych, a 60% z nich używało go na "więcej niż połowie swoich zadań." ChatGPT zdał wiele egzaminów na wysokim poziomie, w tym egzamin Wharton MBA, amerykański egzamin licencyjny z medycyny, kilka egzaminów prawniczych i finał w Stanford Medical School.
Młyny papiernicze mogą również używać ChatGPT do fabrykowania artykułów naukowych i raportów. Naukowcy, którzy korzystają z takich wymyślonych danych lub którzy celowo fałszują proces badawczy poprzez generatywną AI, mogą w końcu promować politykę i produkty, które są szkodliwe dla społeczeństwa. Świat nie może sobie pozwolić na kolejną koronapyschozę!
Podsumowując, zarówno studenci, jak i nauczyciele są coraz bardziej zastraszeni przez wszechmocną AI. AI podnosi poprzeczkę dla studentów, profesorów i różnych specjalistów. Sortowanie autentycznych artefaktów również staje się coraz trudniejsze.
Jak zauważył niedawno Christopher Kanan, profesor nadzwyczajny informatyki na Uniwersytecie w Rochester: "Po prostu coraz trudniej jest posortować, kto wie co i kto korzysta z pomocy takich rzeczy jak ChatGPT". Kilka szkół w Nowym Jorku, Hong Kongu, Bangalore i innych miejscach zakazało studentom używania ChatGPT w ich zadaniach ze względu na obawy dotyczące "plagiatu", oszukiwania i dezinformacji.
Chociaż ChatGPT jest świetnym narzędziem do badania złożonych koncepcji i pasm integracji wiedzy, w rzeczywistości może przekształcić większość użytkowników w potulnych konsumentów danych generowanych przez AI. Przedłużająca się pasywność w postaci mediów cyfrowych osłabia zdolność myślenia.
Innym minusem ChatGPT jest jego potencjał do poszerzenia szeroko dyskutowanej przepaści cyfrowej. Aplikacje o pracę, promocje, stypendia itp. będą w przeważającej mierze faworyzować osoby posiadające dostęp do technologii cyfrowych nad tymi, którzy go nie posiadają, zwłaszcza gdy dostęp do nich będzie wymagał opłat abonamentowych.
Edukatorzy w tej chwili nie są w stanie określić etycznych granic ChatGPT i przyjmują postawę wyczekującą. Same ramy etyczne mogą zostać napisane przez, lub z pomocą, narzędzi takich jak ChatGPT. Aini Suzana Ariffin, profesor nadzwyczajny studiów politycznych na Universiti Teknologi Malaysia, jest przekonana, że edukatorzy nie muszą być zaniepokojeni. "Etyczna rama dla generatywnych narzędzi AI, takich jak ChatGPT, uporządkuje to, co zwiększa proces uczenia się, a co go utrudnia. To może zająć trochę czasu i będzie wiązało się z wieloma debatami, ale lepiej zacząć już teraz".
Podejmowanie decyzji przez człowieka
Rząd Singapuru ogłosił niedawno, że jego urzędnicy państwowi zaczną korzystać z ChatGPT, aby zmniejszyć obciążenie pracą. Ma to sens, ponieważ powtarzalne lub prozaiczne zadania mogą być przyspieszone przez narzędzia AI. Jednak w miarę jak generatywne narzędzia AI stają się wykładniczo coraz bardziej inteligentne i wydajne - co rzeczywiście nastąpi - kompleks zarządzania może być stopniowo uzurpowany przez maszyny. Ta wyłaniająca się forma porządku społecznego nazywana jest "algokracją"; taką, w której algorytmy, zwłaszcza AI i blockchain, stosowane są w całym spektrum rządzenia. Algokracja nieuchronnie pociąga za sobą zarządzanie predykcyjne. Berlińska policja już włączyła embrionalną formę algokracji do swojego systemu predictive policing. Czy w najbliższej przyszłości czeka nas społeczeństwo rodem z Raportu Mniejszości?
ChatGPT przyspiesza również przepływ informacji do najwyższych poziomów decyzyjnych rządu lub organizacji - omijając tradycyjne role strażników biurokracji na poziomach pośrednich. Choć można to uznać za pożądany postęp w walce z biurokracją, brak tradycyjnych mechanizmów kontroli i równowagi może prowadzić do podejmowania stanowczych decyzji o fatalnych skutkach społeczno-ekonomicznych. Wyobraźmy sobie przeszczepienie takiego algokratycznego systemu decyzyjnego do infrastruktury broni jądrowej supermocarstwa wojskowego?
ChatGPT grozi również naruszeniem prywatności i wyciekiem danych osobowych w sektorach takich jak bankowość i opieka zdrowotna. Skuteczność generatywnych narzędzi AI jest napędzana przez stale rosnącą ilość danych, które są stale zapętlane z powrotem do ich sieci neuronowych. To dążenie do dokładności, wydajności i szybkości może skutkować narażeniem prywatnych danych w ramach procesu uczenia maszynowego.
W dziedzinie opieki zdrowotnej świadoma zgoda na opiekę zdrowotną wspomaganą przez AI może zostać ograniczona, ponieważ pacjenci mogą nie rozumieć, na co się zgadzają lub mogą nadmiernie ufać "inteligentnemu i bezstronnemu" systemowi opartemu na maszynach. Sytuacja staje się jeszcze bardziej złowieszcza, gdy triage jest stosowany w sytuacjach krytycznych. Tradycyjnie, triage jest określany przez integralność i umiejętności obecnego personelu medycznego, jak również zasoby dostępne na miejscu. Algorytm może jednak w sposób beznamiętny zorganizować triage w oparciu o "wartość dla społeczeństwa", przewidywaną długość życia pacjenta oraz koszty związane z ratowaniem jego życia.
Etyczny wymiar triage'u prowadzonego przez AI nie został rozwiązany. Warto jednak zauważyć, że współzałożyciel Microsoftu, Bill Gates, popiera panele śmierci dla śmiertelnie chorych, którzy nie przynoszą "żadnych korzyści społeczeństwu", a których zachowanie może rzekomo zrównoważyć pracę "stu tysięcy nauczycieli". Rozciągając tę logikę dalej, możemy być świadkami przyszłego mandatu dla "inteligentnych dzieci", które rzekomo zaludnią "inteligentne społeczeństwo". Wyrafinowane algorytmy przyszłości mogą oddzielić genetycznych wybrańców od genetycznych nieudaczników poprzez testy DNA płodu i narzędzia takie jak genetyczna diagnostyka preimplantacyjna (PGD). Ten eugeniczny impuls został eufemistycznie nazwany "prokreacyjną dobroczynnością". Nawiasem mówiąc, Bill Gates wsparł finansowo chińską firmę, która pracuje nad stworzeniem "super dzieci". Czy można się dziwić, że Microsoft jest głównym sponsorem finansowym OpenAI?
Czy w ostatecznym rozrachunku etyczne ramy AI zostaną zablokowane przez tytanów techniki, którzy mogą określić projekt, parametry i cele generatywnych narzędzi AI? Czy też nasi wybrani przywódcy spróbują szukać synergicznej koegzystencji między AI a ludźmi?
**By Matthew Maavak
**Source
Brak komentarzy:
Prześlij komentarz