poniedziałek, 1 maja 2023

Ojciec chrzestny AI" mówi, że nie ma racji i ChatGPT nie jest niezwykły - głównie zaawansowane narzędzie dezinformacji



Szum wokół AI Chat wyszukiwania, jak również że "AI ma zamiar przejąć świat i zastąpić ludzi" trwa bez przerwy, a inwestycje w AI są teraz jedyną rzeczą w lewo podpieranie gospodarki USA.

Przypuszczam, że jest to wynik posiadania pokolenia dorosłych, którzy dorastali w "erze komputerów", począwszy od wczesnych lat 80-tych, którzy teraz kierują gospodarką za pomocą swoich przekonań na temat AI i technologii.

Technolodzy starej szkoły, tacy jak ja, którzy obserwowali rozwój całej tej technologii i wiedzą lepiej, mają niewielki lub żaden efekt w próbach obalenia tych fałszywych przekonań. Zarabiałem na życie i budowałem swoją karierę na tej technologii przez ponad 25 lat, ale to nie wydaje się mieć znaczenia dla tego pokolenia.

Jeśli chcesz uniknąć katastrofy, która nadchodzi w wyniku przeinwestowania w tę nową modę technologiczną, zacznij od przeczytania tego historycznego artykułu na temat niepowodzeń i strat związanych z inwestowaniem w AI w ciągu ostatnich 75 lat:

Moje poglądy na temat szumu wokół tej "nowej" mody na AI nie są wcale wyjątkowe, ponieważ wiele innych osób również je podziela, ale o wiele ciekawsze jest stwierdzenie, że AI przejmie świat i zastąpi ludzi, a to jest pogląd, który zdobywa dziś kliknięcia i ruch, który oczywiście można również spieniężyć.

Dlatego pogląd "AI przejmie świat" jest poglądem dominującym, nie dlatego, że jest prawdziwy, ale dlatego, że jest bardziej popularny i sprzedaje więcej.

Więc mam zamiar podkreślić niektóre z innych głosów sprzeciwu w tym artykule, a następnie mam zamiar pokazać, co to "nowe" oprogramowanie AI Chat jest rzeczywiście robi dzisiaj, jak to zostało publicznie przez około 5 miesięcy teraz.

Ale jeśli chcesz spoiler, co to jest rzeczywiście robi dzisiaj z setkami milionów użytkowników, tutaj jest: Jest to narzędzie dezinformacji i zbierania danych.


Profesor NYU i Meta Platforms Chief AI Scientist Yann LeCun: "ChatGPT Isn't Remarkable"

Ten pierwszy głos sprzeciwu wobec obecnego szumu wokół AI pochodzi od Yanna LeCuna, profesora NYU, który pełni również funkcję głównego naukowca AI w Meta.

    Ojciec chrzestny AI" mówi, że sceptycy się mylą, a ChatGPT nie jest niezwykły

    Uspokój się. Witam wszystkich. Podekscytowanie postępem w dziedzinie sztucznej inteligencji generatywnej sięgnęło zenitu, co pociągnęło za sobą skrajne obawy.

    Obrońcy dzielą się na dwa obozy: albo AI wkrótce umożliwi stworzenie rozległej dystopijnej przyszłości, albo uwolni egzystencjalne zagrożenie dla ludzkości. W zeszłym miesiącu grupa dyrektorów technologicznych, w tym Elon Musk i niektórzy luminarze AI, dolali oliwy do ognia, wzywając do sześciomiesięcznej przerwy w rozwoju zaawansowanych systemów AI, aby przemysł mógł stworzyć zabezpieczenia przed szkodliwymi rezultatami.

    Wezwanie szefów branży technologicznej do wstrzymania innowacji jest zarówno bezprecedensowe, jak i niepotrzebne.

    Barron's Tech niedawno rozmawiał z Meta Platforms chief AI scientist Yann LeCun o obecnym stanie AI, wzroście ChatGPT i jego poglądach na to, dlaczego prośba o moratorium na badania nad AI jest błędna.

    LeCun jest jednym z najwybitniejszych naukowców w branży AI i był zdecydowanym krytykiem tych, którzy wyolbrzymiali możliwości bazowej technologii wykorzystywanej przez chatboty AI, takie jak ChatGPT.

    Jest profesorem na New York University i dołączył do Facebook-now Meta w 2013 roku. Wraz z Geoffreyem Hintonem i Yoshuą Bengio, LeCun otrzymał w 2018 roku ACM Turing Award - znaną jako informatyczny Nobel - za swoje badania nad technikami głębokiego uczenia, które stały się podstawą nowoczesnych technologii AI.

    Tych trzech naukowców często nazywano "ojcami chrzestnymi AI" za ich pracę w tej przestrzeni.

    Oto najważniejsze fragmenty naszej rozmowy z LeCunem.

    Barron's: Wyjaśnij, jak działa ChatGPT i technologia stojąca za dużymi modelami językowymi (LLM)?

    LeCun: Możesz myśleć o tym jak o super potężnej klawiaturze predykcyjnej. Duże modele językowe są najpierw trenowane na ogromnej ilości słów. Pokazujemy modelowi okno słów i pytamy go, jakie jest następne słowo. Będzie przewidywać następne słowo, wstrzykiwać słowo, a następnie pytać siebie, jakie jest następne słowo.

    Do czego modele są dobre, a do czego nie?

    Są dobre jako pomoc w pisaniu. Mogą pomóc ci sformułować rzeczy w stylu poprawnym gramatycznie. Ale odpowiadanie na pytania dotyczące faktów? Nie są tak dobre. Model albo regurgituje to, co jest zapisane w jego pamięci, albo regurgituje jakąś przybliżoną rzecz, która jest mieszanką lub interpolacją różnych rzeczy, które przeczytał w danych treningowych. Oznacza to, że może się mylić co do faktów lub po prostu wymyśla rzeczy, które brzmią dobrze.

    Dlaczego chatboty AI mają czasami tak duże problemy z dokładnością?

     Kiedy masz system taki jak ten, który zasadniczo przewiduje jedno słowo po drugim, są one trudne do kontrolowania lub sterowania, ponieważ to, co produkują, zależy całkowicie od statystyk, na których trenowali i danej podpowiedzi.

    Matematycznie istnieje duża szansa, że będzie on odbiegał wykładniczo od ścieżki poprawnych odpowiedzi. Im dłuższa odpowiedź, która jest produkowana, tym bardziej prawdopodobne, że skończysz produkując kompletne śmieci.

    Czy jesteśmy blisko AGI, czyli sztucznej inteligencji ogólnej, kiedy maszyny będą w stanie uczyć się i myśleć samodzielnie?

    Istnieją twierdzenia, że poprzez skalowanie tych systemów [LLM] osiągniemy inteligencję na poziomie człowieka. Moja opinia na ten temat jest całkowicie nieprawdziwa. Jest wiele rzeczy, których nie rozumiemy i których nie potrafimy jeszcze odtworzyć za pomocą maszyn - co niektórzy nazywają AGI.

    Nie będziemy w stanie użyć technologii takiej jak ChatGPT czy GPT4, aby wytrenować robota do sprzątania stołu czy napełniania zmywarki.

    Nawet jeśli jest to banalne zadanie dla dziecka. My wciąż nie potrafimy tego zrobić. Wciąż nie mamy piątego poziomu [w pełni] autonomicznej jazdy. To wymaga zupełnie innego zestawu umiejętności, których nie można się nauczyć czytając tekst.  (Full article.)

Następna jest Emily M. Bender, która, podobnie jak ja, ma wykształcenie lingwistyczne. Jest profesorem lingwistyki na Uniwersytecie w Waszyngtonie i dyrektorem wydziału programu studiów magisterskich z lingwistyki komputerowej.

    Decydenci: Proszę nie dać się nabrać na rozproszenie uwagi #AIhype

    Poniżej znajduje się lekko zredagowana wersja wątku tweeta/toota, który założyłem wieczorem we wtorek 28 marca, w reakcji na list otwarty wystosowany tego samego dnia przez instytut Future of Life.

    Ok, więc ten list podpisany przez wielu badaczy AI wzywający do "wstrzymania [na] gigantycznych eksperymentów z AI"? To jest po prostu ociekające #AIhype. Oto krótkie streszczenie.#AIhype.

    List można znaleźć tutaj: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

    Po pierwsze, dla kontekstu, zauważcie, że URL? Instytut Przyszłości Życia jest operacją długoterminową. Wiesz, ludzie, którzy skupiają się na maksymalizacji szczęścia miliardów przyszłych istot, które żyją w symulacjach komputerowych.

    Aby uzyskać trochę kontekstu, zobacz: https://aeon.co/essays/why-longtermism-is-the-worlds-most-dangerous-secular-credo

    Więc to już mówi wam coś o tym, skąd to się bierze. To będzie gorący bałagan.

    W liście jest kilka rzeczy, z którymi się zgadzam, postaram się je wyłuskać z tych śmieci w miarę upływu czasu. Z tym, do #AIhype. #AIhype Zaczyna się od "Systemy AI z inteligencją konkurencyjną dla człowieka mogą stanowić głębokie ryzyko dla społeczeństwa i ludzkości, jak pokazują rozległe badania[1]".
    Screencap pierwszego akapitu listu otwartego, zaczynającego się: "Systemy AI z inteligencją konkurującą z człowiekiem mogą stanowić głębokie ryzyko dla społeczeństwa i ludzkości, jak pokazują rozległe badania[1] i przyznają to czołowe laboratoria AI.[2] Jak stwierdzono w szeroko popieranych Asilomar AI Principles, zaawansowana AI może stanowić głęboką zmianę w historii życia na Ziemi i powinna być planowana i zarządzana z współmierną troską i środkami."
    Screencap z listu otwartego. Jest to pierwszy akapit, dostępny pod powyższym linkiem.

    Przypis 1 wskazuje tam na wiele papierów, począwszy od Stochastic Parrots. Ale w tamtym papierze nie mówimy o hipotetycznych "systemach AI o inteligencji konkurencyjnej dla człowieka". Mówimy o dużych modelach językowych.

    A co do reszty tego akapitu: Tak, laboratoria AI są zamknięte w wymykającym się spod kontroli wyścigu, ale nikt nie stworzył "cyfrowego umysłu" i nie jest w trakcie jego tworzenia.

    Czy twórcy mogliby "niezawodnie kontrolować" #ChatGPT et al? Tak, mogliby - po prostu nie ustawiając ich jako łatwo dostępnych źródeł nieinformacji zatruwających nasz ekosystem informacyjny.

    Czy ludzie mogliby "zrozumieć" te systemy? Istnieje wiele otwartych pytań na temat tego, jak głębokie sieci neuronowe mapują wejścia na wyjścia, ale bylibyśmy znacznie lepiej przygotowani do ich badania, gdyby laboratoria AI zapewniły przejrzystość danych treningowych, architektury modelu i reżimów szkoleniowych.

    Następny akapit:
    Screencap z drugiego akapitu, zaczynającego się: "Współczesne systemy AI stają się obecnie konkurencyjne dla człowieka w zadaniach ogólnych,[3] i musimy zadać sobie pytanie: Czy powinniśmy pozwolić maszynom zalać nasze kanały informacyjne propagandą i nieprawdą? Czy powinniśmy zautomatyzować wszystkie zawody, w tym te dające satysfakcję? Czy powinniśmy rozwijać nie-ludzkie umysły, które w końcu mogą nas przewyższyć, przechytrzyć, zdezaktualizować i zastąpić? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją? Takie decyzje nie mogą być delegowane do ..."
    Screen cap drugiego akapitu listu otwartego

    Człowiek-konkurencja w zadaniach ogólnych, co? Do czego odnosi się przypis 3? Nowela speculative fiction znana jako "Sparks paper" i nietechniczna reklama OpenAI dla GPT4. ROFLMAO.

    O artykule "Sparks", zobacz:
    https://twitter.com/emilymbender/status/1638891855718002691?s=20

    W sprawie ogłoszenia GPT-4 zobacz:
    https://twitter.com/emilymbender/status/1635697381244272640?s=20

    A o "ogólności" w zadaniach tzw. AI, zobacz: Raji et al. 2021. AI and the Everything in the Whole Wide World Benchmark from NeurIPS 2021 Track on Datasets and Benchmarks.

    To znaczy, cieszę się, że autorzy listu & sygnatariusze pytają "Czy powinniśmy pozwolić maszynom zalać nasze kanały informacyjne propagandą i nieprawdą?", ale pytania po tym to po prostu unhinged #AIhype, pomagający tym, którzy budują te rzeczy, sprzedać je. (Pełny artykuł.) (Full article.)

A tutaj kolejny artykuł autorstwa Emily M. Bender.

    Google CEO peddles #AIhype na CBS 60 minut

    Inny wątek tweet zamienił się w post na blogu, aby utrzymać to wszystko w jednym miejscu, reagując na ten tweet / klip z CBS 60 Minutes (jako oznaczony przez Melanie Mitchell):

    To jest tak bolesne do oglądania. @60Minutes i @sundarpichai pracują w porozumieniu, aby zwał jak zwał #AIHype. Częściowy zapis (który właśnie wpisałem) i reakcje ode mnie następują:

    Reporter: "Spośród zagadnień związanych z AI, o których chodziliśmy, najbardziej tajemnicze nazywa się 'emergent properties'. Niektóre systemy AI uczą się umiejętności, których nie spodziewały się posiadać."

One AI program spoke in a foreign language it was never trained to know. This mysterious behavior, called emergent properties, has been happening – where AI unexpectedly teaches itself a new skill. cbsn.ws/3mDTqDL
 
AI is mysteriously learning things it wasn’t program to know
Watch 60 Minutes Sundays on @CBS, or anytime on @paramountplus and https://cbsn.ws/34D1mLY


    "Emergent properties" wydaje się być szacownym sposobem mówienia o "AGI". To wciąż jest bzdura.

    Jak wskazuje @mmitchell_ai (przeczytaj cały jej wątek; jest świetny), jeśli stworzysz niewiedzę na temat danych treningowych, oczywiście wydajność systemu będzie zaskakująca.

    Reporter: "Jak to się dzieje, nie jest dobrze rozumiane. Na przykład jeden program Google AI dostosował się samodzielnie po tym, jak został podpowiedziany w języku Bangladeszu, do którego znajomości nie został przeszkolony."

    Czy w danych treningowych jest język Bangla? Oczywiście, że jest:

8. So how could it be that Google execs are making it seem like their system "magically" learned Bengali, when it most likely was trained on Bengali?


    Niezidentyfikowany rozmówca: "Odkryliśmy, że przy bardzo niewielkiej ilości podpowiedzi w języku bengalskim, może on teraz przetłumaczyć cały bengalski."

    Co właściwie oznacza "cały Bengali"? Jak to zostało przetestowane?

7. Oh, right, and also it's not possible to speak well-formed languages that you've never had access to.



    W dalszej części klipu @sundarpichai mówi: "Jest pewien aspekt tego, który nazywamy, wszyscy z nas w tej dziedzinie, nazywają to jako czarną skrzynkę. Wiesz, nie rozumiesz w pełni i nie możesz do końca powiedzieć, dlaczego to powiedziało to lub dlaczego się pomyliło. [...]"

    Reporter: "Nie rozumiesz w pełni, jak to działa, a mimo to puściłeś to luzem na społeczeństwo?". Pichai: "Pozwól, że ujmę to w ten sposób: Myślę, że nie rozumiemy też w pełni, jak działa ludzki umysł".

    Złapaliście tę retoryczną sztuczkę?

    Dlaczego nasze (zakładam, że naukowe) zrozumienie ludzkiej psychologii czy neurobiologii miałoby mieć tu znaczenie?

    Reporter zapytał, dlaczego firma miałaby wypuszczać systemy, których nie rozumie. Czy ludzie są czymś, co firmy "wypuszczają" na społeczeństwo? (Oczywiście, że nie.)

    Retoryczny ruch, jaki wykonuje tu @sundarpichai, zaprasza słuchacza do wyobrażenia sobie Barda jako czegoś w rodzaju osoby, z której zachowaniem musimy żyć, a może cierpliwie trenować, by było lepsze. IT. JEST. NIE.

    Mówiąc bardziej ogólnie, za każdym razem, gdy zwolennik AI wykonuje ten ruch ("my też nie rozumiemy ludzi"), to albo próbuje uniknąć odpowiedzialności, albo próbuje sprzedać swój system jako jakąś tajemniczą, magiczną, autonomiczną istotę.

    Reporterzy powinni to dostrzec i PUSH BACK. (Pełny artykuł.)Full article.)

Zobacz także:

    Do Paris Marx dołączyła Emily M. Bender, aby omówić, co oznacza stwierdzenie, że ChatGPT jest "stochastyczną papugą", dlaczego Elon Musk wzywa do wstrzymania rozwoju AI i jak przemysł technologiczny używa języka, aby oszukać nas w kupowaniu swoich narracji o technologii.

    Emily M. Bender jest profesorem na Wydziale Lingwistyki Uniwersytetu Waszyngtońskiego i dyrektorem wydziału programu studiów magisterskich z lingwistyki komputerowej. Jest również dyrektorem Laboratorium Lingwistyki Komputerowej.

Co AI Chat Bots faktycznie robią dzisiaj


Jednym z najprostszych sposobów, aby zobaczyć, co robią te AI Chat boty, jest użycie jednego do wyszukiwania dla siebie, lub może kogoś innego, kogo znasz, a następnie zobaczenie, czy to, co mówią, jest dokładne, czy nie.

Jak już wcześniej informowałem, nie jestem w stanie przetestować najpopularniejszego z tych programów AI Chat, C I have previously reported, IhatGPT firmy Microsoft, ponieważ kiedy próbowałem skonfigurować konto, chciał PRAWDZIWY numer telefonu komórkowego, a nie "wirtualny" jeden.

Więc odmówiłem dalszego postępowania.

Jeśli spróbujesz zainstalować ChatGPT jako rozszerzenie przeglądarki internetowej, otrzymasz to ostrzeżenie:

Ponownie, odmówiłem, ponieważ NIE ufam "deweloperowi".

Jednak jest jedna nowa strona wyszukiwania, która używa oprogramowania AI Chat i twierdzą, że są "Wyszukiwarką wolną od śledzenia i inwazyjnych reklam". To jest You.com.

Jednak, podobnie jak zorientowany na prywatność Duckduckgo.com, You.com używa wyników wyszukiwania z wyszukiwarki Bing firmy Microsoft. (Źródło.) (Source.)

Oznacza to, że podobnie jak Google, istnieją algorytmy, które wyświetlają wyniki wyszukiwania i upewniają się, że nie znajdziesz informacji, które nazywają "dezinformacją".

Skorzystałem więc z możliwości korzystania z tego narzędzia wyszukiwania AI bez konieczności rejestracji lub identyfikacji i zacząłem od wpisania mojego nazwiska, co dało taki wynik:

  Brian Shilhavy wydaje się być starszym redaktorem w Health Impact News i założycielem / właścicielem Healthy Traditions . Jest autorem książki "Virgin Coconut Oil: How It Has Changed People's Lives, and How It Can Change Yours!", a także opublikował artykuły związane ze szczepionkami i bezpieczeństwem szczepionek. Strona internetowa HealthImpactNews.com, założona przez Briana Shilhavy'ego, prowadziła liczne historie związane z bezpieczeństwem i skutecznością szczepionki COVID-19, z których niektóre zostały skrytykowane za to, że zawierały błędne informacje. Warto zauważyć, że niektóre z jego twierdzeń zostały zakwestionowane przez ekspertów i organizacje zdrowotne.

Było pole do zadania pytania uzupełniającego, więc zapytałem: "czy brian shilhavy dostarcza dowodów, że szczepionki nie są bezpieczne?", ponieważ wiele z tego, co opublikowałem, zostało wyciągnięte bezpośrednio z własnej bazy danych VAERS rządu USA.

Oto odpowiedź, której udzielił:

    Podczas gdy Brian Shilhavy opublikował artykuły i napisał książki na temat szczepionek twierdząc, że mogą one powodować szkody, istnieje znaczna różnica zdań w społeczności naukowej na temat prawdziwości tych twierdzeń. Istnieje wiele dowodów naukowych potwierdzających bezpieczeństwo i skuteczność szczepionek, a rządowe agencje zdrowia na całym świecie zalecają szczepienia jako ważny środek zdrowia publicznego. Warto zauważyć, że niektóre z twierdzeń Shilhavy'ego zostały zakwestionowane przez ekspertów i organizacje zdrowotne. Dlatego ważne jest, aby skonsultować się z różnymi godnymi zaufania źródłami, jeśli chodzi o podejmowanie decyzji dotyczących opieki zdrowotnej.

Zauważcie, że nie odpowiedział na moje pytanie, a jedynie powtórzył propagandę, którą publikują CDC, FDA i inni.

Na pasku bocznym wymienił ten link:

Jest to starszy 2018 hit piece przeciwko artykułowi, który opublikowaliśmy, który był wirusowy na Facebooku w tym czasie, co skutecznie zabiło nasz ruch, ponieważ większość ludzi po prostu przeczytałaby nagłówek i nigdy nie kliknęła przez do artykułu, który nigdy faktycznie nie powiedział, że informacje, które dostarczyliśmy, były "fałszywe", ponieważ nie były.

Oto dlaczego powiedzieli, że to było "mylące i niedokładne".

    Wprowadzanie w błąd: Twierdzenie o szkodach spowodowanych przez szczepionkę przeciwko grypie opiera się na oficjalnym raporcie rządowym (petycje o odszkodowanie z powodu rzekomego urazu po szczepionce). Ale artykuł nigdy nie wspomina, że nie jest konieczne, aby petenci przedstawiali dowody.
    Niepoparte: Artykuł nie przedstawia recenzowanych dowodów na szkodliwość szczepionki przeciwko grypie.
    Niedokładny: Artykuł umniejsza korzyści płynące ze szczepionki przeciwko grypie, podając błędne statystyki dotyczące zmniejszenia śmiertelności związanej z grypą.

Nie podali również linku do artykułu, który opublikowaliśmy, aby ktoś mógł sam sprawdzić, czy to, co faktycznie publikujemy, było "wprowadzające w błąd i niedokładne", czy też nie.

A większość ludzi dzisiaj i tak nie potrafi myśleć samodzielnie i nie byłaby w stanie wyraźnie dostrzec tutaj propagandy, takiej jak stwierdzenie "nie jest konieczne, aby petenci przedstawiali dowody", które jest bezsensowne, ponieważ petenci z całą pewnością DOKŁADNIE przedstawiają dowody, gdy składają wniosek, przez większość czasu, niezależnie od tego, czy jest to "konieczne", czy nie.

Użyli również logicznego błędu argumentu milczenia, twierdząc, że nie przedstawiliśmy "recenzowanych dowodów na szkodliwość szczepionki przeciwko grypie".

Ale nigdy nie twierdziliśmy, że dostarczyliśmy "recenzowane" dowody, a ich brak niczego nie dowodzi.

Dostarczyliśmy inny rodzaj dowodów, które znajdują się w rządowej bazie danych VAERS, jak również rozstrzygnięte roszczenia w Krajowym Sądzie ds. Szczepionek dotyczące zgonów i obrażeń spowodowanych szczepionką przeciwko grypie - coś, o czym większość ludzi nawet nie wie, że istnieje.

To właśnie robi AI Chat. Po prostu bierze propagandę z Google lub Bing i tworzy tekst i narracje wokół tej "informacji", aby zwalczać "dezinformację" według nich.

I jak ja i wielu innych już zgłosiło, i co Microsoft i Google publicznie przyznają, jest to, że jeśli bot AI Chat nie znajdzie informacji potrzebnych do przygotowania odpowiedzi, po prostu wymyśla rzeczy.

A jednak, to zostało uwolnione do społeczeństwa w sposób masowy, z katastrofalnymi wynikami, ponieważ zbiera dane, które dostarczasz, więc może nadal "trenować" ich AI.

Oto raport opublikowany właśnie w tym tygodniu przez doradcę inwestycyjnego, który pokazuje, że oprogramowanie AI Chat degraduje, a NIE wzmacnia, informacje online.


Przygotuj się na lawinę okropnych treści inwestycyjnych online, dzięki ChatGPT

Fragmenty:

Ostatnio czytałem dużo o tym, jak ChatGPT pozwala ludziom, którzy nadal mają możliwość pracy w domu, aby pracować trzy lub cztery prace jednocześnie, zwłaszcza jeśli ich praca obejmuje zadania, które ChatGPT jest szczególnie adeptem w osiągnięciu, jak pisanie kodu, naprawianie problemów w kodzie i pisanie marketingu i kopii reklam.

Są dosłownie ludzie, którzy pracują na czterech etatach, i to nie dlatego, że muszą pracować 16 godzin dziennie, aby związać koniec z końcem, ale dlatego, że pracują na etatach, dla których ChatGPT wykonuje 80% lub więcej wymaganych zadań dla każdego etatu.
Więc to ma sens, jeśli ChatGPT pozwala im spędzić tylko 20% normalnego czasu wymaganego do wykonania ich zadań, że mogą pracować cztery prace jednocześnie i nadal mieć 20% więcej wolnego czasu niż wcześniej.


Złe wieści dla inwestorów

Niestety, sama użyteczność AI, którą wielu pracowników wykorzystało, aby zarobić znaczne wynagrodzenie, wykonując bardzo mało pracy, przyniesie lawinę i rozprzestrzenianie się okropnych porad finansowych i inwestycyjnych online.

Jest to zła wiadomość dla inwestorów detalicznych, którzy stale poszukują informacji online, aby kierować się swoimi strategiami inwestycyjnymi.

Już teraz, od drugiego kwartału 2023 roku, ilość okropnych, powtarzanych, zmęczonych i nieskutecznych strategii inwestycyjnych dominuje w artykułach finansowych i inwestycyjnych online, a znalezienie jakichkolwiek wartościowych wskazówek inwestycyjnych online jest jak szukanie igły w przysłowiowym stogu siana.

Ale już niedługo będzie gorzej za sprawą AI. O wiele, wiele gorzej.


Nie ma wątpliwości, że wielu pisarzy, którzy zarabiają na życie dostarczając analizy finansowe i inwestycyjne oraz wskazówki, już zwróciło się do ChatGPT, aby napisać dla nich artykuły, biorąc pod uwagę, że ChatGPT może, na przykład, skondensować kilka godzin, które zajęło mi napisanie tego artykułu w dół do mniej niż 20 minut.

Pięć minut dla ChatGPT, aby napisać artykuł i być może kolejne 15 minut, aby dostosować język w artykule, aby wydawało się, że człowiek zamiast programu AI napisał artykuł.

W rzeczywistości, gdybym miał zaoferować czysto spekulacyjne przypuszczenie, mógłbym przypuszczać, że liczba napisanych przez ChatGPT artykułów o charakterze finansowym / inwestycyjnym na płatnych platformach, takich jak Substack i innych, jest już wyzwaniem dla liczby nie-ChatGPT napisanych artykułów.

Jednakże, jak już stwierdziłem na mojej platformie subskrypcyjnej skwealthacademy, obiecuję, że żaden z artykułów, które czytasz w moim subskrypcyjnym newsletterze nigdy nie będzie częściowo lub w większości napisany przez ChatGPT i że wszystkie będą zawierały tylko oryginalne treści oparte na moich badaniach i analizach. my skwealthacademy substack newsletter platform,

Nawet jeśli moje założenie powyżej jest poprawne, a trend ostatecznie postępuje do punktu, w którym 95% wszystkich artykułów finansowych napisanych online przez autorów z płatnymi modelami subskrypcji jest napisanych przez ChatGPT, dlaczego byłoby to straszne dla wszystkich inwestorów?

Na początek eksperymentowałem z ChatGPT tylko po to, aby przeanalizować prawdziwość i dokładność jego finansowego pisania, a w skali od 1 do 10 oceniłbym go na 1, co następnie oznacza, że zdecydowana większość opublikowanych artykułów finansowych online może zdegenerować się do jedynki.

Na przykład, wystarczy przeczytać ten artyku just read this article ił, w którym nakreśliłem liczne błędy i pomyłki dotyczące złota jako inwestycji zawarte w artykule, o którego napisanie poprosiłem ChatGPT.

Powodem, dla którego tak wiele błędów zostało zawartych w tym artykule napisanym przez ChatGPT jest to, że ChatGPT czerpie informacje podczas pisania swojego artykułu z obszernych archiwów materiałów online. Nie był to jedyny artykuł, który poprosiłem ChatGPT o napisanie na temat finansów / inwestycji, ale poprosiłem również ChatGPT o napisanie artykułów o innych aktywach, takich jak akcje, obligacje, ropa naftowa, itp. i podczas gdy nie zapewni żadnej "porady finansowej", przesyła te same zmęczone, oklepane odpowiedzi na temat tych aktywów, jak omówię poniżej.

W każdym przypadku było dla mnie oczywiste, że artykuły ChatGPT były rozmieszczone algorytm podobny do algorytmu Google w określaniu, co jest poprawne, a co nie.

Innymi słowy, wiadomości przekazywane za pośrednictwem artykułów miały te same uprzedzenia, które można znaleźć u każdego amerykańskiego lub globalnego doradcy finansowego: anty-złoto, pro-USD/Euro, pro-suwerenne akcje i pro-najbardziej posiadane akcje, pro-suwerenne obligacje, anty-olejowe, jeśli maszyna wojenna była anty-olejowa, anty-energia jądrowa, jeśli maszyna wojenna była pro-wiatrowa i pro-solarna (pomimo ogromnej nieefektywności i wysokich kosztów tych "zielonych" energii) i tak dalej.

Mówiąc o stronniczości ChatGPT w inny sposób, w przypadku tematów związanych z finansami/inwestycjami, był on w zasadzie rzecznikiem globalnego komercyjnego przemysłu inwestycyjnego i kompleksu Military Industrial Banking.

Wszystkie artykuły, o które prosiłem, aby napisać o finansach / inwestowaniu, nie miały żadnego przewidywania lub zdolności do dokładnego przewidywania ogromnych zmian w środowisku inwestycyjnym, więc treść, którą dostarczał, umieszczała inwestora daleko za krzywą, zamiast ją wyprzedzać.

Przeczytaj pełny artykuł.Read the full article.

AI Chat nie przejmie świata, ale z całą pewnością będzie próbował uciszyć głosy sprzeciwu i stworzyć jedną narrację, która jest "akceptowalna", według nich, ponieważ zbiera dane o tobie, gdy nadal z niego korzystasz, jeśli zapisałeś się na konto, aby użyć jednego.

**By Brian Shillhavy

**Source

Brak komentarzy:

Prześlij komentarz