Warto zauważyć, co napisano o sztucznej inteligencji (AI) w ostatnich tygodniach, szczególnie jeśli chodzi o szum wokół ChatGPT. O ile mogę sądzić, większość z tego zasadniczo sprowadza się do postrzegania lub strachu, że sztuczna inteligencja wyprzedziła ludzi pod względem inteligencji. doktora Harveya Rischa otwierające oczy konto jego „rozmowy” z sztuczną inteligencją dobitnie pokazało, że jest to błędne postrzeganie, a mimo to wydaje się, że i tak się utrzymuje.
Niedawne doświadczenie, które miałem z entuzjastą ChatGPT, daje takie samo wrażenie w odniesieniu do powszechnego przekonania, że ta ostatnia AGI (sztuczna inteligencja ogólna) jest równa, jeśli nie lepsza od ludzi w dziale inteligencji. Stało się to przy okazji wykładu, który wygłosiłem członkom organizacji kulturalnej na temat tego, w jakim stopniu prace Freuda i Hannah Arendt mogą dać wgląd w obecny wzrost podstępnych totalitarnych środków kontroli na całym świecie.
Jednym z takich charakterystycznych wydarzeń jest próba Światowej Organizacji Zdrowia, aby pozbawić kraje ich suwerenności poprzez pomyślną zmianę konstytucji. Ta próba nie powiodła się dwa lata temu, kiedy kraje afrykańskie sprzeciwiły się proponowanym poprawkom, ale w 2024 roku WHO spróbuje ponownie, w międzyczasie energicznie lobbując przywódców afrykańskich.
Po moim wystąpieniu ktoś powiązał temat z AI. W szczególności dotyczyło to mojego twierdzenia, że Freudowskie koncepcje Erosa (popęd życia) i Thanatos (popęd śmierci) z jednej strony oraz Arendt narodziny (każdy człowiek poprzez urodzenie wnosi do świata coś niepowtarzalnego) i mnogość (wszyscy ludzie są różni), z drugiej rzucają światło na naturę totalitaryzmu. Wiązało się to również z pytaniem, czy totalitaryzm może być podtrzymywany przez tych, którzy go propagują. Okazało się, że po rozpowszechnieniu tematu mojego wystąpienia poprosił ChatGPT o skomentowanie go i przyniósł „odpowiedź” AI na spotkanie w formie drukowanej, aby mi ją pokazać.
Zgodnie z przewidywaniami, w przypadku maszyny do badań predykcyjnych i rozpoznawania wzorców językowych z ogromną bazą danych (którą naprawdę jest ChatGPT) nie było trudno dokładnie rozpakować, co oznaczają odpowiednie koncepcje freudowskie i arendtowskie – każdy uczeń mógł to znaleźć w Internecie albo też w bibliotece. Ale tam, gdzie sztuczna inteligencja się zawahała, dotyczyło powiązania, które ustaliłem między ideami tych myślicieli a bieżącymi wydarzeniami rozgrywającymi się w przestrzeni globalnej.
Przypomnijmy sobie, że użyłem koncepcji Freuda i Arendt w sposób heurystyczny w odniesieniu do tego, co prawdopodobnie jest oznaką totalitarnych „ruchów” dokonywanych dzisiaj w różnych obszarach instytucjonalnych. ChatGPT – znowu przewidywalny – zrobił (i prawdopodobnie mógłby) nie rozwinąłem związku, który zasugerowałem w krążącym tytule mojego wystąpienia, i po prostu „stwierdziłem”, że istnieje „jakiś” związek między ideami tych dwóch myślicieli a totalitaryzmem.
Powód tego powinien być natychmiast widoczny. Nigdzie w bazie danych ChatGPT nie ma żadnych informacji – w formie czytelnej interpretacji – czego symptomatyczne są wydarzenia, takie jak trwająca próba WHO, by stać się światowym organem zarządzającym (o których mowa powyżej), a mianowicie rodzący się globalny reżim totalitarny. Aby ChatGPT (lub jakakolwiek inna sztuczna inteligencja) mogła wymyślić taką „interpretację”, musiałaby zostać wprowadzona do bazy danych przez swoich programistów – co jest mało prawdopodobne, jeśli nie nie do pomyślenia, biorąc pod uwagę dorozumianą krytykę bardzo konstelacja mocy, która dała początek konstrukcji ChatGPT – w przeciwnym razie sztuczna inteligencja musiałaby posiadać zdolność, jaką posiadają wszyscy „normalni” ludzie, a mianowicie być w stanie interpretować otaczający ich świat doświadczalny. Oczywiście żadna sztuczna inteligencja nie ma takiej zdolności ze względu na jej zależność od zaprogramowania.
Mój rozmówca zakwestionował tę wyjaśniającą odpowiedź z mojej strony, argumentując, że ChatGPT wykazuje zdolność do „rozumowania” w każdej „odpowiedzi”, jaką pojawia się na pytania, które można zadać. Zaznaczyłem, że nie jest to dokładny opis tego, co robi sztuczna inteligencja. Pamiętaj: ChatGPT tworzy antropomorficzne odpowiedzi w języku potocznym na zadane mu pytania. Czyni to za pomocą przykładów wykrytych w kolosalnych zbiorach danych, do których ma dostęp i które umożliwiają przewidywanie kolejnych wyrazów w zdaniach. Mówiąc zwięźle: jest w stanie wyszukiwać wzorce statystyczne w tych ogromnych bazach danych, wykorzystując „uczenie maszynowe”.
Nie tym jest rozumowanie, o czym powinien wiedzieć każdy student, który studiował logikę i historię filozofii – jak przekonywał René Descartes w XVII wiekuth wieku rozumowanie jest połączeniem intuicyjnych spostrzeżeń i wnioskowania lub dedukcji. Zaczyna się od intuicyjnego wglądu – powiedzmy, że zgasły światła – i stąd wnioskuje się, że albo ktoś je wyłączył, albo nastąpiła przerwa w dostawie prądu. Można też wnioskować (przez dedukcję) z jednego zestawu danych (intuicyjny wgląd), że inny jest prawdopodobny lub nieprawdopodobny. W żadnym momencie nie można uciekać się do ogromnych ilości danych, które skanuje się w poszukiwaniu wzorców wykazujących podobieństwa i na tej podstawie podejmuje się przewidywań.
Niemniej jednak, jak można stwierdzić od informatyków, takich jak dr Arvind Narayanan, profesor informatyki na Uniwersytecie Princeton, ludzie (podobnie jak mój rozmówca) łatwo dają się oszukać sztucznej inteligencji, takiej jak ChatGPT, ponieważ wydaje się ona tak wyrafinowana, a im bardziej wyrafinowani się stają, tym trudniej byłoby użytkownikom dostrzec ich niedociągnięcia dotyczące pseudorozumowania, jak również ich błędy.
Jak wskazuje dr Narayanan, odpowiedzi ChatGPT na niektóre pytania egzaminacyjne z informatyki, które mu zadał, były fałszywe, ale zostały sformułowane w tak zwodniczy sposób, że ich fałszywość nie była od razu widoczna, i musiał je sprawdzić trzy razy, zanim był pewien, że to tak było. To tyle, jeśli chodzi o osławioną zdolność ChatGPT do „zastępowania” ludzi.
Należy jednak pamiętać, że to, co do tej pory zostało omówione w kategoriach porównawczych, dotyczy tego, czy sztuczna inteligencja, taka jak ChatGPT, działa tak samo jak człowiek na poziomie inteligencji, co dotyczy różnic takich jak rozumowanie, a nie rozpoznawanie wzorców, i tak dalej. Można oczywiście sformułować to pytanie w kategoriach niższości i wyższości, a niektórzy twierdzą, że nadal pojawiają się ludzie przechytrzyć sztuczną inteligencję, nawet jeśli sztuczna inteligencja może wykonywać obliczenia matematyczne szybciej niż ludzie.
Ale tylko wtedy, gdy zmienia się teren, fundamentalne różnice między człowiekiem, postrzeganym holistycznie, a sztuczną inteligencją, bez względu na to, jak inteligentna, można zobaczyć z perspektywy. Jest to najczęściej pomijane przez ludzi, którzy angażują się w debatę dotyczącą ludzi w przeciwieństwie do „sztucznej” inteligencji, z tego prostego powodu, że inteligencja jest nie wszystko co się liczy.
Aby zilustrować, co mam na myśli, przypomnijmy sobie, co wydarzyło się między mistrzem świata w szachach Garrym Kasparowem a Modry, „superkomputer” IBM w 1997 roku. Pokonany przez Kasparowa w 1996 roku, Modry odniósł pierwsze zwycięstwo nad człowiekiem przez maszynę w następnym roku, a potem również – podobnie jak w przypadku dzisiejszego ChatGPT – powszechne było lamentowanie nad rzekomym „upadkiem” rasy ludzkiej, reprezentowanej przez pokonanie Kasparowa przez komputer ( sztuczna inteligencja).
Podobnie jak dzisiaj w przypadku ChatGPT, ta reakcja była symbolem błędu popełnianego przez ogromną większość ludzi, gdy oceniają relacje między sztuczną inteligencją a ludźmi. Zwykle ocena taka dokonywana jest w kategoriach poznawczych, poprzez ocenę, co jest bardziej „inteligentne” – ludzie czy maszyny. Należy jednak zapytać, czy inteligencja była odpowiednią – nie mówiąc już o najbardziej odpowiednią – miarą do porównywania ludzi i komputerów (jako reprezentatywnych dla sztucznej inteligencji) wtedy, a nawet teraz.
Zrozumiałe jest, że upokorzenie Kasparowa przez maszynę było wówczas relacjonowane wszędzie i przypominam sobie, że natknąłem się na taką relację, w której autor wykazał głębokie zrozumienie tego, co mam na myśli, kiedy odwołuję się do tego, co właściwe, lub odpowiednich mierników do porównania między ludźmi a sztuczna inteligencja. Po zrekonstruowaniu przygnębiających szczegółów historycznej klęski Kasparowa przez Modry, ten pisarz sięgnął po humorystyczną, ale mało wymowną fantazję.
Po symbolicznej klęsce człowieka, ona lub on zmyślili, zespół inżynierów i informatyków, który zaprojektował i zbudował Modry wyszli na miasto, aby świętować swój epokowy triumf. Błędem byłoby napisanie „zwycięstwo ich maszyny”, ponieważ ściśle mówiąc, to zespół ludzki odniósł zwycięstwo za pomocą „swojego” komputera.
Puenta była przygotowana na to, kiedy pisarz zapytał retorycznie, czy Modry, również wyszedł pomalować miasto na czerwono Jasnoróżowym, aby rozkoszować się podbojem. Nie trzeba podkreślać, że odpowiedź na to retoryczne pytanie jest negatywna. Po nim nastąpiła puenta, która stwierdzała oczywistość; mianowicie, że „ludzie świętują; robią to komputery (lub maszyny). nie."
Patrząc wstecz, uderzające jest to, że ten pisarz był pewnego rodzaju wizjonerem, wykorzystując fikcję, aby podkreślić fakt, że chociaż ludzie i sztuczna inteligencja mają wspólną „inteligencję” (choć różnego rodzaju), to nie nie zaznacz najbardziej oczywiste, nieredukowalne różnice między sztuczną inteligencją a ludźmi. Istnieją inne, znacznie bardziej decydujące różnice między ludźmi a sztuczną inteligencją, z których część została zbadana tutaj i tutaj .
Opublikowane pod a Creative Commons Uznanie autorstwa 4.0 Licencja międzynarodowa
W przypadku przedruków ustaw link kanoniczny z powrotem na oryginał Instytut Brownstone Artykuł i autor.