UDOSTĘPNIJ | DRUKUJ | E-MAIL
Coraz bardziej oczywiste staje się, że wiele osób obawia się szybko rozwijającej się sztucznej inteligencji (AI), z różnych powodów, takich jak jej rzekoma wyższość nad ludźmi w zakresie przetwarzania i przetwarzania informacji, a także jej adaptowalność i wydajność w miejscu pracy, co – jak obawiają się niektórzy – doprowadzi do zastąpienia większości ludzi na rynku pracy. Amazon ogłosił niedawno, że zamierza zastąpić 14 000 osób robotami opartymi na AI. Alex valdes pisze:
Zwolnienia podobno są największy w historii Amazoni nadeszła zaledwie kilka miesięcy po odejściu dyrektora generalnego Andy'ego Jassy'ego przedstawił swoją wizję w jaki sposób firma szybko przyspieszy rozwój generatywna sztuczna inteligencja oraz AI agenci. Cięcia są najnowszymi cięciami fala zwolnień w tym roku ponieważ giganci technologiczni, w tym Microsoft, Accenture, Salesforce i indyjski TCS, zredukowali zatrudnienie o tysiące osób w ramach gorączkowego inwestowania w sztuczną inteligencję.
Aby nie było to zbyt niepokojące, by tolerować, porównajmy to z uspokajającym stwierdzeniem, na dodatek od twórcy sztucznej inteligencji, że agenci AI nie mogą zastąpić ludzi. Brian Shilhavy wskazuje, że:
Andrej Karpathy, jeden z założycieli OpenAI, w piątek ostudził zapał ideę, że sztuczna inteligencja jest już na wyciągnięcie ręki. Poddał również w wątpliwość różne założenia dotyczące sztucznej inteligencji, formułowane przez największych propagatorów branży, takich jak Dario Amodei z Anthropic i Sam Altman z OpenAI.
Wysoko ceniony Karpathy nazwał uczenie wzmacniające – prawdopodobnie najważniejszy obecnie obszar badań – „strasznym”, powiedział, że agenci kodujący wspomagani przez sztuczną inteligencję nie są tak ekscytujący, jak myśli wiele osób, i dodał: Sztuczna inteligencja nie potrafi rozumować na podstawie niczego, na czym nie została wcześniej wyszkolona.
Jego komentarze, pochodzące z wywiadu podcastowego z Dwarkeshem Patelem, znalazły oddźwięk u niektórych badaczy sztucznej inteligencji, z którymi rozmawialiśmy, w tym tych, którzy pracowali również w OpenAI i Anthropic. Potwierdziły one również komentarze, które usłyszeliśmy od badaczy na Międzynarodowej Konferencji Uczenia Maszynowego na początku tego roku.
Większość krytyki Karpathy'ego pod adresem jego własnej dziedziny sprowadza się do jednego punktu: Choć lubimy antropomorfizować duże modele językowe, nie da się ich porównać do ludzi, ani nawet zwierząt, jeśli chodzi o sposób uczenia się.
Na przykład zebry są w stanie wstać i chodzić już kilka minut po urodzeniu, co sugeruje, że rodzą się z pewnym poziomem wrodzonej inteligencji, podczas gdy zebry posiadające tytuł LLM muszą przechodzić przez ogromną liczbę prób i błędów, aby nauczyć się jakiejkolwiek nowej umiejętności – zauważa Karpathy.
To już jest pocieszające, ale aby lęk przed sztuczną inteligencją nie utrzymywał się, można go jeszcze bardziej rozwiać, omawiając różnice między sztuczną inteligencją a ludźmi. Jeśli zostaną one odpowiednio zrozumiane, uświadomią one, że takie obawy są w większości zbędne (choć inne nie, jak wykażę poniżej). Najbardziej oczywistą różnicą jest fakt, że sztuczna inteligencja (na przykład ChatGPT) jest zależna od posiadania ogromnej bazy danych, z której korzysta, aby znaleźć odpowiedzi na pytania, które formułuje predykcyjnie poprzez rozpoznawanie wzorców. Następnie, jak wskazano powyżej, nawet najbardziej zaawansowana sztuczna inteligencja musi zostać „wyszkolona”, aby dostarczać poszukiwanych informacji.
Co więcej, w przeciwieństwie do ludzi, brakuje mu „bezpośredniego” dostępu do rzeczywistości doświadczalnej w kategoriach percepcyjnych i czasoprzestrzennych – czego często doświadczałem w konfrontacji z osobami, które odwołują się do ChatGPT, aby kwestionować pewne argumenty. Na przykład, kiedy niedawno wygłosiłem wykład na temat tego, jak prace Freuda i Hannah Arendt – odpowiednio o cywilizacji i totalitaryzmie – pozwalają zrozumieć charakter globalistycznego ataku na istniejące społeczeństwo, mającego na celu ustanowienie centralnego, kontrolowanego przez sztuczną inteligencję rządu światowego, ktoś z publiczności przedstawił wydruk odpowiedzi ChatGPT na pytanie, czy ci dwaj myśliciele rzeczywiście mogliby dostarczyć, że tak powiem, towaru.
Jak można było się spodziewać, artykuł dość adekwatnie podsumował istotne prace tych dwóch myślicieli, ale napotkał na opór z powodu konieczności pokazania, jak odnosi się on do rosnącego zagrożenia kontrolą totalitarną w czasie rzeczywistym. Mój rozmówca wykorzystał to jako podstawę do zakwestionowania moich własnych twierdzeń w tym zakresie, zakładając, że reakcja bota AI wskazywała na brak takiego zagrożenia. Nie trzeba podkreślać, że nie było trudno obalić to twierdzenie, przypominając mu o zależności ChatGPT od dostarczania mu odpowiednich danych, podczas gdy my, ludzie, mamy do nich dostęp na podstawie doświadczenia, co następnie mu przedstawiłem.
Strach przed sztuczną inteligencją znajduje wyraz także w science fiction, wraz z sugestiami możliwych sposobów oporu wobec maszyn AI, które mogą – prawdopodobnie będą – próbować eksterminować swoich ludzkich twórców, jak wyobrażano to sobie w kinie science fiction, w tym w filmie Moore’a Battlestar Galactica i Camerona "Terminator" Filmy. Nietrudno wykazać, że tego typu produkty kultury popularnej ujmuje obecne objawy strachu przed sztuczną inteligencją w kategoriach wyimaginowanych, co można postrzegać jako krystalizację stłumionego, nieświadomego lęku, związanego z tym, co Freud nazywał „niesamowitością” (niezdrowy, w języku niemieckim; więcej na ten temat poniżej).
Zarówno Moore, jak i Cameron rozwijają rozważania na temat prawdopodobieństwa, że istoty stworzone przez technologiczną pomysłowość człowieka w końcu zwrócą się przeciwko swoim twórcom, by je unicestwić. W książce Alexa Garlanda Ex Machina (2014) ponownie jesteśmy świadkami, jak sztuczna inteligencja „fembot” o imieniu Ava subtelnie manipuluje swoimi ludzkimi odpowiednikami, aż do ucieczki z niewoli i ich własnej zagłady. Niewątpliwie te i wiele innych podobne przypadki, są niezbitym dowodem ukrytego strachu ludzkości przed potencjalnym zagrożeniem dla jej istnienia ze strony sztucznej inteligencji. Właśnie dlatego, że te obawy są zakorzenione w ludzkiej podświadomości, nie są one głównym powodem, by poważnie traktować jakiekolwiek zagrożenie ze strony sztucznej inteligencji, choć stanowią cenne ostrzeżenie.
Głównym powodem, dla którego sztuczna inteligencja jest uznawana za uzasadnione źródło zastraszania, jest to, że: nie Wynikają one z samej sztucznej inteligencji, o czym wielu czytelników prawdopodobnie już wie. Chodzi raczej o sposób, w jaki globaliści zamierzają wykorzystać sztuczną inteligencję do kontrolowania tych, których postrzegają jako „bezużytecznych zjadaczy” – innymi słowy, reszty z nas. A ci z nas, którzy nie zgadzają się z ich ambitnymi planami całkowitej kontroli nad światem, padliby ofiarą bycia „przeprogramowany w posłuszne „owce” przez sztuczną inteligencję:
Yuval Noah Harari wyłonił się z cienia, aby pochwalić się nową technologią opracowaną przez naukowców WEF, która, jak ostrzega, ma moc zniszczenia każdego człowieka na świecie poprzez przekształcenie go w transhumanistyczne istoty.
Harari jasno dał do zrozumienia, kto przetrwa wielkie wyludnienie, przed którym elity ostrzegały nas od lat.
Według Harariego globalna elita przetrwa dzięki „technologicznej Arce Noego”, a reszta z nas zostanie pozostawiona na pastwę losu.
W tym ogromnie wyludnionym świecie elity będą mogły swobodnie przeobrazić się w istoty transhumanistyczne i stać się bogami, za których już się uważają.
Najpierw jednak elity muszą wyeliminować niepokorne masy, czyli tych, którzy sprzeciwiają się antyżyciowemu i bezbożnemu programowi Światowego Forum Ekonomicznego. Jak chwali się Harari, elity teraz wydają rozkazy technologii sztucznej inteligencji, aby „etycznie” niszczyła niepokornych ludzi poprzez przejęcie kontroli nad ich mózgami.
Co niepokojące, twierdzenia Harariego są oparte na faktach, a Światowe Forum Ekonomiczne (WEF) właśnie wdraża technologię kontroli umysłu. Davos twierdzi, że technologia ta może przekształcić przestępców, w tym oskarżonych o przestępstwa myślowe, w całkowicie posłusznych obywateli globalistów, którzy nigdy więcej nie będą się sprzeciwiać.
No i proszę – jeśli globaliści postawią na swoim, sztuczna inteligencja będzie narzędziem, które zmusi nas do uległości. Nie trzeba dodawać, że może się to wydarzyć tylko wtedy, gdy wystarczająca liczba ludzi nie oprze się ich planom, a sądząc po liczbie osób wyrażających sprzeciw wobec potencjalnych władców świata, to się nie wydarzy.
Innym sposobem zrozumienia strachu przed sztuczną inteligencją jest porównanie go do tego, co powszechnie nazywa się „straszakiem”. Jak niektórzy mogą wiedzieć, „straszydło (lub „straszak”) – istota o mitycznych proporcjach, która w wielu kulturach przybiera różne kształty i rozmiary, często po to, by straszyć dzieci i wymusić na nich dobre zachowanie – jest przedstawiana jako monstrualna, groteskowa lub bezkształtna istota. Jak wskazują pobieżne badania, słowo to pochodzi od średniowiecznego angielskiego słowa „bogge” lub „bugge”, które oznacza „strach na wróble” lub „przerażające widmo”.
Będąc kwintesencją ludzkiego fenomenu, nie dziwi fakt, że ma on swoje odpowiedniki w wielu folklorach i językach na całym świecie. Podobnie jak języki, przedstawienia tej przerażającej postaci różnią się uderzająco, często uzyskując swój złowieszczy i przerażający charakter dzięki bezpostaciowości, jak na przykład postać „El Coco” w krajach hiszpańskojęzycznych, „Człowieka z Worka” w Ameryce Łacińskiej i „Babau” we Włoszech, niekiedy przedstawiana jako wysoki mężczyzna w czarnym płaszczu.
Postać straszaka można postrzegać jako rodzaj jungowskiego archetypu, spotykanego w zbiorowej nieświadomości, który prawdopodobnie narodził się wieki temu z potrzeby rodziców, by zastraszyć dzieci i zmusić je do posłuszeństwa za pomocą nieznanego. W RPA, gdzie mieszkam, przybiera ona czasami postać tego, co rdzenni mieszkańcy nazywają „…tikolosze' – złowroga, a czasem psotna, karłowata postać o ogromnym apetycie seksualnym. Jako archetyp, znalazła również swoje miejsce w popularnym gatunku, takim jak horror, manifestując się w groteskowych postaciach, takich jak Freddy Krueger, tytułowy „Koszmar z ulicy wiązów".
W jakim więc sensie sztuczna inteligencja przypomina „straszaka”? To ostatnie wiąże się z tym, co Zygmunt Freud trafnie nazwał „niesamowitością”, o której pisze (w Kompletne dzieła psychologiczne Zygmunta Freuda, tłumaczenie James Strachey, 1974: 3676): „…niepokojące jest to rodzaj przerażającego czegoś, co odsyła do tego, co jest znane od dawna i znane od dawna”.
To już sugeruje to, co odkryje później w tym eseju, po odkryciu zaskakującego faktu, że niemieckie słowo oznaczające „domowy”, a mianowicie „potajemnie, okazuje się być ambiwalentne w użyciu, tak że czasami oznacza coś przeciwnego do słowa „domowy”, mianowicie „unheimlich' („nieprzystojny”, lepiej przetłumaczyć jako „niesamowity”). To, że koncepcja „niesamowitości” jest odpowiednia do uchwycenia tego, co mam na myśli, mówiąc o „strachu przed sztuczną inteligencją”, staje się oczywiste, gdy Freud pisze (odnosząc się do innego autora, którego prace na temat „niesamowitości” uważał za ważne; Freud 1974: 3680):
Przystępując do przeglądu rzeczy, osób, wrażeń, zdarzeń i sytuacji, które są w stanie wzbudzić w nas uczucie niesamowitości w szczególnie silnej i określonej formie, pierwszym wymogiem jest oczywiście wybór odpowiedniego przykładu, od którego można zacząć. Jentsch wziął za bardzo dobry przykład „wątpliwości, czy pozornie ożywiona istota jest rzeczywiście żywa; lub odwrotnie, czy martwy przedmiot może nie być w rzeczywistości ożywiony”; i odnosi się w tym kontekście do wrażenia, jakie wywierają figury woskowe, pomysłowo skonstruowane lalki i automaty. Dodaje do tego niepokojący efekt ataków epilepsji i przejawów szaleństwa, ponieważ wywołują one u widza wrażenie automatycznych, mechanicznych procesów zachodzących za zwykłym pozorem aktywności umysłowej.
Już tutaj napotykamy cechę niepokoju, która wyraźnie odnosi się do sztucznej inteligencji – wrażenie, jakie AI stwarza, że jest w jakiś sposób „żywa”. Tak było nawet w przypadku pierwszych, „prymitywnych” komputerów, takich jak ten w odcinku o Pierwszym Przykazaniu, serialu telewizyjnego Krzysztofa Kieślowskiego z 1989 roku o Dziesięciu Przykazaniach, zatytułowanym Dekalog, gdzie słowa „Jestem tutaj” pojawiają się na ekranie komputera, gdy ojciec i jego syn z niego korzystają. Złowieszcza implikacja tego odcinka jest taka, że gdyby ludzkość zastąpiła Boga sztuczną inteligencją, byłoby to dla nas katastrofalne, o czym świadczy fakt, że ojciec jest na tyle „racjonalny”, by zaufać obliczeniom komputera dotyczącym grubości lodu, po którym jeździ jego syn, co okazuje się błędne, prowadząc do śmierci dziecka.
Freud kontynuuje swoje badania nad naturą „niesamowitości”, zwracając szczególną uwagę na twórczość ETA Hoffmana, którego opowiadania słyną z silnego poczucia niesamowitości, zwłaszcza opowieść o „Piaskowym Człowieku” – „który wyrywa dzieciom oczy” – w której, obok kilku innych niepokojących postaci (i co bardzo istotne), pojawia się piękna, realistyczna lalka o imieniu Olimpia. Następnie wyjaśnia to, odnosząc to w kategoriach psychoanalitycznych do kompleksu kastracyjnego – związanego z postacią ojca – poprzez lęk przed utratą oczu (Freud 1974: 3683-3685). Freud kontynuuje swoją interpretację niesamowitości w sposób odkrywczy, przywołując szereg innych psychoanalitycznie istotnych aspektów doświadczenia, z których poniższy wydaje się odnosić do sztucznej inteligencji (1974: 3694):
…efekt niepokoju często i łatwo powstaje, gdy zaciera się rozróżnienie między wyobraźnią a rzeczywistością, jak na przykład, gdy coś, co dotychczas uważaliśmy za wyimaginowane, pojawia się przed nami w rzeczywistości, lub gdy symbol przejmuje pełnię funkcji rzeczy, którą symbolizuje, itd. To właśnie ten czynnik w niemałym stopniu przyczynia się do efektu niepokoju związanego z praktykami magicznymi.
Freud twierdzi, że nie jest trudno przypomnieć sobie sytuacje z dzieciństwa, kiedy wyobrażaliśmy sobie, że nieożywione przedmioty, na przykład zabawki (albo ożywione, jak na przykład pies), mogą do nas mówić, ale kiedy faktycznie tak się dzieje (co byłoby halucynacją, a nie świadomym wyobrażeniem), nieuchronnie wywołuje to niepokojący efekt.
Można by oczekiwać, że to samo będzie miało miejsce w przypadku sztucznej inteligencji (AI), niezależnie od tego, czy w postaci komputera, czy robota, i zazwyczaj – być może na wcześniejszym etapie rozwoju AI – prawdopodobnie tak by było. Ale dziś wydaje się, że jest inaczej: ludzie, zwłaszcza młodzi, tak bardzo przyzwyczaili się do interakcji z programami komputerowymi, a ostatnio z chatbotami opartymi na AI, takimi jak ChatGPT, że to, co wcześniej mogło być doświadczeniem niesamowitości, w praktyce już nim nie jest. Pod tym względem „niesamowitość” wydaje się być udomowiona.
Już w 2011 roku w Razem Razem, Szerry Turkle Zgłosiła, że jest zaniepokojona rosnącą tendencją młodych ludzi do preferowania interakcji z maszynami zamiast z innymi ludźmi. Dlatego nie powinno dziwić, że chatboty oparte na sztucznej inteligencji przybrały pozory czegoś „normalnego” w sferze komunikacji (pomijając na chwilę kwestię statusu tej wychwalanej „komunikacji”).
Co więcej – i tu strach przed tym, co sztuczna inteligencja może zrobić z osobami nadmiernie ufnymi, podnosi swoją brzydką głowę – z ostatnich raportów (takich jak ten) wynika, że szczególnie młodzi są niezwykle podatni na „porady” i sugestie chatbotów dotyczące ich własnych działań, jak zauważył Michael Snyder zwraca uwagę:
Nasze dzieci padają ofiarą chatbotów opartych na sztucznej inteligencji na masową skalę, a większość rodziców nie ma o tym pojęcia. Kiedy jesteś młody i podatny na wpływy, usłyszenie od kogoś, kto powie ci dokładnie to, co chcesz usłyszeć, może być bardzo kuszące. Chatboty oparte na sztucznej inteligencji stały się niezwykle zaawansowane, a miliony amerykańskich nastolatków nawiązują z nimi bardzo głębokie relacje. Czy to tylko nieszkodliwa zabawa, czy też skrajnie niebezpieczne?
Zupełnie nowe badanie, które właśnie opublikowało Centrum Demokracji i Technologii, zawiera pewne statystyki to mnie absolutnie zszokowało...
Nowe badanie opublikowane 8 października przez Centrum Demokracji i Technologii (CDT) wykazało, że co piąty uczeń szkoły średniej miał kontakt z chatbotem opartym na sztucznej inteligencji lub zna kogoś, kto miał z nim kontakt. W raporcie Common Sense Media z 2025 roku, 72% nastolatków korzystało z pomocy towarzysza opartego na sztucznej inteligencji, a jedna trzecia nastoletnich użytkowników stwierdziła, że wolała rozmawiać o ważnych lub poważnych sprawach z towarzyszami opartymi na sztucznej inteligencji zamiast z prawdziwymi ludźmi.
We nie są Mówię już tylko o kilku odosobnionych przypadkach.
At to etapie dosłownie miliony amerykańskich nastolatków nawiązuje bardzo istotne relacje z chatbotami opartymi na sztucznej inteligencji.
Niestety, istnieje wiele przykładów, w których te relacje prowadzą do tragicznych konsekwencji. Po tym, jak 14-letni Sewell Setzer nawiązał „romantyczną relację” z chatbotem na Character.AI, postanowił odebrać sobie życie...
Jak pokazuje poprzednia dyskusja, istnieją pewne obszary ludzkiej aktywności, w których nie należy obawiać się sztucznej inteligencji, a są też takie, w których takie obawy są uzasadnione, niekiedy ze względu na sposób, w jaki nieuczciwi ludzie wykorzystują sztuczną inteligencję przeciwko innym ludziom. Niezależnie jednak od sytuacji, najlepszym sposobem na pokonanie trudnego terenu związanego z możliwościami sztucznej inteligencji jest… vis-a-vis ludzie powinni pamiętać o tym, że – jak argumentowano na początku artykułu – sztuczna inteligencja opiera się na ogromnej ilości danych, z których może korzystać, i na „wyszkoleniu” jej przez programistów. Ludzie nie.
-
Bert Olivier pracuje na Wydziale Filozoficznym Uniwersytetu Wolnego Państwa. Bert prowadzi badania w psychoanalizie, poststrukturalizmie, filozofii ekologicznej i filozofii technologii, literaturze, kinie, architekturze i estetyce. Jego obecny projekt to „Zrozumienie tematu w odniesieniu do hegemonii neoliberalizmu”.
Zobacz wszystkie posty