UDOSTĘPNIJ | DRUKUJ | E-MAIL
Przed pandemią COVID-19 określiłbym siebie mianem technologicznego optymisty. Nowe technologie niemal zawsze pojawiają się w atmosferze przesadnych obaw. Koleje miały powodować załamania nerwowe, rowery miały powodować bezpłodność lub obłęd u kobiet, a wczesną elektryczność obwiniano za wszystko, od upadku moralnego po załamanie fizyczne. Z czasem te obawy osłabły, społeczeństwa się dostosowały, a poziom życia wzrósł. Ten schemat był na tyle znajomy, że sztuczna inteligencja zdawała się go naśladować: destrukcyjna, czasami nadużywana, ale ostatecznie dająca się opanować.
Lata pandemii COVID-19 zachwiały tym zaufaniem — nie dlatego, że zawiodła technologia, ale dlatego, że zawiodły instytucje.
W wielu częściach świata rządy i organy eksperckie zareagowały na niepewność bezprecedensowymi interwencjami społecznymi i biomedycznymi, uzasadnionymi modelami najgorszego przypadku i egzekwowanymi z niezwykłą pewnością. Konkurujące hipotezy były marginalizowane, zamiast być przedmiotem debaty. Środki nadzwyczajne przekształciły się w długoterminową politykę. Gdy dowody się zmieniały, przyznawanie się do błędów było rzadkie, a rozliczanie jeszcze rzadsze. Doświadczenie to ujawniło głębszy problem niż jakikolwiek pojedynczy błąd polityczny: współczesne instytucje wydają się słabo przygotowane do zarządzania niepewnością bez nadmiernej ingerencji.
Lekcja ta ma obecnie duży wpływ na debaty na temat sztucznej inteligencji.
Podział ryzyka związanego ze sztuczną inteligencją
Ogólnie rzecz biorąc, obawy dotyczące zaawansowanej sztucznej inteligencji (AI) dzielą się na dwa obozy. Jedna grupa – związana z myślicielami takimi jak Eliezer Yudkowsky i Nate Soares – argumentuje, że wystarczająco zaawansowana AI jest z założenia katastrofalnie niebezpieczna. W swoim celowo dosadnym sformułowaniu: Jeśli ktoś to zbuduje, wszyscy zginąProblemem nie są złe intencje, lecz bodźce: konkurencja sprawia, że ktoś będzie szedł na łatwiznę, a gdy system wymknie się spod kontroli, intencje przestają mieć znaczenie.
Drugi obóz, do którego należą m.in. Stuart Russell, Nick Bostrom i Max Tegmark, również traktuje ryzyko związane ze sztuczną inteligencją poważnie, ale jest bardziej optymistycznie nastawiony i wierzy, że dostosowanie, ostrożne zarządzanie i stopniowe wdrażanie mogą utrzymać systemy pod kontrolą człowieka.
Pomimo różnic, oba obozy zgadzają się co do jednego wniosku: nieograniczony rozwój sztucznej inteligencji jest niebezpieczny i konieczna jest jakaś forma nadzoru, koordynacji lub ograniczeń. Różnią się jednak w kwestiach wykonalności i pilności. Rzadko jednak analizuje się, czy instytucje, od których oczekuje się takich ograniczeń, same nadają się do tej roli.
Covid sugeruje powód do wątpliwości.
COVID-19 nie był jedynie kryzysem zdrowia publicznego; był to eksperyment na żywo w zarządzaniu pod przewodnictwem ekspertów w warunkach niepewności. W obliczu niekompletnych danych władze wielokrotnie decydowały się na maksymalne interwencje, uzasadniane spekulacyjnymi szkodami. Sprzeciw był często traktowany jako upadek moralny, a nie naukowa konieczność. Polityki broniono nie poprzez transparentną analizę kosztów i korzyści, lecz poprzez odwoływanie się do autorytetów i lęk przed hipotetyczną przyszłością.
Ten wzorzec ma znaczenie, ponieważ ujawnia, jak zachowują się współczesne instytucje, gdy stawka jest postrzegana jako egzystencjalna. Bodźce przesuwają się w stronę decyzyjności, kontroli narracji i moralnej pewności. Korekta błędów staje się kosztowna dla reputacji. Ostrożność przestaje być narzędziem, a staje się doktryną.
Lekcja nie polega na tym, że eksperci są wyjątkowo ułomni. Chodzi o to, że instytucje o wiele skuteczniej nagradzają nadmierną pewność siebie niż pokorę, zwłaszcza gdy polityka, finansowanie i strach społeczny idą w parze. Kiedy w imię bezpieczeństwa dochodzi do przejęcia nadzwyczajnych uprawnień, rzadko kiedy dobrowolnie się ich rezygnuje.
Właśnie tę dynamikę można obecnie zaobserwować w dyskusjach na temat nadzoru nad sztuczną inteligencją.
Maszyna „Co by było, gdyby”
Powracającym uzasadnieniem dla ekspansywnej interwencji państwa jest hipotetyczny zły aktor: A co, jeśli to zbuduje terrorysta? A co, jeśli zrobi to państwo zbójeckie? Z tego założenia wynika argument, że rządy muszą działać prewencyjnie, na szeroką skalę i często w tajemnicy, aby zapobiec katastrofie.
Podczas pandemii COVID-19 podobna logika uzasadniała szeroko zakrojone programy badań biomedycznych, zezwolenia na sytuacje nadzwyczajne i kontrolę społeczną. Rozumowanie było błędne: ponieważ coś niebezpiecznego może Gdyby tak się stało, państwo musiało podjąć natychmiastowe działania – działania, które same w sobie niosły ze sobą poważne, słabo rozumiane ryzyko.
Zarządzanie sztuczną inteligencją jest coraz częściej ujmowane w ten sam sposób. Niebezpieczeństwo polega nie tylko na tym, że systemy sztucznej inteligencji mogą zachowywać się nieprzewidywalnie, ale także na tym, że strach przed taką możliwością będzie legitymizować permanentne zarządzanie awaryjne – scentralizowaną kontrolę nad obliczeniami, badaniami i przepływami informacji – z powodu braku alternatywy.
Ryzyko prywatne, ryzyko publiczne
Jednym z niedocenianych w tych debatach rozróżnień jest rozróżnienie między ryzykiem generowanym przez podmioty prywatne a ryzykiem generowanym przez władzę państwową. Firmy prywatne są ograniczone – niedoskonale, ale znacząco – przez odpowiedzialność, konkurencję, reputację i dyscyplinę rynkową. Ograniczenia te nie eliminują szkód, ale tworzą pętle sprzężenia zwrotnego.
Rządy działają inaczej. Kiedy państwa działają w imię zapobiegania katastrofom, sprzężenie zwrotne słabnie. Błędy można przeklasyfikować jako konieczność. Koszty można przerzucić na zewnątrz. Tajność można uzasadnić bezpieczeństwem. Hipotetyczne przyszłe szkody stają się dźwigniami politycznymi w teraźniejszości.
Kilku myślicieli zajmujących się sztuczną inteligencją przyznaje to implicite. Bostrom ostrzegał przed efektami „zamknięcia” – nie tylko ze strony systemów sztucznej inteligencji, ale także struktur zarządzania tworzonych w momentach paniki. Apel Anthony'ego Aguirre'a o globalną powściągliwość, choć logicznie spójny, opiera się na międzynarodowych organach koordynacyjnych, których ostatnie osiągnięcia w zakresie pokory i korygowania błędów są nikłe. Jeszcze bardziej umiarkowane propozycje zakładają, że organy regulacyjne będą zdolne do przeciwstawienia się upolitycznieniu i rozrostowi misji.
Covid daje nam niewiele powodów, by wierzyć w to założenie.
Paradoks nadzoru
Prowadzi to do niepokojącego paradoksu leżącego u podstaw debaty na temat sztucznej inteligencji. Jeśli ktoś naprawdę uważa, że zaawansowana sztuczna inteligencja musi zostać ograniczona, spowolniona lub zatrzymana, to rządy i instytucje transnarodowe najprawdopodobniej będą miały do tego uprawnienia. Jednak to właśnie ci aktorzy, których ostatnie zachowania dają najmniej pewności co do ograniczonego, odwracalnego wykorzystania tej władzy.
Ramy awaryjne są lepkie. Uprawnienia zdobyte w celu zarządzania hipotetycznymi ryzykami mają tendencję do utrzymywania się i rozszerzania. Instytucje rzadko umniejszają swoje znaczenie. W kontekście sztucznej inteligencji (AI) stwarza to możliwość, że reakcja na ryzyko związane z AI utrwala kruche, upolitycznione systemy kontroli, które trudniej jest odwrócić niż jakakolwiek pojedyncza technologia.
Innymi słowy, zagrożenie polega nie tylko na tym, że sztuczna inteligencja wymyka się spod ludzkiej kontroli, ale także na tym, że strach przed nią przyspiesza koncentrację władzy w instytucjach, które już wcześniej wykazały się niechęcią do przyznawania się do błędów i niechęcią do sprzeciwu.
Ponowne przemyślenie rzeczywistego ryzyka
To nie jest argument za samozadowoleniem z AI ani zaprzeczeniem, że potężne technologie mogą wyrządzić realne szkody. To argument za poszerzeniem ram. Niepowodzenie instytucji samo w sobie jest zmienną egzystencjalną. System zakładający dobroczynne, samokorygujące się rządy nie jest bezpieczniejszy niż ten, który zakłada dobroczynną, skoordynowaną superinteligencję.
Przed pandemią COVID-19 większość pesymizmu technologicznego można było przypisać ludzkiemu negatywnemu nastawieniu – tendencji do przekonania, że wyzwania naszego pokolenia są wyjątkowo nie do opanowania. Po pandemii COVID-19 sceptycyzm wydaje się mniej uprzedzony, a bardziej przypomina doświadczenie.
Centralnym pytaniem w debacie na temat sztucznej inteligencji (AI) jest zatem nie tylko to, czy maszyny można pogodzić z ludzkimi wartościami, ale także to, czy można zaufać nowoczesnym instytucjom w radzeniu sobie z niepewnością bez jej wzmacniania. Jeśli to zaufanie uległo erozji – a pandemia COVID-19 sugeruje, że tak się stało – apele o szeroki nadzór nad AI zasługują na co najmniej tyle samo uwagi, co twierdzenia o nieuchronności technologii.
Największe ryzyko nie polega na tym, że sztuczna inteligencja stanie się zbyt potężna, ale na tym, że strach przed taką możliwością uzasadnia formy kontroli, które później okazują się o wiele trudniejsze do zaakceptowania — lub ucieczki.
-
Roger Bate jest stypendystą Brownstone Fellow, starszym pracownikiem naukowym w International Center for Law and Economics (od stycznia 2023 r.), członkiem zarządu Africa Fighting Malaria (od września 2000 r.) oraz pracownikiem naukowym w Institute of Economic Affairs (od stycznia 2000 r.).
Zobacz wszystkie posty