UDOSTĘPNIJ | DRUKUJ | E-MAIL
Był czas, gdy debaty o determinizmie i wolnej woli były domeną wydziałów filozofii i nocnych pogawędek w akademikach. Były przyjemne właśnie dlatego, że wydawały się nieszkodliwe. Niezależnie od odpowiedzi, życie toczyło się dalej. Sądy wydawały wyroki, lekarze orzekali, nauczyciele nauczali, a politycy nadal – przynajmniej nominalnie – ponosili odpowiedzialność za swoje czyny. Ta era minęła.
Sztuczna inteligencja przekształciła to, co kiedyś wydawało się abstrakcyjnym pytaniem filozoficznym, w konkretny problem rządzenia, władzy i odpowiedzialności. Determinizm nie jest już jedynie teorią dotyczącą funkcjonowania wszechświata. Staje się zasadą działania współczesnych instytucji. I to zmienia wszystko.
Systemy sztucznej inteligencji są z natury deterministyczne. Działają poprzez wnioskowanie statystyczne, optymalizację i rachunek prawdopodobieństwa. Nawet gdy ich wyniki nas zaskakują, pozostają one ograniczone ograniczeniami matematycznymi. Nic w tych systemach nie przypomina osądu, interpretacji ani rozumienia w ludzkim rozumieniu.
Sztuczna inteligencja nie podejmuje decyzji.
Nie odzwierciedla.
Nie ponosi odpowiedzialności za wyniki.
Jednak coraz częściej jego rezultaty są traktowane nie jako narzędzia, lecz jako decyzje. To cicha rewolucja naszych czasów.
Atrakcyjność jest oczywista. Instytucje zawsze zmagały się z ludzką zmiennością. Ludzie są niespójni, emocjonalni, powolni, a czasem nieposłuszni. Biurokracje preferują przewidywalność, a algorytmy obiecują właśnie to: standaryzowane decyzje na dużą skalę, odporne na zmęczenie i sprzeciw.
W opiece zdrowotnej algorytmy obiecują sprawniejszą triaż. W finansach – lepszą ocenę ryzyka. W edukacji – obiektywną ewaluację. W polityce publicznej – zarządzanie „oparte na dowodach”. W moderacji treści – neutralność. Kto mógłby sprzeciwić się systemom, które obiecują eliminację uprzedzeń i optymalizację rezultatów? Ale pod tą obietnicą kryje się fundamentalne nieporozumienie.
Przewidywanie nie jest osądem.
Optymalizacja nie jest mądrością.
Spójność nie jest równoznaczna z legalnością.
Ludzkie podejmowanie decyzji nigdy nie było czysto obliczeniowe. Z natury jest interpretacyjne. Ludzie rozważają kontekst, znaczenie, konsekwencje i intuicję moralną. Czerpią z pamięci, doświadczenia i poczucia – choćby niedoskonałego – odpowiedzialności za to, co nastąpi. Właśnie to jest niewygodne dla instytucji.
Ludzki osąd wprowadza tarcie. Wymaga wyjaśnienia. Obciąża decydentów winą. Systemy deterministyczne, przeciwnie, oferują coś o wiele bardziej atrakcyjnego: podejmowanie decyzji bez decydentów.
Kiedy algorytm odmawia pożyczki, oznacza obywatela, obniża priorytet pacjenta lub blokuje mowę, nikt nie wydaje się być za to odpowiedzialny. Zrobił to system. Dane przemówiły. Model zdecydował.
Determinizm staje się biurokratycznym alibi.
Technologia zawsze kształtowała instytucje, ale do niedawna głównie rozszerzała ludzką sprawczość. Kalkulatory wspomagały rozumowanie. Arkusze kalkulacyjne wyjaśniały kompromisy. Nawet wczesne oprogramowanie pozostawiało ludziom widoczną kontrolę. Sztuczna inteligencja zmienia tę relację.
Systemy zaprojektowane do przewidywania są teraz gotowe do podejmowania decyzji. Prawdopodobieństwo przekształca się w politykę. Punktacja ryzyka staje się werdyktem. Rekomendacje po cichu przekształcają się w nakazy. Raz osadzone, te systemy trudno podważyć. W końcu, kto kłóci się z „nauką”?
Dlatego też stara debata filozoficzna stała się pilna.
Klasyczny determinizm opierał się na twierdzeniu o przyczynowości: mając wystarczającą ilość informacji, można było przewidzieć przyszłość. Dziś determinizm przekształca się w filozofię zarządzania. Skoro wyniki można wystarczająco dobrze przewidzieć, pytają instytucje, po co w ogóle dopuszczać uznaniowość?
Niedeterminizm jest często karykaturowany jako chaos. Lecz właściwie rozumiany, nie jest ani losowością, ani irracjonalnością. To przestrzeń, w której dokonuje się interpretacja, gdzie ważone są wartości i gdzie odpowiedzialność spoczywa na człowieku, a nie na procesie.
Usuń tę przestrzeń, a podejmowanie decyzji nie stanie się bardziej racjonalne. Stanie się nieodpowiedzialne.
Prawdziwym zagrożeniem dla sztucznej inteligencji nie jest niekontrolowana inteligencja ani świadome maszyny. To powolna erozja ludzkiej odpowiedzialności pod sztandarem wydajności.
Kluczowym konfliktem XXI wieku nie będzie konflikt między ludźmi a maszynami. Będzie to konflikt między dwiema wizjami inteligencji: optymalizacją deterministyczną a tworzeniem znaczeń w warunkach niepewności.
Jedno jest skalowalne.
Drugi jest odpowiedzialny.
Sztuczna inteligencja zmusza nas do podjęcia decyzji, która z nich rządzi naszym życiem.
-
Dr Joaquim Sá Couto uzyskał tytuł lekarza medycyny na Uniwersytecie w Lizbonie (Portugalia) i kontynuował specjalizację lekarską w USA, gdzie uzyskał stopień „Dyplomata Amerykańskiej Rady Chirurgii”(1989). Doktor Sá Couto był pionierem we wprowadzeniu impulsowego lasera kontrastowego Nd-YAG do leczenia pajączków naczyniowych (teleangiektazji) w Portugalii, mając za sobą około 15 lat doświadczenia w tej technice.
Zobacz wszystkie posty