Krzysztof Mudyń: Człowiek na rozdrożu… – recenzja
Recenzja książki „Człowiek na rozdrożu. Sztuczna inteligencja – 25 punktów widzenia” zawierającej dwadzieścia pięć esejów na temat kluczowych problemów, związanych ze sztuczną inteligencją (AI). W książce Brockmana znalazły się różnorodne poglądy na temat AI, rozpatrywanej w różnych kontekstach.
Zawartość recenzowanej pracy pod redakcją Johna Brockmana „Człowiek na rozdrożu…” lepiej oddaje tytuł oryginału, tj. Possible Minds. 25 Ways of Looking at AI [1].
W rzeczy samej dotyczy ona bowiem możliwych kierunków rozwoju sztucznej inteligencji, a w szczególności potencjalnych konsekwencji jej rozwoju i naszego z nią „współżycia”.
John Brockman, zgodnie z dwudziestoletnią już tradycją [2], zaprosił do współpracy 25 intelektualistów, reprezentujących rożne dziedziny nauki i nie tylko nauki. Dominują oczywiście przedstawiciele szeroko rozumianych computer sciences, z których wielu wniosło swój wkład w cyfrową rewolucję i dalej wpływa na jej kształt. Wśród autorów syntetycznych esejów, z jakich składa się ta publikacja, można znaleźć też fizyków, biologów, psychologów i artystów zafascynowanych tą problematyką.
Całość poprzedzona jest obszernym wstępem Brockmana, który zwierza się z historii jego zaangażowania w podejmowane przez autorów problemy, a przy okazji przybliża czytelnikowi historię i ewolucję badań nad artificial intelligence (AI). Z poszczególnymi autorami często łączą redaktora wieloletnie kontakty, dyskusje i wspólne transdyscyplinarne przedsięwzięcia. Każdy z poszczególnych esejów poprzedzony jest krótką redaktorską (poniekąd osobistą) charakterystyką poglądów, badań i dokonań danego autora. Zamieszczone eseje są krótkie, limitowane do 14 tysięcy znaków, co sprzyja syntetyczności i klarowności prezentowanych wywodów.
I jeszcze jedna specyfika komentowanej pracy.
Brockman postanowił przypomnieć i skonfrontować teraźniejszość z poglądami nieco zapomnianego już klasyka, tj. Norberta Wienera, uważając je za niezwykle aktualne mimo upływu 70-ciu lat od publikacji jego wpływowych prac.
W szczególności zaś chodzi tu o jego szczupłą książeczkę, wydaną najpierw w 1950 a następnie, w wersji nieco złagodzonej i skróconej w 1954 i 1956 roku. Była ona adresowana do szerszego grona odbiorców niż jego wcześniejsza praca Cybernetics or Control and Communication in the Animal and Machine (1948) [3]. Późniejsza książka nosiła znamienny tytuł, dobrze oddający niepokoje i krytycyzm autora, a mianowicie The Human Use of Human Beings. Cybernetics and Society. Nawiasem mówiąc, polskie wydanie (oparte na okrojonej wersji oryginału czyli jej drugim wydaniu) ukazało się na początku lat 60-tych ubiegłego wieku pod zmienionym (i mniej mówiącym) tytułem [4]. Wprawdzie – jak deklaruje Brockman – nie wymagał on od swoich autorów odniesień do poglądów Wienera lecz niemal wszyscy autorzy to czynią, podkreślając aktualność jego krytycyzmu w odniesieniu do mechanizmów funkcjonowania władzy i zagrożeń związanych z komercjalizacją sztucznej inteligencji. Recenzowana tu monografia mogłaby więc nosić tytuł „Norbert Wiener a teraźniejszość i przyszłość sztucznej inteligencji”.
Omawianie wszystkich tekstów, skądinąd ważkich i syntetycznych, wydaje się niezbyt celowe i wykonalne. Skupię się zatem na przybliżeniu poglądów jedynie kilku autorów, dotyczących kwestii, które wydają się szczególnie istotne bądź interesujące. Jednym z nich jest esej Stuarta Russella „O przekazywaniu maszynom ogólnych celów” (s. 41-53). Problem polega na tym, że sztuczny system (maszyna), zaprojektowany do optymalizacji i realizacji specyficznego celu, może go realizować nadspodziewanie „dobrze”, tyle że z pominięciem szerszego kontekstu i ludzkich preferencji, które explicite nie zostały uwzględnione w projekcie.
Odwołam się do przerysowanego przykładu, podanego przez Russella. Otóż robot, zaprojektowany do przygotowywania zdrowych i zasobnych w białko posiłków, może nam zaserwować na kolację naszego kota, „bo nie będzie wiedział, że wartość sentymentalna tego zwierzaka przewyższa jego wartość odżywczą” (s. 50).
Mówiąc słowami autora – „To, że przydzielimy maszynie jakiś ustalony cel, nie oznacza, że automatycznie rozpozna znaczenie, jakie mają dla nas rzeczy niebędące częścią celu. Maksymalizacja celu może równie dobrze ściągnąć na ludzi kłopoty, ale maszyna z definicji nie uzna je za kłopotliwe” (s. 49). Należy podkreślić, że kłopot nie polega na tym, że roztargnieni projektanci/programiści coś przeoczą, nie uwzględniając w procedurze optymalizacji dodatkowych zmiennych, które dla ludzi też mają istotne lub wręcz zasadnicze znaczenie. Problem jest znacznie szerszy. Generalnie polega on na tym, że po pierwsze, my ludzie słabo orientujemy się we własnych preferencjach. Nawiasem mówiąc, wiele badań z zakresu psychologii społecznej dostarcza spektakularnych przykładów, jak bardzo potrafimy się mylić, próbując określić motywy własnego postępowania lub czynniki zewnętrzne, które wpłynęły na naszą decyzję. Po drugie, nasze preferencje są zazwyczaj niespójne (lub wręcz konfliktowe) i zależne od kontekstu.
Autor eseju, poszukując antidotum na wspomniane niebezpieczeństwo, sugeruje, że – „Ludzi da się w granicach rozsądku opisać jako mających preferencje (zazwyczaj ukryte) dotyczące swojego przyszłego życia, co oznacza, że pod warunkiem dysponowania odpowiednim czasem […] człowiek potrafi wyrazić swoje zdanie na temat dwóch zaoferowanych mu scenariuszy przyszłego życia ze wszystkimi jego aspektami” (s. 50). Z kolei, uwzględniając niespójność i niekompatybilność naszych preferencji należałoby wprowadzać ograniczenia w odniesieniu do optymalizacji zasadniczej funkcji danego systemu. Zdaniem autora, powinno to uchronić nas przed uzyskiwaniem przez system „katastrofalnie (dobrych) wyników”. Należy zatem zgodzić się z konkluzją autora, że – „Dotychczasowe badania koncentrują się na lepszym podejmowaniu decyzji przez systemy, ale to nie to samo co podejmowanie lepszych decyzji. Niezależnie od doskonałości algorytmu maksymalizującego oraz dokładności zawartego w nim modelu świata decyzje maszyny mogą w oczach ludzi być niewymownie głupie, jeśli jej funkcje utylitarne nie zostaną odpowiednio dostosowane do ludzkiego systemu wartości” (s. 53).
Z kolei krótki tekst Judea Pearl „Ograniczenia nieprzejrzyście uczących się maszyn” (s. 33-39) podejmuje problem braku transparentności w odniesieniu to tzw. głębokiego uczenia się (deep learning).
Autora martwi fakt, że bardzo niewiele wiemy, co dzieje się w podczas poszukiwania optymalnych rozwiązań w trakcie przetwarzania ogromnej ilości danych przez systemy uczące się metodą deep learning.
Autor pisze – „Aktualne systemy uczenia maszyn bazują niemal wyłącznie na ślepym na modele trybie statystycznym, analogicznym pod wieloma względami do dopasowywania funkcji do chmury punktów danych. Takie systemy nie potrafią wywnioskować przyczyn, a tym samym nie mogą być fundamentem silnego AI, czyli sztucznej inteligencji, która emuluje rozumowanie i kompetencje na poziomie ludzkim (s. 36). Autor uzasadnia, że oprócz rozkładu prawdopodobieństw musimy dysponować i uwzględniać modele rzeczywistości, gdyż dopiero wtedy możemy przechodzić do wyjaśnień przyczynowo-skutkowych, które są synonimem zrozumienia jakiegoś procesu czy zjawiska. Mówiąc słowami autora – „Uczenie maszyn postrzegam jako narzędzie, które pozwala nam przejść od danych do prawdopodobieństw. Jeśli jednak chcemy przejść od prawdopodobieństw do prawdziwego zrozumienia, nadal pozostają nam do wykonania dwa kroki, i to duże. Jednym jest przewidywanie skutków działań, a drugim wyobraźnia przecząca faktom. Dopóki nie wykonamy tych dwóch kroków, nie możemy twierdzić, że rozumiemy rzeczywistość (s. 38).
Problem, z którym konfrontuje się cytowany autor, wydaje się mieć znacznie szerszy zasięg, wykraczający poza dziedzinę sztucznej inteligencji i nasze z nią relacje. Moim zdaniem jest to pytanie o optymalne relację między tzw. wiedzą proceduralną (typu Jak) a wiedzą deklaratywną (typu Co i Dlaczego), czyli wiedzą teoretyczną. Jest to pytanie o relacje między umieć (zrobić), a wiedzieć (w jaki sposób i dlaczego coś działa lub nie działa).
Obydwa rodzaje tak szeroko rozumianej wiedzy lepiej lub gorzej się uzupełniają, a niekiedy nakładają się na siebie. Na co dzień, zwłaszcza w kontaktach z (naj)nowszą technologią zachowujemy się jak niezbyt rozgarnięci uczniowie czarnoksiężnika. Wprawdzie posługujemy się rozumowaniem (lub raczej nawykami) przyczynowo-skutkowym, lecz czynimy to poniekąd na poziomie magicznym.
Znamy kilka zaklęć, znamy kilka gestów, wiemy jak włączyć pilota lub przy użyciu jakiego zaklęcia nawiązać kontakt z odpowiednim demonem Wielkiej Sieci. Nie znaczy to bynajmniej, że wiemy (rozumiemy), jak to wszystko działa.
Konkludując, optymalne proporcje między wiedzą proceduralną a deklaratywną niewątpliwie zależne są od pożądanych celów. Pytanie o optimum – w wersji ogólnej – pozo staje kwestią otwartą. Nasze poznanie, zarówno w sensie jednostkowym, jak i ogólnoludzkim jest uniwersalnie ograniczone. Niemniej, wydaje się, że sporo racji mieli klasycy, mówiąc, że rozumiemy tylko to, co sami potrafimy zrobić. Nie dotyczy to jednak „robienia dzieci”. Jeśli samodzielnie zbudujemy chatę lub choćby szałas, będziemy też umieć je naprawić. Jeśli zamówimy je przez Internet, jesteśmy uzależnieni od serwisu.
Kilku badaczy poświęciło swoje teksty problematyce uczenia inteligentnych maszyn przewidywania ludzkich zachowań a zwłaszcza ich motywów i preferencji.
Krótko mówiąc, nadszedł czas, by skupić się na uczeniu maszyn psychologii człowieka. Jest to bowiem warunek skutecznej komunikacji i współpracy, i w ogóle przydatności inteligentnych maszyn.
Jednym z autorów, którzy konfrontują się z tą problematyką jest Tom Griffiths, autor eseju „Istoty ludzkie w oczach maszyn”(s. 145-152). Ta stosunkowo nowa problematyka nosi nazwę „dopasowywania wartości”. Autor stwierdza, z czym trudno się nie zgodzić, że „Aby automatyczne systemy inteligentne wyciągały poprawne wnioski na temat pragnień ludzi, muszą dysponować dobrymi modelami ludzkiego poznania wyrażonymi w sposób możliwy do zaimplementowania w komputerze” (s. 149). Przydaje się do tego założenie o racjonalności ludzkich decyzji. Jednak, jak wiadomo m.in. z badań Daniela Kahnema i Amosa Tverskiego (2013), ludzie chętnie posługują się uproszczonymi strategiami przetwarzania informacji, zwanymi heurystykami, gdyż jest to mniej kosztowne w sensie potrzebnego czasu i innych zasobów. Heurystyki, choć zawodne i niezbyt racjonalne, są konieczne, gdyż nie posiadamy wystarczających zasobów poznawczych (mocy obliczeniowej), by każdą decyzję poprzedzać analitycznym przetwarzaniem wszelkich dostępnych (choć zwykle niekompletnych) informacji. „Balansowanie między czasem namysłu a ryzykiem popełnienia błędu to strategia potrzebna każdemu realnemu inteligentnemu agentowi” (s. 152) – powiada Griffiths. Innymi słowy, modelując zachowanie człowieka (w tym jego procesy poznawcze) na użytek inteligentnej maszyny, należałoby oprzeć się na założeniu o ograniczonej lub statystycznie wystarczającej ludzkiej racjonalności. W przeciwnym razie, tj. gdyby prognozy inteligentnego agenta opierały się na założeniu, że ludzie zachowują się zawsze całkiem racjonalnie (optymalnie), trudniej byłoby antycypować ich zachowania. Tak czy inaczej, kwestią bezsporną wydaje się, że inteligentnym agentom potrzebne jest coś, co w psychologii rozwojowej zwykło się nazywać „teorią umysłu” ludzi.
Podobnej problematyce poświęcone są też teksty dwóch innych autorek. I tak,
Aga Dragan w eseju „Sztuczna Inteligencja a człowiek” (s. 153-161) skupia się na trudnościach, jakie pojawiają się w kontekście współpracy (i w ogóle podczas interakcji) ludzi z robotami. Jedni i drudzy muszą się uczyć, kim są ich potencjalni partnerzy.
W procesie „uzgadniania wartości” trzeba przede wszystkim nauczyć roboty, że ludzie są czymś więcej niż „obiektami w ich środowisku”.
Z kolei, Alison Gopnik, wybitna przedstawicielka psychologii rozwojowej, autorka koncepcji znanej jako „teoria umysłu”, w swym eseju „AI kontra czterolatek” (s. 239-250) zafascynowana jest efektywnością uczenia się przedszkolaków. Stamtąd stara się czerpać inspiracje do sposobów uczenia inteligentnych agentów. Pisze ona – „Obserwacja dokonań dzieci może jednak dać programistom wskazówki dotyczące kierunków rozwoju uczenia komputerów. Dwie cechy dziecięcego podejścia są szczególnie uderzające. Dzieci są aktywnymi uczniami – nie chłoną biernie danych jak Al. […] dzieci mają naturalną motywację do wyłuskiwania informacji z otaczającego ich świata za pomocą niekończących się zabaw i eksploracji. […] Być może sposobem na bardziej realistyczne i szersze uczenie jest zaimplementowanie maszynom ciekawości i umożliwienie im aktywnej interakcji ze światem” (s. 249).
Pozostałe teksty i „punkty widzenia” zawarte w omawianej pracy pozostawię bez komentarza, choć w niemniejszym stopniu zasługują one na uwagę czytelnika. Streszczanie syntetycznych wypowiedzi klasyków wydaje się zabiegiem mocno problematycznym. Poza tym zajęłoby to zbyt dużo miejsca.
Na koniec wróćmy na chwilę do Norberta Wienera i pierwszego wydania jego książki „Human use of Human Beings” z 1950 roku. Nie dysponuję tym wydaniem, a następne edycje nie zawierają najbardziej krytycznego XII rozdziału. Brockman przywołuje jednak we Wstępie (s. 12) jego sformułowanie zawarte w tym rozdziale – „Musimy przestać całować bat, który nas smaga”. Czy bat jest tu metaforą sztucznej inteligencji? I w czyich rękach spoczywa ów bat, który nakłania nas do oddawania hołdu nowemu bóstwu?
Mniej lub bardziej zaawansowana sztuczna inteligencja wkroczyła już we wszystkie dziedziny naszego życia. Często doraźnie ułatwia nam życie, a czasem pomaga nawet je ratować. Niemniej, nie ma z czego się cieszyć. Niczym kolonizowane kiedyś plemiona, za szklane paciorki i uzależniające substytuty whisky, rezygnujemy ze swoich praw i indywidualnych zasobów. Mam tu na myśli prywatność, autonomię, swobodę wyboru i wiele innych istotnych imponderabiliów.
Przeciętny obywatel ma do dyspozycji – ku swojej radości – coraz tańsze uzależniające gadżety, natomiast ci, którzy mają władzę i/lub pieniądze zyskują potężne narzędzia inwigilacji i kontroli oraz nowe źródła zysków.
Mówiło się kiedyś, że Internet, ze względu na swą sieciową strukturę, jest demokratycznym medium. Obecnie teza ta wydaje się coraz trudniejsza do obrony. Jednak jest to temat na inne, „dłuższe opowiadanie” lub raczej na interdyscyplinarną dyskusję.
[Brockman J, (2020). Człowiek na rozdrożu. Sztuczna inteligencja – 25 punktów widzenia. Tłum. M. Machnik, Wydawnictwo Helion]
Prof. AIK, dr hab. Krzysztof Mudyń,
Akademia Ignatianum, Kraków
Recenzja została opublikowana w czasopiśmie „Transformacje” 1 (112) 2022, s. 187-193
This is an open access article distributed under the Creative Commons BY 4.0 license: http://creativecommons.org/licenses/by/4.0
Przypisy:
[1] Brockman, J. (Ed.) (2019). Possible Minds. 25 Ways of Looking at AI. New York: Penguin Books (pp. 293).
[2] Należy tu koniecznie wspomnieć o wcześniej wydanej – i niemniej interesującej monografii pod jego redakcją. Brockman, J. (Ed.) (2015). What to Think about Machines that Think. New York: HarperCollins Publishers.
[3 ] Polskie wydanie: Wiener, N. (1971). Cybernetyka czyli sterowanie w komunikacja w człowieku I maszynie. Warszawa: PWN.
[4] Wiener, N. (1961 ). Cybernetyka i społeczeństwo. Warszawa: KiW.
Bibliografia:
1. Brockman, J. (Ed.) (2019). Possible Minds. 25 Ways of Looking at Al. New York: Penguin Books.
2. Brockman, J. (Ed.) (2015). What to Think about Machines that Think. New York: HarperCollins Publishers.
3. Kahneman, D. (2013). Pułapki myślenia. O myśleniu szybkim i wolnym. Poznań: Media Rodzina.
4. Wiener, N. (1971). Cybernetyka czyli sterowanie w komunikacja w zwierzęciu i maszynie. Warszawa: PWN.
5. Wiener, N. (1961). Cybernetyka i społeczeństwo. Warszawa: KiW.
6. https://monoskop.org/images/6/60/Wiener_Norbert_The_Human_Use_of_Human_Beings_1989.pdf (dostęp: 09.08.2021).