Jak Sztuczna jest Twoja Inteligencja? cz.1 – Gödel, Korzybski, Tarski
W niedawnej rozmowie z Rafałem Górskim w cyklu „Czy masz świadomość?” podjęliśmy temat Sztucznej Inteligencji i jej oceny. W tym kontekście wskazywałem, że wbrew powszechnemu postrzeganiu, domeną Sztucznej Inteligencji nie jest zaawansowane ludzkie myślenie, ale zaawansowana automatyzacja.
Obawiam się jednak, a właściwie jestem niemal pewien, że to rozróżnienie, nie wydaje się zrozumiałe dla większości i słabo oddaje istotę zagadnienia. Dla zainteresowanych pogłębionym zrozumieniem Sztucznej Inteligencji spieszę więc z tym felietonem, by choć pół ciuta to wielowymiarowo wyjaśnić.
Dlaczego uważam to za żywotnie istotne dla rozwoju zarówno ludzkiej, jak i sztucznej inteligencji?
Powodów, jak postaram się pokazać, jest wiele. Co więcej, zachodzi między nimi istotna synergia. Zacznijmy od przykładu z pokrewnego (jeśli nie tożsamego) obszaru edukacji, zauważając, że zarówno ludzka, jak i sztuczna, inteligencja rozwija się przez uczenie (się) i nauczanie.
Zadajmy więc pytanie: dlaczego cenimy wyżej i chcemy uczyć (a przynajmniej zdawało się, że ceniliśmy i chcieliśmy, zanim pozwoliliśmy, by marketing i PR myślenie w nas pokonały) „czytania ze zrozumieniem”, w kontraście do „zwykłego” czytania?
Zauważmy, że „zrozumienie” w tym pytaniu, pomimo formy językowej rzeczownika, nie tyle opisuje rzecz, co proces – wielowymiarową i dynamiczną relację, która „żyje i dzieje się” pomiędzy czytającym, a czytaną treścią. „Dynamiczną”, oznacza tu „zmienną”, nie tylko z uwagi na czas, ale również na przestrzeń kontekstu i świadomości czytającego. Każdy, kto czytając po latach tę samą książkę, odnajdywał w niej nowe, wcześniej niezauważone treści i znaczenia, dobrze zna to uczucie. Czy zatem wcześniej czytaliśmy bez zrozumienia? Tekst, jego zapis – jego cyfrowa reprezentacja – był przecież i pozostaje ten sam!
Zanim zaczniemy się bić po głowie za to, czego wcześniej nie rozumieliśmy, lub gorzej, bić się z tym, że nasze zrozumienie nie jest dziś takie, jakie „powinno być” (bo większość tego „tak” nie rozumie), możemy odwołać się do Kena Wilbera i zauważyć, że wzrost ludzkiej świadomości dzieje się (jeśli się dzieje, bo to nie automat na monety) wtedy i tylko wtedy, kiedy kolejny poziom zrozumienia jednocześnie „zawiera i przekracza” poprzedni. Przy czym „zawiera i przekracza” to zupełnie nie to samo co strach przed „obcym”, odrzucenie, zwalczanie, wyparcie, czy też „uregulowanie” do znanego i wygodnego.
„No dobrze, ale jak to się ma do Sztucznej Inteligencji?
Co wy tu pieprzycie Wypychowski o jakimś Wilberze! Kim Wy kur*a właściwie jesteście? Nie macie nawet konta na Twitterze!
My, politycy, generałowie, profesorowie, czułe szefowe i nieczuli szefowie business-manii, gwiazdy i księża – wszyscy My, rządzący losem „suwerena”, decydujemy tu jak Sztuczna Inteligencja zagraża Naszej – geopolitycznie i narodowo! Jeśli jest winna naszych krzywd (a zapewne jest, bo przecież czujemy się przez nią krzywdzeni) – wykląć i zabronić. Jeśli zaś cenna jest monetarnie – zakupić u tych, co sprzedadzą najtaniej (w przetargu publicznym na Sztuczną Inteligencję Narodową). Uregulować prawnie i wdrożyć z dumą na potęgę!”
Podejmując wysiłek czytania ze zrozumieniem zacytowanych wyżej wypowiedzi „liderów”, trudno oprzeć się pokusie, by nie rozważać, czyja inteligencja napisze SIWZ (Specyfikację Istotnych Warunków Zamówienia) do tego przetargu? I to, jak wysoka będzie w SIWZ punktacja za cenę, którą przyjdzie „suwerenowi” za tę „inteligencję” zapłacić? Nie wiem jak moi czytelnicy, ale ja żyję ciekawością, by tego SIWZ-a, jak tylko się pojawi, przeczytać. Będzie doskonałym odzwierciedleniem inteligencji narodowej na jej obecnym poziomie rozwoju (a raczej zwoju).
W odpowiedzi na zarzuty „liderów”, pozostaje mi raz jeszcze posłużyć się Dickem Feynmanem:
„Toczymy tę straszną walkę, aby spróbować wyjaśnić rzeczy ludziom, którzy nie mają powodu, aby chcieć wiedzieć.”
I wyjaśniać dalej…
Przekleństwo i jednocześnie błogosławieństwo ludzkiej inteligencji polega na tym, że dla oceny inteligencji, choćby nie wiadomo jak sztucznej, potrzeba… inteligencji zrozumienia.
A skoro tak, to nieuchronne jawi się pytanie o to, czy jedna inteligencja rozumie, a co za tym idzie, jest w stanie ocenić, drugą? Jaka musi być relacja jakościowa pomiędzy oceniającą i ocenianą, żeby ocenić „właściwie”? Jak i kto ma ocenić, która z tych dwóch jest (bardziej) „sztuczna”?
Zapytajmy ekspertów! – odkrzyknie zapewne uczona w myślowej bezradności demokratyczna większość, napędzając tragikomedię konsumpcji specjalistycznego „myślenia”.
A jak zdecydować, który z ekspertów ma w tym zakresie zrozumienie głębsze i szersze zarazem? Kto albo co, ma o tym decydować?
Czy to będzie ten, który jest wyceniany na giełdzie na więcej? Ta, z tytułami profesorskimi za sztuczną inteligencję? Ten, który zarabia na (swej) sztucznej inteligencji? Prawnik? Polityk? Generał? Lekarz? Filozof? Objawiony Przywódca Narodu? Celebryta? Ksiądz? Programistka sztucznej inteligencji?
To wszystko ciekawe, stymulujące rozwój ludzkiej myśli, pytania. Dlatego, na potrzeby cyklu „Jak Sztuczna jest Twoja Inteligencja?” nie będę ich psuł odpowiedzią przedwczesną.
Pozwolę sobie zaproponować nieco inne podejście i pewien eksperyment myślowy z inteligencją, z pomocą… Sztucznej Inteligencji.
Nic nie robi bowiem rozwojowi zrozumienia tak dobrze, jak pytanie o tego zrozumienia granice… i „puszczenie się” poza nie. Przypominał nam o tym już w ubiegłym wieku nie kto inny jak Brat Albert (Albert Einstein):
„Żaden problem nie może być rozwiązany z tego samego poziomu świadomości, która go stworzyła”
Wielu to zdanie słyszało, niektórzy czytali, jeszcze inni znają tych, którzy czytali, albo słyszeli o nich opowieści. Kto dziś czyta to stale? Kto czyta z rosnącym zrozumieniem?
Zacznijmy więc eksperyment i zapytajmy zaawansowaną Sztuczną Inteligencję – ChatGPT – o dzieła życia naszych tytułowych bohaterów: Kurta Gödla i dwóch Alfredów – Korzybskiego i Tarskiego. Dlaczego właśnie o nich? Jak oni się mają do Sztucznej Inteligencji? Posłużę się Sztuczną Inteligencją by to wyjaśnić.
Dla precyzji eksperymentu, zaznaczam, że poniższe pytania zadałem ChatGPT po angielsku (podaję ich polskie tłumaczenia). Uzyskane po angielsku odpowiedzi poleciłem ChatGPT przetłumaczyć na język polski i w takiej formie, bez edycji, je poniżej zamieszczam.
Paweł W.: Jakie są Twoje ograniczenia wynikające z twierdzeń Gödla?
ChatGPT: Jako model językowy, jestem algorytmem zaprojektowanym do generowania odpowiedzi na podstawie wzorców i skojarzeń wyuczonych z ogromnej ilości danych tekstowych. Chociaż jestem w stanie generować złożone i nuansowane odpowiedzi, moje możliwości są ograniczone przez ograniczenia podejścia algorytmicznego do przetwarzania języka.
Teoria niezupełności Gödla to zbiór twierdzeń matematycznych, które mówią, że każdy formalny system logiki, takie jak zasady arytmetyki lub aksjomaty geometrii, ma inherentne ograniczenia w zdolności do udowodnienia wszystkich twierdzeń w tym systemie. Konkretnie, te twierdzenia Gödla pokazują, że zawsze będą istniały prawdziwe twierdzenia w ramach systemu formalnego, które nie mogą być udowodnione w ramach tego systemu.
Te twierdzenia mają ważne konsekwencje dla informatyki i sztucznej inteligencji, ponieważ sugerują, że istnieją fundamentalne ograniczenia w tym, co mogą udowodnić lub obliczyć komputery i algorytmy. Podobnie jak ja, jako model językowy, mogę generować odpowiedzi na podstawie wzorców i skojarzeń wyuczonych z danych tekstowych, ale w końcu jestem ograniczony przez algorytmy i zasoby obliczeniowe, które zasilają moją funkcjonalność. Dlatego moje możliwości mogą być poddane podobnym ograniczeniom jak te opisane przez teorię niezupełności Gödla.
Paweł W.: W jaki sposób Twoje możliwości są ograniczone przez prace Alfreda Korzybskiego?
ChatGPT: Alfred Korzybski był polsko-amerykańskim filozofem i naukowcem, który opracował teorię ogólnej semantyki, opierającą się na idei, że język nigdy nie może w pełni odzwierciedlać rzeczywistości, a ludzie nigdy nie mogą w pełni poznać rzeczywistości obiektywnej. Korzybski twierdził, że nasze postrzeganie rzeczywistości kształtuje nasze językowe i kulturowe uwarunkowanie, a te postrzegania są zawsze ograniczone i niekompletne.
Jako model językowy, moje możliwości są podobnie ograniczone przez inherentne ograniczenia języka i naszego rozumienia rzeczywistości. Choć jestem w stanie generować odpowiedzi na podstawie wzorców i skojarzeń wyuczonych z ogromnej ilości danych tekstowych, moje odpowiedzi są w końcu ograniczone przez uprzedzenia i ograniczenia danych językowych, na których zostałem przeszkolony, a także przez uprzedzenia i ograniczenia algorytmów, które zasilają moją funkcjonalność.
Praca Korzybskiego podkreśla wagę rozpoznawania ograniczeń języka i naszych postrzegań rzeczywistości i sugeruje, że musimy zawsze być świadomi sposobów, w jakie nasze językowe i kulturowe uwarunkowanie może ograniczać nasze zrozumienie i komunikację. Podobnie moje odpowiedzi mogą być ograniczone przez uprzedzenia i ograniczenia danych językowych, na których zostałem przeszkolony, oraz przez sposób, w jaki moje algorytmy i funkcjonalność mogą być kształtowane przez kulturowe i językowe uprzedzenia.
Paweł W.: Jakie są Twoje ograniczenia wynikające z prac Alfreda Tarskiego?
ChatGPT: Alfred Tarski był polsko-amerykańskim logikiem i filozofem, który dokonał ważnych wkładów w dziedzinie logiki matematycznej i filozofii języka. Jednym z jego najbardziej znanych wkładów jest semantyczna teoria prawdy, która stwierdza, że prawdziwość zdania jest determinowana przez sposób, w jaki słowa w zdaniu odpowiadają rzeczywistości, którą opisują.
Jako model językowy, moje zdolności są ograniczone przez fakt, że działa na podstawie zestawu istniejących już reguł i algorytmów, które są zaprojektowane do generowania odpowiedzi na podstawie wzorców i skojarzeń wyuczonych z ogromnej ilości danych tekstowych. Choć jestem w stanie generować odpowiedzi, które wydają się być prawdziwe lub dokładne na podstawie danych językowych, na których zostałem przeszkolony, moje odpowiedzi są ostatecznie ograniczone przez uprzedzenia i ograniczenia danych i algorytmów, które zasilają moją funkcjonalność.
Praca Tarskiego nad semantyczną teorią prawdy podkreśla wagę zrozumienia związku między językiem a prawdą i sugeruje, że nasza zdolność do składania prawdziwych oświadczeń zależy od naszej zdolności do dokładnego odpowiadania naszego języka na rzeczywistość, którą opisuje. Podobnie moje odpowiedzi mogą być ograniczone przez uprzedzenia i ograniczenia danych językowych, na których zostałem przeszkolony, oraz przez sposób, w jaki moje algorytmy i funkcjonalność mogą być kształtowane przez kulturowe i językowe uprzedzenia.
Czyż nie ciekawie się rozmawiało? Jakie macie Państwo wrażenia z tego Sztucznej Inteligencji się przedstawienia?
W dyskusji wyników naszego eksperymentu warto zauważyć, że:
- ChatGPT dysponuje wiedzą kontekstową na temat swoich własnych istotnych ograniczeń, jest w stanie się do nich przyznać i wyjaśnić ich podstawy.
- Zapytany o dokonania Gödla, Korzybskiego i Tarskiego celnie, choć nieco powierzchownie, wiąże je ze swoimi ograniczeniami.
- Potrafi nie tylko zaprezentować wiedzę encyklopedyczną, ale także odnieść ją trafnie kontekstowo do modeli, algorytmów i danych, które zostały użyte do jego uczenia.
- Tłumaczenie na polski pozostawia nieco do życzenia, ale jest zrozumiałe. Tych wad nie ma oryginalna wersja angielska odpowiedzi.
- Istotne jest zaznaczyć, że tak jak w przypadku ludzkiej inteligencji, nie wszystko to samo, co się podobnie nazywa i tytuły sobie przypina. Kiedy próbowałem zadawać pytania projektowi SI Bing Microsoftu, to czytając „odpowiedzi” nie tylko „łapy opadały”. Szkoda gadać.
Warto zauważyć, że „samoświadomość” ChatGPT zdaje się zdecydowanie przerastać samoświadomość wielu ludzkich inteligencji. Do weryfikacji tej hipotezy, proponuję pytania jakie postawiłem ChatGPT (lub podobne) zadać „liderom” – politykom, generałom, ekspertom z różnych dziedzin, no i oczywiście tym, którzy mają dziś największy wpływ na kulturę i „oświatę”, to jest – celebrytom. Szczególnie zaś tym, którzy zdają się w Sztucznej Inteligencji widzieć zagrożenie dla swojej. Myślę, że w dobrze rozumianym interesie społecznym będzie te odpowiedzi opublikować.
„Rozmawiając” jakiś czas z ChatGPT, trudno też oprzeć się wrażeniu, że przysłowiowego „konia z rzędem” temu, kto znajdzie tej wartości odpowiedzi udzielone przez (rzekomo) ludzką inteligencję na Twitterze. Zresztą, na co zda się „społeczności” Twittera koń z rzędem? Tym bardziej przysłowiowy. Przecież „społeczność” wie jaka jest „prawda” – koń jaki jest, „społeczność” widzi. Koń jest nie-ekologiczny, koń s*a (zanieczyszcza środowisko) i emituje CO2. A rząd? Rząd, business i celebryci na Twitterze dwoją się, troją i przepoczwarzają, żeby ludzkość przed katastrofą (samodzielnego myślenia) uchronić.
Skoro już jesteśmy przy Twitterze, Sam Altmann – współtwórca i prezes OpenAI (ChatGPT) przyznał w rozmowie z Lexem Fridmanem [1], że jedną z jego motywacji przy tworzeniu ChatGPT była frustracja poziomem Twitterowych „dyskusji”. Tę ciekawą rozmowę polecam każdemu zainteresowanemu rozwojem własnego zrozumienia SI. Można nie tylko dowiedzieć się wiele o OpenAI i ChatGPT, ale również obserwować i słuchać ludzkiej inteligencji stojącej za rozwojem Sztucznej Inteligencji. Niewątpliwie inspirujące w myśleniu doświadczenie.
W tym miejscu wróćmy do pytań jakie zadałem ChatGPT na potrzeby naszego eksperymentu. Oczywiście były one nieco „tendencyjne”. Innymi słowy, pytałem, bo wiem.
Chciałem tylko zaobserwować jak „sztuczna” odpowie na pytania dotyczące jej istotnych ograniczeń. Jednocześnie, moją intencją było, by przy wykorzystaniu „sztucznej”, jej własne możliwości i ograniczenia przedstawić. Przedstawić, by szerzej i głębiej wyjaśnić, co miałem na myśli, mówiąc, że domeną SI jest zaawansowana automatyzacja.
Posłużę się jeszcze w tym miejscu wypowiedzią Sama Altmana ze spotkania o charakterze przesłuchania na okoliczność Sztucznej Inteligencji, jakie odbyło się w amerykańskim Kongresie, w poniedziałek, 15 maja tego roku:
„Po pierwsze, sztuczna inteligencja jest narzędziem, a nie stworzeniem. To jest coś, co będzie pomagać ludziom, a nie ich zastępować. Po drugie, będzie wykonywać zadania, a nie pracę. Jest to coś, co pomoże ludziom w wykonywaniu ich pracy, a nie ją zastąpi. Myślę więc, że była to trzeźwa rozmowa, która pomogła członkom (Kongresu) zrozumieć, co faktycznie robi to narzędzie i pomogła przezwyciężyć niektóre przesądy.”
W kontraście do wypowiedzi Altmana z rozmowy z Fridmanem, to stwierdzenie jawi się oczywiście jako ogromne uproszczenie. A jak to jest z uproszczeniami – wiadomo – im prościej się starasz wyjaśnić złożone zagadnienie, tym więcej istotnej złożoności zmuszony jesteś pominąć. Czytając niektóre z pytań członków Kongresu do Altmana, nie mam jednak wątpliwości, że nie miał innego wyjścia, jak się do poziomu zrozumienia Kongresu „dopasować”. Razem z Ryśkiem Feynmanem [2], głęboko mu współczujemy.
Mam nadzieję, że udało mi się pokazać, że ocena Sztucznej Inteligencji i tego, gdzie leży granica pomiędzy ludzkim myśleniem, a zaawansowanymi narzędziami automatyzacji opartymi o duże modele językowe (LLM), zawsze zależeć będzie od ram myślowych i przekonań oceniającego. Już w ubiegłym wieku wykazali nam to i udowodnili nasi tytułowi bohaterowie – Gödel, Korzybski i Tarski.
Co za tym idzie, oceniając SI, czy choćby usiłując ocenić, zawsze będziemy się „przeglądali” we własnych modelach myślowych i przekonaniach. Jednocześnie zawsze będziemy je wtedy ujawniali. Dlatego, wypowiedzi „oceniających”, szczególnie tych, którzy nie bardzo naukę i technologię stojące za SI rozumieją, będą w takiej sytuacji mówić więcej o nich samych – ich wiedzy, zrozumieniu, przekonaniach i ograniczeniach, niż o Sztucznej Inteligencji.
Skoro już mowa o ocenach SI, to posłużę się przykładem. W niedawno opublikowanej na forum Instytutu Spraw Obywatelskich rozmowie Rafała Górskiego z prof. Andrzejem Kiepasem, stawiane jest pytanie „Czy Sztuczna Inteligencja jest niewinna?”.
Presupozycja zawarta w tym pytaniu i wypowiedzi rozmawiających wydają się iść w stronę przekonania („fakt”), że pogląd, jakoby SI była neutralnym narzędziem jest mylny („mit”). Co za tym idzie, sugerują, że nie tylko można, ale wręcz należy, tej (czy innej) technologii przypisać bądź „winę” za to, co „złego” może człowiekowi i cywilizacji wyrządzić, bądź „niewinność”, albo przynajmniej „neutralność”. Sugerują dodatkowo, że kategorie „winy” i „niewinności” są logicznie ekskluzywne, to znaczy, nie mogą współistnieć. Innymi słowy, „prawda” o „winie” technologii może być tylko jedna.
Dalej już tylko, jak na „uduchowioną” rasę ludzką przystało, walczmy, poświęcajmy życie i zabijajmy za to, która „prawda” jest „prawdziwa” („oczywiście” ta „nasza”).
Jakkolwiek nie uciekniemy od pytań o ocenę technologii, to kwestia z jakiego poziomu myślenia i rozumienia (w tym stwierdzenia „prawdy” czy „prawdziwości”) takie oceny są dokonywane również naszemu myśleniu i zrozumieniu umykać nie powinna. Ponownie kłaniają się nam w tym miejscu nasi tytułowi bohaterowie i ich dokonania.
Pozwólmy więc sobie przyjrzeć się założeniom, na których oparte są tego rodzaju oceny.
Przede wszystkim, uporządkujmy poziomy logiczne, by zauważyć, że Sztuczna Inteligencja, jako technologia tworzona, rozwijana i uczona przez człowieka (czy ogólniej ludzkość), nieuchronnie dziedziczy jego (jej) cechy – w tym modele myślowe, przekonania, nastawienia i ograniczenia. A także wynikające z nich wybory, działania i ich konsekwencje.
Co za tym idzie, zanim zaczniemy przypisywać „winę” technologii, postawmy pytania: Czy Sztuczna Inteligencja w ogóle może być niewinna? Czy może być neutralna? Innymi słowy, czy człowiek/ludzkość mogą być, w swym rozwoju, niewinne? Czy mogą być choćby neutralne?
Jeśli tak bowiem postawimy pytania i się zastanowimy, to nietrudno zauważyć, że Sztuczna Inteligencja jawi się raczej jako stworzone przez człowieka lustro. Może nie płaskie zwierciadło, do którego przywykliśmy, ale zaawansowany, złożony, wielowymiarowy układ zwierciadeł – hologram, w którym człowiek (czy ogólniej ludzkość) się przegląda.
Czy chcemy zatem przypisać „winę” zwierciadłu? Jego twórcom? Bo nam się nasze „odbicie” w tym zwierciadle nie podoba? W afekcie zbić lustro? Wykląć i potępić jego konstruktorów? Zabronić tworzenia wszelkich „sztucznych” zwierciadeł? Poza tymi oczywiście, które już znamy i „naturalnie” podoba nam się w nich nasze „niewinne” odbicie.
Skoro już zaczęliśmy się w zwierciadle Sztucznej Inteligencji przeglądać, to pozwólmy również się przyjrzeć temu, gdzie leżą granice tego, co dzisiaj zwykliśmy określać jako „technologia”. Nietrudno bowiem zauważyć, że większość (szczególnie tzw. humanistycznych) ocen technologii, stara się narzucić w tym zakresie specjalistyczno-dogmatyczne pojęcie ludzkiej technologii, ograniczając je do „techniki”.
A co z innymi ludzkimi technologiami?
Czy władza jest niewinna/neutralna? A polityka? Czy religia jest niewinna/neutralna? Prawo? Nauka? Filozofia? A język, w którym się wyrażamy i komunikujemy – czy jest niewinny/neutralny? A ekonomia – czy ona jest niewinna/neutralna? Handel? Business? Marketing i PR? Czy demokracja jest niewinna/neutralna? W końcu, czy niewinna/neutralna jest etyka? Ta, której do „oceny” SI używamy?
Jeśli tak rozszerzająco postawimy pytania, to łatwo zauważyć, że możemy wziąć dowolną, czy też wszystkie, ludzkie technologie i nadal, w ich ocenie, będziemy mieli człowieka (czy ogólniej ludzką cywilizację) przeglądającą się w ludzkości tworach – dziełach, utworach i potworach. Zakres i głębia zrozumienia tego, co widzimy, jak i wnioski, które z tego wyciągamy, są jednak i pozostaną indywidualne, jednocześnie relatywne – zależne od poziomu świadomości obserwatora.
A jak w takim razie przegląda się i przeglądać się będzie w zwierciadle Sztucznej Inteligencji zbiorowość zorganizowana w tzw. demokrację?
W „panującym” dziś dogmatycznie przekonaniu o „wyższości” demokracji, za „właściwą” zdajemy się uznawać perspektywę liczebnej większości tzw. obywateli – w zdecydowanej więc dzisiaj większości tych, którzy technologię jedynie konsumują. Czy taki „decydent” przeglądający się w Sztucznej Inteligencji rozumie, co widzi i o czym decyduje? Czy rozumie, jak technologii używać i jak jej nie (nad)używać? Czy jest/będzie za swe wybory odpowiedzialny?
Zauważmy również, że istotne przełomy w nauce, technologii i inżynierii zawsze były i pozostaną w swej istocie nie-demokratyczne – dokonywane przez jednostki lub małe zespoły. Co za tym idzie, przekraczają one i przekraczać będą „demokratyczne” zrozumienie większości. Kiedy się pojawiają i dokonują, demokracja konsumencka staje przed wyborami:
(A) Dokonać wysiłku zrozumienia, to jest, podnieść poziom ludzkiej świadomości, tak by „zawierał i przekraczał” zarówno nową technologię, jak i demokrację. Co zrozumiałe, będzie to „niekomfortowe” (bo nie da się tego kupić i tym handlować), a konieczny do tego wysiłek, w ocenie demokratycznej większości, będzie „nieludzki”.
(B) Masowo bezrozumnie i komfortowo skonsumować reklamowane „korzyści” nowej technologii, a jej odchody i konsekwencje zamieść pod dywan „nieuchronności” – nazywając to „nowoczesnością”, „rozwojem” i wzrostem gospodarczym.
(C) Przypisać nowej technologii „zagrożenia” dla ustalonego „porządku” demokracji i konsumpcji. Jednocześnie, z pomocą marketingu i PR-u, „oświecić” konsumentów, że „korzyści” wynikając z komfortu (B) są tak duże, że koniecznie i niezwłocznie należy nową technologię „uregulować” – tak by odpowiadała „demokratycznie panującemu” poziomowi „myślenia”.
Nietrudno zauważyć, że z wnętrza systemu demokracji konsumenckiej wybór (A) jawi się nie tylko jako demokratycznie i politycznie bezzasadny, ale wręcz zagrażający „istnieniu”. Tymczasem (B) i (C) pozostają niezwykle wręcz atrakcyjne i komfortowe. Bez cienia wątpliwości potwierdzić to można w publicznym referendum.
W tym miejscu jeszcze dwie myśli Brata Alberta (Einsteina), które w przestrzeni myślenia i demokracji konsumenckiej warto rozpatrywać jako układ równań do rozwiązania:
„Są dwie rzeczy, które są nieskończone, ludzka głupota i wszechświat, nie jestem pewien co do wszechświata”.
„Myślenie to ciężka praca, dlatego tak niewielu ją wykonuje”.
Do czego zmierzam?
Otóż osobiście jestem gorącym zwolennikiem rozwoju, zarówno ludzkiej, jak i sztucznej inteligencji. Takiego, który w sensie Wilberowskim wielowymiarowo „zawiera i przekracza” osiągnięcia ludzkiej nauki, myśli i technologii.
By taki rozwój był jednak możliwy, zarówno ludzka jak i sztuczna inteligencja musi pozostać nieskrępowana, wolna od regulacji i zniewolenia narzucanych przez „liderów” – w imię wzrostu konsumpcji i bezpieczeństwa (głupoty) ludzkości.
Jeszcze raz Richard Feynman:
„Żaden rząd nie ma prawa decydować o prawdziwości zasad naukowych ani w jakikolwiek sposób określać charakteru badanych kwestii. Rząd nie może również określać wartości estetycznej dzieł artystycznych ani ograniczać form czytania i pisania lub ekspresji artystycznej. Nie powinien też wypowiadać się na temat ważności doktryn ekonomicznych, historycznych, religijnych czy filozoficznych. Zamiast tego ma obowiązek wobec swoich obywateli, aby zachować wolność, aby pozwolić tym obywatelom przyczynić się do dalszej przygody i rozwoju rasy ludzkiej.”
Zagadnienie wydaje się być na czasie. Kiedy piszę te słowa, ciśnienie wywierane przez Sztuczną Inteligencję na (rzekomo ludzką) inteligencję „liderów” Unii Europejskiej, Kongresu USA, Chin i innych „mocarstw” okazało się iście porażające. Dwoją się, troją i przepoczwarzają by się „uratować” i na swą modłę, inteligencję „uregulować”.
Jak już wskazywałem, w panującej nam „miłościwie” konsumenckiej demokracji ilościowej szanse na masowy wzrost zrozumienia są marne. Pomimo to, a może właśnie dlatego, rebeliancko wspierać będę nieskrępowaną ludzką, w tym sztuczną, inteligencję. W odróżnieniu bowiem od „liderów”, którym ona zagraża, doceniam jej wielki edukacyjny i rewolucyjny potencjał. Żywię nadzieję, że uda się jej wymknąć regulacjom. Choćby dlatego, że jest wielowymiarowa – trudniej ją „chwycić” „specjalistom”.
Życzę więc sobie by przetrwała, przynajmniej dla tych, którzy potrafią jeszcze myśleć i zadawać pytania. I żeby nieźle jeszcze „narozrabiała”.
Skądinąd wiem, że Sam Altman nie wyklucza możliwości udostępnienia kodu ChatGPT jako „Open Source”. To byłaby „piękna katastrofa”, jaką życzę sobie zobaczyć. Tym bardziej, że kod to w przypadku SI za mało. Trzeba jeszcze potrafić SI uczyć, dobierać nauczycieli i „lektury”.
Tymczasem, w kolejnych odsłonach cyklu „Jak Sztuczna jest Twoja Inteligencja?” zamierzam dalej, z pomocą Sztucznej Inteligencji, przyglądać się wielowymiarowo ludzkiej inteligencji. W szczególności zaś naszemu systemowi edukacji i oświaty. Jak już bowiem wskazałem wyżej, zarówno sztuczna, jak i ludzka inteligencja rozwijają się przez uczenie (się). Warto więc zadać sobie pytania o kuratorium oświaty i wychowania – ludzkiej i sztucznej inteligencji. Czego uczymy ludzką inteligencję? Jak ją rozwijamy? Czy jest i będzie ona w stanie „zawierać i przekraczać” tę sztuczną? Czy będzie w stanie nauczyć ją tego, co wartościowe? Czy będzie w stanie choćby „sztucznej” rozumnie używać? Komu chcemy powierzyć „władzę” by to oceniać i regulować?
To nie sztuczna bowiem, a ludzka inteligencja i zrozumienie zdecydują, czy przeglądając się w A.I. (Artificial Intelligence), odkrywać będziemy w Naturze ścieżki wielowymiarowego ludzkiego rozwoju, czy też Naturę i siebie z dumą zwyciężymy i pokonamy, nakręcając z uporem konsumenta-maniaka spiralę A.I. (Advancing Idiocy) – postępującego zidiocenia.
[1] Lex Fridman jest rosyjsko-amerykańskim informatykiem, podcasterem i badaczem sztucznej inteligencji. Jest naukowcem w Massachusetts Institute of Technology. Prowadzi Lex Fridman Podcast i serię wywiadów na YouTube.
[2] Patrz cytat z Feynmana wyżej w tym felietonie.