fbpx

Analiza

Alfred Skorupka: Ogólna Sztuczna Inteligencja z filozoficznego punktu widzenia

robot
fot. Lukas z Pixabay
Tygodnik Spraw Obywatelskich – logo

Nr 138 / (34) 2022

Niektórzy uczeni przewidują, że Ogólna Sztuczna Inteligencja, jeśli uda się człowiekowi ją stworzyć, mogłaby rządzić światem i ludzkością. Autor artykułu rozważa ten problem z filozoficznego punktu widzenia.

Wstęp

Sztuczna Inteligencja (SI, ang. Artificial Intelligence, AI) jest już obecna niemal we wszystkich dziedzinach życia człowieka. Przede wszystkim – w Internecie, na smartfonach w różnego rodzaju aplikacjach, na laptopach i komputerach. SI ma mnóstwo zastosowań we wszystkich praktycznie gałęziach gospodarki (robotyce, pojazdach autonomicznych, dronach, itd.), także w medycynie (gdzie różne systemy oparte na SI pomagają w diagnozowaniu chorób) oraz w instytucjach państwowych (np. w rekrutacji) i bankach (jak np. przy tzw. profilowaniu klientów). Ogromne środki finansowe na badania nad SI przeznaczają USA i Chiny, podczas gdy Unia Europejska jest tutaj za nimi nieco w tyle, ale ma się to zmienić.

Tak szybki i wszechobecny rozwój SI stawia uczonych (także filozofów) przed szeregiem pytań dotyczących jej wpływu na życie człowieka, relacje społeczne, czy dalsze kierunki rozwoju.

Niektórzy uczeni (o czym będzie mowa w tej pracy) postulują, że Ogólna Sztuczna Inteligencja (OSI, ang. Artificial General Intelligence, AGI) mogłaby wręcz rządzić światem, aby wreszcie uczynić go bardziej sprawiedliwym i przyjaznym dla człowieka. Temu problemowi autor artykułu postanowił się przyjrzeć z filozoficznego punktu widzenia aby rozważyć: Na ile realny jest taki pomysł?

Artykuł zaczyna się od krótkiej charakterystyki zagadnień dotyczących SI, także tzw. Osobliwości, która według transhumanistów ma stanowić zwieńczenie rozwoju SI. Następnie, autor zajmuje się etyką, którą niesie ze sobą SI, dalej – problemem, czy superinteligencja ma stanowić „koniec historii”, wreszcie – rozważa, czy SI może być zagrożeniem dla ludzkości. Konkluzjami pracy jest, że pomysł aby SI rządziła światem jest raczej „fantastyczny”, tym niemniej, niepodobna lekceważyć wielu zastosowań SI w życiu człowieka i udogodnień, które ona ze sobą niesie.

Krótka charakterystyka problematyki SI

Nie jest łatwo zdefiniować sztuczną inteligencję, ponieważ nie ma powszechnej zgody co do tego, czym jest inteligencja. Ponadto, inteligencja maszynowa jest często bardzo różna od ludzkiej inteligencji; maszyny są zdolne do wykonywania mnóstwa zadań, których ludzie w ogóle nie potrafią zrobić, ale są one odbierane jako inteligentne. Zaproponowano więc wiele definicji SI, lecz na ogół określa się nią programy komputerowe zdolne do takiego zachowania, które określilibyśmy jako inteligentne, gdyby przejawiali je ludzie. John McCarthy, założyciel dyscypliny SI, opisał ten proces w 1955 r. następująco: „[proces, który] sprawia, że maszyna zachowuje się w sposób, który nazwalibyśmy inteligentnym, gdyby w ten sposób zachowywał się człowiek”[1].

Szeroki obszar zastosowań SI, następująco charakteryzuje Leszek Rutkowski:

„Do zagadnień SI należy między innymi poszukiwanie metod rozwiązywania problemów. Przykładem mogą być poszukiwania algorytmów do gry w szachy. Rozumowanie logiczne to drugie z wielu zagadnień SI. Polega ono na zbudowaniu algorytmu naśladującego sposób wnioskowania, jaki zachodzi w mózgu. Kolejnym przedmiotem badań SI jest przetwarzanie języka naturalnego, a co za tym idzie, automatyczne tłumaczenie zdań między różnymi językami, wydawanie poleceń słownych maszynom, a także wydobywanie informacji ze zdań mówionych i budowanie z nich baz wiedzy. Badacze SI stają przed wyzwaniem stworzenia programów, które uczą się na podstawie analogii i w ten sposób same potrafią się udoskonalać. Przewidywanie i prognozowanie wyników oraz planowanie to także domeny sztucznej inteligencji. Istnieje duża grupa filozofów zastanawiających się nad problemem świadomości inteligentnego komputera. Naukowcy próbują także zgłębiać procesy percepcji, tzn. wizji, dotyku i słuchu, a co za tym idzie, zbudować elektroniczne odpowiedniki tych narządów i zastosować je w robotyce”[2].

Właśnie robotyka stanowi jedno z najbardziej zdumiewających ludzi zastosowań SI. Jerry Kaplan pisze[3], że robotyka polega na budowaniu maszyn, które są zdolne do wykonywania fizycznych zadań i nie muszą one wcale przyjmować ludzkiej postaci. Wybitnym osiągnięciem badań w zakresie robotyki jest pojazd autonomiczny, który porusza się po drogach i ustala wzajemne położenie we współpracy z kontrolowanymi przez ludzi pojazdami, rowerami oraz pieszymi mimo wszelkiej towarzyszącej temu nowości i nieprzewidywalności. Roboty mogą pracować tam, gdzie praca dla ludzi byłaby niebezpieczna, a nawet niemożliwa, np. z powodzeniem eksplorują przestrzeń kosmiczną.

Opieka nad osobami starszymi to kolejny obszar robotyki, motywowany demograficzną tendencją starzenia się wielu społeczeństw Zachodu, a zwłaszcza Japonii. Mamy też roboty, które niosą pewną pomoc psychologiczną, np. robot terapeutyczny Paro jest podobny z wyglądu do pokrytej futrem foczki i reaguje na dotyk, głaskanie itp.; daje on korzyści płynące z tzw. terapii zwierzęcej. Nie wszyscy uczeni jednak akceptują takie zastosowania SI, np. profesor MIT Sherry Turkle ostrzega, że urządzenia mechaniczne, które zachęcają do nawiązywania z nimi więzi emocjonalnej są z definicji zwodnicze i szkodzą relacjom międzyludzkim. Istnieją także roboty służące rozrywce. Mamy też bardzo małe wielkościowo roboty (nanoroboty), które można np. wstrzykiwać do ciała człowieka, aby zwalczały różne choroby. Istnieją tutaj jednak zagrożenia; tę samą technologię, którą można wyleczyć nowotwór, można wykorzystać do zabicia kogoś, a nawet do kontrolowania go. Wreszcie, robotyka ma wiele zastosowań militarnych, które budzą niepokój ONZ i innych organizacji, co do etycznych aspektów wykorzystywania np. precyzyjnej amunicji, latających „dronów-pocisków”, czy min, które wybuchają tylko wtedy, gdy w pobliżu znajduje się wróg.

Mamy dzisiaj odrębną dziedzinę nauki, nazywaną w języku angielskim – Computional Intelligence (co na polski możemy przetłumaczyć jako inteligencja obliczeniowa), która rozwiązuje różne problemy sztucznej inteligencji z wykorzystaniem komputerów wykonujących obliczenia numeryczne. Stosuje się tutaj następujące techniki[4]:

a. sieci neuronowe;
b. logika rozmyta;
c. algorytmy ewolucyjne;
d. zbiory przybliżone;
e. zmienne niepewne;
f. metody probabilistyczne.

Proponuje się podział na tzw. słabą i silną SI. Słaba SI, odmiennie niż w przypadku silnej, to taka, której nie można przypisać cechy samoświadomości.

Ten rodzaj inteligencji wykazuje autonomię działania i, z reguły, wyposażony jest w algorytmy samouczące się. W zakresie silniej SI, jeśli taka powstanie, zrodzi się problem, czy np. będzie samodzielnym podmiotem prawnym[5].

Osobliwość (ang. Singularity) – w odniesieniu do sztucznej inteligencji to przekonanie, że w pewnym momencie maszyny staną się wystarczająco inteligentne, żeby być w stanie przeprojektowywać się i udoskonalać, co spowoduje tak zwaną ucieczkę inteligencji. Idea ta pojawia się w wielu odmianach, np. transhumaniści[6] twierdzą, że to my, a nie maszyny będziemy podstawą tej przyspieszonej ewolucji[7]. Koncepcję Osobliwości szczególnie rozpropagował Raymond „Ray” Kurzweil (urodz. 1948) swoją głośną książką z 2005 r. Nadchodzi Osobliwość. Kiedy człowiek przekroczy granice biologii. Kurzweil to amerykański informatyk, naukowiec, pisarz i propagator transhumanizmu; jest twórcą wielu wynalazków technicznych (jak syntezatora mowy i tekstu dla niewidomych, syntezatora elektronicznego odtwarzającego dźwięki muzyki poważnej itd.), a także pracował dla Google.

Kurzweil niezwykle optymistycznie przedstawia nadejście Osobliwości; zacytujmy jego słowa:

„W następstwie Osobliwości inteligencja pochodząca od swych biologicznych początków w ludzkim mózgu i od swoich technologicznych początków w pomysłowości człowieka zacznie nasycać materię i energię od środka. Osiągnie to przez reorganizację materii i energii w celu zapewnienia najlepszego poziomu przetwarzania po to, by rozprzestrzeniać się ze swojego miejsca pochodzenia na Ziemi.

Obecnie rozumiemy prędkość światła jako czynnik ograniczający transfer informacji. Obejście tego ograniczenia jest dziś uważane za wysoce wątpliwe, są jednak wskazówki sugerujące, że to ograniczenie można wyeliminować. Jeśli pojawią się choćby niewielkie odchylenia, ostatecznie wykorzystamy tę nadświetlną zdolność. To, czy nasza cywilizacja będzie nasycać resztę wszechświata swoją kreatywnością i inteligencją szybciej czy wolniej, zależy od jej niezmienności. W każdym razie „głupia” materia i mechanizmy wszechświata będą przekształcone w znakomicie wysublimowane formy inteligencji, które ustanowią szóstą epokę ewolucji wzorców informacji. Jest to ostateczne przeznaczenie Osobliwości i wszechświata”[8].

„W naszym krwiobiegu krążyć będą miliardy nanorobotów. Będą niszczyć patogeny, poprawiać błędy DNA, eliminować toksyny i wykonywać wiele innych zadań, by poprawić nasze fizyczne samopoczucie. W rezultacie będziemy w stanie żyć bez końca, nie starzejąc się. W naszych mózgach ogromna ilość nanorobotów będzie wchodzić w interakcje z naszymi neuronami biologicznymi. To zapewni dostęp ze środka naszego układu nerwowego do pełnej rzeczywistości wirtualnej obejmującej wszystkie zmysły, a także neurologiczne korelaty naszych emocji. Także, co jeszcze ważniejsze, ścisłe połączenie między naszym myśleniem biologicznym a inteligencją niebiologiczną, którą tworzymy, znacznie poszerzy ludzką inteligencję.

Działania wojenne skupią się wokół broni opartej na nanorobotach oraz cyberbroni. Nauka będzie początkowo przebiegać online, lecz kiedy nasz mózgi znajdą się już w trybie online, będziemy mogli bezpośrednio pobierać nową wiedzę i umiejętności. Praca będzie polegać na tworzeniu, więc nie będzie wyraźnego rozróżnienia pomiędzy pracą a zabawą”[9].

Podsumowując, bez wątpienia SI jest tą dziedziną techniki z którą ludzie wiążą wielkie nadzieje, bo już teraz znacząco ulepsza nasze życie. Z drugiej strony z SI wiążą się też pewne niebezpieczeństwa dla wolności człowieka.

Mianowicie, można za jej pomocą kształtować myślenie i zachowanie człowieka. SI działa tak, jak zostanie zaprogramowana, a często jest programowana według życzeń polityków, którzy nie zawsze kierują się rzeczywistym dobrem człowieka. Z powodu SI grozi nam masowa inwigilacja (przez Internet, smartfony, kamery itd.), co nasuwa na myśl ponurą wizję świata skonstruowaną w książce Rok 1984 George’a Orwella.

Jeśli zaś chodzi o koncepcję Osobliwości Kurzweila, to może być ona dla wielu ludzi pociągająca, tym niemniej – jest to wizja transhumanistyczna, której pełna realizacja wiąże się z przekroczeniem przez człowieka swoich naturalnych granic wyznaczonych przez biologię i kulturę. A przecież od wieków to właśnie biologia i kultura określają człowieka. Czy teraz ich miejsce ma zająć technika i jak postuluje Kurzweil – „będziemy żyć bez końca”? Taka perspektywa wydaje się fantastyczna, a jej realizacja może wiązać się nawet z krzywdą i cierpieniami milionów istnień ludzkich. Nie wiadomo dobrze, kto miałby „sterować” tą nową „ewolucją człowieka”: czy rządy państw (a jeśli tak, to których?), czy jakieś systemy ekspertów (a jeśli tak, to wybranych na jakiej podstawie?). Perspektywa ta wydaje się bardzo odległa i trudno ustosunkowywać się do propozycji, które brzmią zbyt futurystycznie jak na czasy obecne, ale trzeba też pamiętać, że w historii ludzkości sporo było zaskakujących zwrotów i przeobrażeń; tak więc, pewnych pomysłów transhumanistów, realizowanych przynajmniej w ograniczonym stopniu, nie można też z góry przekreślać i traktować jako zupełnie nierealnych.

Etyka sztucznej inteligencji

Nick Bostrom i Eliezer Yudkowsky twierdzą, że SI m.in. powinna być przejrzysta, przewidywalna i odporna na manipulacje. Jednak Ogólną Sztuczną Inteligencję (OSI) trudno będzie przewidzieć, ponieważ będzie ona działać w różnych dziedzinach. Trudno ją także zaprojektować, ponieważ jest mnóstwo wyzwań i możliwości w całym świecie. Podczas gdy typowa SI specjalizuje się w konkretnej dziedzinie (np. grze w szachy lub diagnozie chorób nowotworowych), wyróżniającą cechą OSI będzie jej „ogólność” czyli możliwości zastosowania do różnorodnych problemów. Niewątpliwie, nie może ona szkodzić ludziom[10].

OSI będzie musiała myśleć jak inżynier i respektować etykę. Powstaje także pytanie, czy przyszłe systemy sztucznej inteligencji będą miały status moralny? Dzisiaj nie przyjmuje się, że SI ma status moralny; do jego wytworzenia potrzebny jest rozum i qualia. Ale już wiele zwierząt ma qualia, więc posiadają one pewien status moralny. Z kolei czasem rodzi się człowiek z uszkodzonym mózgiem i mu także nie odmawia się statusu moralnego. Wydaje się więc, że przyszłe rodzaje SI będą miały status moralny, ponieważ nie będzie najważniejsza ontogeneza tych bytów (np. czy posiadają mózg?) oraz ich podłoże (np. ciało lub krzem – jak jest w przypadku komputerów)[11].

Wraz z rozwojem technologii powstaje problem, czy można mózg przenieść / skopiować na komputer i czy taki obraz byłby tym samym mózgiem, co mózg ucieleśniony?

To kolejne wyzwanie etyczne związane z postępem w dziedzinie SI. Innym problemem jest, że ludzka ciąża trwa 9 miesięcy, podczas gdy SI potrafi znacznie szybciej powielać się z komputera na komputer. Z kolei superinteligencja, która rozumiałaby swój własny projekt, mogłaby stworzyć jeszcze wyższe poziomy SI. Taka nadludzka SI stawia nas przed niepojętymi dylematami moralnymi[12].

Bostrom i Yudkowsky dowodzą więc, że nie ma raczej sensu pytać, czy superinteligencja będzie „dobra” czy „zła”, ponieważ ona będzie nas przerastać tak znacznie inteligencją, że przez to wykraczać ponad nasze sposoby rozumienia świata i ludzi. Już R. Kurzweil twierdził, że wysoka inteligencja jest z definicji niemożliwa do kontroli. Także nasze ludzkie wyobrażenia o etyce i moralności ewoluują z biegiem lat (np. w Grecji niewolnictwo było akceptowane) i w przyszłości nasza etyka także może podlegać zmianom i przeobrażeniom[13].

Podsumowując, Bostrom i Yudkowsky piszą, że OSI powinna respektować etykę, ale przecież tak samo jak są różne religie, tak samo istnieje wiele podejść do etyki i toczy się wiele sporów o różne kwestie etyczne. Dla wielu ludzi na świecie religia wyznacza moralność, więc chrześcijanin chciałby na pewno aby OSI miała poszanowanie dla prawd wiary chrześcijańskiej, muzułmanin – dla wiary islamskiej, hinduista – dla wiary hinduskiej itd. Chociaż na świecie wiele się robi na rzecz pojednania między różnymi religiami, to pewne prawdy religijne wydają się nie do pogodzenia ze sobą, np. dla chrześcijan Jezus jest Synem Boga, a dla muzułman tylko prorokiem, a najważniejszym prorokiem jest dla nich Mahomet.

Gdy chodzi o etykę, to oczywiście nie ma „jednej” etyki filozoficznej, bo już od czasów starożytnych toczą się dyskusje o to, czym jest dobro i zło, co jest powinnością człowieka, co to znaczy żyć szczęśliwie i żyć godnie, itd. W czasach współczesnych doszło wiele nowych problemów etycznych – o aborcję, eutanazję, związki osób LGBT, status ludzkich zarodków, klonowanie i wiele innych. Ludzie zajmują w tych kwestiach bardzo zróżnicowane stanowiska, które ostro się zwalczają, dlatego trudno sobie wyobrazić, w jaki sposób OSI miałaby pogodzić ze sobą wszystkich ludzi w sprawach etyki i religii.

Adam Drozdek zastanawiając się nad postulowaną przez transhumanistów wirtualną nieśmiertelnością mózgu, pisze, że jeśli będzie wiele kopii jednego mózgu, to gdy jedna z nich popełni przestępstwo, czy ukarane będą wszystkie? Jak będzie wtedy wyglądała instytucja małżeństwa? Albo: Jaki charakter będą mieć relacje rodzic-dziecko? Zdaniem Drozdka, tylko umysł umiejscowiony w ciele stanowi podstawę osobowości[14].

Wiele z przytoczonych wyżej rozważań obu autorów to dyskusja w obrębie zagadnień transhumanizmu, ponieważ ta filozofia jest im bliska. Bostrom i Yudkowsky piszą, że nie ma sensu pytać, czy przyszła OSI będzie „dobra” czy „zła”, ponieważ będzie ona wykraczać poza typowo ludzkie wyobrażenia dobra i zła. Ale czy człowiek potrafi wykroczyć ponad dobro i zło? Kategorie dobra i zła od wieków wyznaczały sposób rozumowania i odczuwania świata przez ludzi, dlatego niepojęty jest dla nas świat, w którym te kategorie miałyby przestać obowiązywać.

Kolejnym zagadnieniem poruszanym przez transhumanistów jest status moralny OSI; zdaniem omawianych uczonych przyszła OSI powinna mieć status moralny. Ale czy taka sytuacja nie jest „wywróceniem do góry nogami” świata, który znamy? A mianowicie, gdy maszyna stanie się podmiotem moralnym i człowiek będzie zobowiązany nawiązywać z nią różne, w jakimś stopniu równorzędne relacje, czy taka sytuacja nie będzie „końcem świata”, jaki istniał do tej pory? A może się okazać, że pozycja człowieka będzie mniej ceniona od pozycji maszyny. Takie dylematy moralne są trudne do wyobrażenia i wytłumaczenia, jednak wydaje się, że w sytuacji relacji między SI a człowiekiem powinniśmy iść za wskazówkami Unii Europejskiej w tej dziedzinie, które głoszą, że w relacjach ze SI zawsze powinno się zachowywać przewodnią i podmiotową rolę człowieka.

Superinteligencja a przyszłość rządów

Phil Torres przypomina, że Francis Fukuyama głosił tezę o „końcu historii” (którym miało by być zatriumfowanie na całym świecie ustroju demokratycznego), natomiast swoisty „koniec historii” może nastać wkrótce, gdy rządzić nami będzie Ogólna Sztuczna Inteligencja, co ma być wytworzeniem tzw. singletonu (czyli globalnego systemu rządów, który jest obsługiwany przez algorytmy superinteligencji). Będzie to także oznaczać koniec nauki, ponieważ jej rozwój przejmie SI. Torres zakłada, że supersingleton będzie lepiej rozumował od ludzi i będzie bardziej przestrzegał zasad etycznych[15].

Torres dostrzega potrzebę zarządzania światem przez SI, ponieważ nowoczesną technikę można wykorzystać zarówno do dobrych, jak i złych celów.

Zagrożenie może wynikać z biotechnologii i umiejętności tworzenia przez człowieka patogenów i wirusów. Już dzisiaj coraz więcej osób może mieć dostęp do niszczycielskiej technologii. A społeczeństwo, w którym wiele osób ma dostęp do „przycisku zagłady” znalazłoby się w bardzo niebezpiecznej egzystencjalnie sytuacji, ponieważ nigdy nie brakowało wśród nas szaleńców i różnej maści psychopatów. Ta obecna sytuacja powoduje, że być może konieczna będzie masowa inwigilacja ludzi, ponieważ egzystencjalna katastrofa gatunku, jeśli miałaby się wydarzyć, to wydarzy się tylko raz, więc trzeba jej zapobiec[16]. Bez tego globalnego singletonu, niejako nowego Lewiatana, który zapobiegałby konfliktom w skali międzynarodowej i niwelował ryzyko działań agresywnych i nieprzewidywalnych, trudno wyobrazić sobie, jak ludzkość może się obronić przed zagrożeniem wynikającym z powszechnego dostępu do nowoczesnej techniki. Niewątpliwie, taka rządząca światem superinteligencja byłaby kimś w rodzaju despoty, ale byłaby też zwyczajnie „mądra”, podczas gdy ludzie są często krótkowzroczni i poddani siłom popędów. Dlatego przyjazny singleton może zapoczątkować erę pokoju i dobrobytu ludzkości. Bez tego systemu demokratyzacja dostępu do technologii może się skończyć dla nas katastrofą[17]. Wolter powiedział, że „Gdyby Bóg nie istniał, należałoby go wymyślić” – i można sparafrazować te słowa w ten sposób, że „Bóg” przyjmuje postać globalnej maszyny uwrażliwionej na ludzkie wartości[18].

Podsumowując, Torres stwierdza, że być może nastał „koniec historii”, którym ma być zarządzanie światem przez OSI. Trzeba jednak tutaj zapytać: A co z odmiennymi interesami wielkich, rywalizujących ze sobą mocarstw? Bo chociaż to niewątpliwe, że potężna SI domaga się jakiegoś sprawnego kierownictwa i wpływu na losy świata, tym niemniej, nie sposób zaprzeczyć, że wielkie mocarstwa (USA, Rosja czy Chiny) nie przestają istnieć, a prowadzona przez każde z nich polityka jest odmienna, a często nawet sprzeczna z interesami innego mocarstwa.

Zamiast więc mówić o „końcu historii” w rozumieniu Torresa i w nawiązaniu do Fukuyamy, lepiej będzie raczej przytoczyć konkurencyjną wobec Fukuyamy koncepcję, którą stworzył amerykański politolog – Samuel Huntington. Uczony ten pisał[19], że po upadku zimnowojennego ładu, świat jest wyraźnie podzielony na rywalizujące ze sobą cywilizacje (zachodnią, chińską, prawosławną, indyjską i islamską). Obraz polityki współczesnego świata jest interakcją między współpracą i konfliktami pomiędzy tymi cywilizacjami. Natomiast w odniesieniu do SI, trzeba raczej powiedzieć, że zamiast jednej, globalnej OSI, która wszystkim ma zarządzać – poszczególne cywilizacje będą wprowadzały zastosowania SI na swoim terytorium oraz bez konsultacji, chociaż czasem ze współpracą lub nawet konfrontacją – z innymi cywilizacjami.

Czy SI jest zagrożeniem dla ludzkości?

Kevin Warwick pisze, że wiele wpływowych osób wyraża zaniepokojenie z powodu gwałtownego rozwoju SI. Stephen Hawking miał powiedzieć, że jej pełny rozwój może spowodować zagładę gatunku ludzkiego; podobne obawy wyrazili Elon Musk i Steve Woźniak. Inne zdanie ma tutaj Roger Penrose, fizyk i matematyk, który promuje zdolności ludzi i umniejsza możliwości maszyn. Twierdzi on, że inteligencja wymaga zrozumienia, a tego nie ma na żadnym komputerze, więc komputery będą zawsze podporządkowane ludziom[20]. Warwick wyśmiewa ten pogląd; argumentuje, że zwierzęta (np. pszczoły, mrówki czy krowy) też się jakoś komunikują, a my tego nie rozumiemy i to wcale nie oznacza, że jesteśmy podporządkowani zwierzętom. Po prostu zwierzęta, a także komputery i SI komunikują się w inny sposób, czyli – posiadają inny rodzaj inteligencji niż ludzki[21]. Maszyny czy SI nie są więc mniej inteligentne od człowieka, lecz są inne.

Uczony ten pisze o niewątpliwych zaletach SI. Mianowicie, SI jest bardzo szybka (podczas gdy ludzki mózg działa powoli), maszyny widzą wielowymiarowo, a ponadto komputery znacznie lepiej się komunikują od ludzi, gdzie prawidłowa komunikacja jest ograniczona choćby przez częste popełnianie błędów i ogromne zróżnicowanie językowe. Maszyny potrafią komunikować się na całym świecie z bardzo małym, niemal zerowym błędem, przy użyciu standardowych języków, a miliony wiadomości mogą być pomyślnie przesyłane i odbierane równolegle.

Zakładanie trzech praw robotyki Asimova, które mówią, że roboty będą zawsze przyjazne dla ludzi i nie skrzywdzą człowieka – jest fikcją; już bowiem teraz SI jest wykorzystywana do podsłuchów, szpiegowania, a nawet w czasie prowadzenia starć zbrojnych, zamachów lub wojen.

Zdaniem Warwicka, SI może być bardzo niebezpieczna, ponieważ jest podłączona do sieci, a my praktycznie nie jesteśmy w stanie wyłączyć Internetu. Dlatego decyzje podejmowane przez SI mogą być całkowicie sprzeczne z tym, co uważamy za rozsądne[22].

Podsumowując, możemy zastanowić się filozoficznie, co to znaczy, że SI będzie „lepsza” od człowieka? Jeśli SI nie będzie w ogóle popełniać „ludzkich błędów”, czy wtedy świat bez tych błędów byłby „lepszy” i bardziej przyjazny dla człowieka? Gdyby człowiek stał się maszyną i działał jak maszyna, to czy taki człowiek byłby „lepszy” od tzw. „normalnego człowieka”, który popełnia „ludzkie błędy”? Raczej wątpliwe.

Człowiek zawsze był istotą omylną i poprzez błędy człowiek uczy się oraz kształtuje, buduje swoją osobowość i charakter. A żyć bez błędów (w relacjach z ludźmi, w pracy, w miłości) – czyli jak? Nie być człowiekiem? W naturę człowieka jest wpisane popełnianie błędów i uczenie się na nich, a czasem nawet cofanie się przez człowieka do wcześniejszych etapów rozwoju. Natomiast żyć w jakimś „idealnym świecie bez błędów” rządzonym przez SI, to byłby chyba „świat nieludzki” – jakaś tyrania.

Konkluzje

Wyciągając wnioski z naszego artykułu, należy powiedzieć, że cały ten pomysł, by światem (ludzkością) rządziła SI, jest raczej utopią. Aby bowiem tak się stało – ludzie musieliby przestać być ludźmi – wyrzec się swoich zwyczajów, narodów, kultury, a nawet emocji i stać się „nowymi technicznymi istotami” (cyborgami). W takim „idealnym świecie” nie byłoby miejsca na zazdrość, zawiść czy rywalizację, które choć są negatywnymi ludzkimi emocjami i postawami – są też od wieków nieodłączną częścią naszej natury. W ograniczonym stopniu dla niektórych ludzi można stosować w ich organizmach pewne „udogodnienia techniczne”, ale żeby wszystkie narody „połączyły się w jedno” i były zarządzane przez SI, to takie teorie snuć, jak się wydaje, mogą tylko ludzie „ślepo” zafascynowani nowoczesną techniką, którzy słabo rozumieją ludzką biologię, psychologię, zróżnicowanie kulturowe i politologię. Tak więc, cały brak uzasadnienia dla transhumanizmu i koncepcji singletonu, wynika z tego powodu, że aby ten postulowany „lepszy świat” się zrealizował – ludzie musieliby przestać być ludźmi; a to nie jest takie proste. Zamiast więc snuć nierealne koncepcje o singletonie, który ma rządzić całym światem, lepiej będzie (i to się już dzieje), gdy różne zastosowania SI będą usprawniać zachowania i działania ludzi oraz rządów państw, a państwa będą ze sobą w ograniczonym stopniu współpracować.

Dr Alfred Skorupka – Katedra Inżynierii Produkcji,
Wydział Inżynierii Materiałowej, Politechnika Śląska, Katowice, Polska.

Artykuł został opublikowany w czasopiśmie „Transformacje” 1 (112) 2022, s. 130-142.

This is an open access article distributed under the Creative Commons BY 4.0 license: http://creativecommons.org/licenses/by/4.0

Przypisy:

[1] Por. J. Kaplan, Sztuczna inteligencja. Co każdy powinien wiedzieć, tłum. S. Szymański, PWN, Warszawa 2019, s. 15-20.
[2] L. Rutkowski, Metody i techniki sztucznej inteligencji. Inteligencja obliczeniowa, Wyd. Naukowe PWN, Warszawa 2005, s. 5-6.
[3] Por. J. Kaplan, Sztuczna inteligencja…, s. 69-76.
[4] L. Rutkowski, Metody i techniki…, s. 2.
[5] W. Szpringer, Zarządzanie przez algorytmy. Technologia- ekonomia- prawo, Wydaw. „Poltext”, Warszawa 2020, s. 134.
[6] Transhumanizm – jest to filozofia, której istotą jest wykorzystywanie techniki do przezwyciężenia biologicznych ograniczeń człowieka i poprawy jego ludzkiej kondycji. Por. K. Szymański, Transhumanizm, w: Kultura i wartości, nr. 13/2015, s. 133-152 oraz P. Grajeta: Ciało wobec technonauki. Perspektywa transhumanistyczna, w: Studia Socjologiczne, nr. 1 (232)/2019, s. 117-132.
[7] J. Kaplan, Sztuczna inteligencja…, s. 172.
[8] R. Kurzweil, Nadchodzi Osobliwość. Kiedy człowiek przekroczy granice biologii, tłum. Lingua Lab, Kurhaus Publishing Kurhaus Media, Warszawa 2013, s. 35.
[9] Ibidem, s. 297-298.
[10] Por. N. Bostrom, E. Yudkowsky: Etyka sztucznej inteligencji, w: Sztuczna Inteligencja. Bezpieczeństwo i zabezpieczenia, red. R. V. Yampolskiy, PWN, Warszawa 2020, s. 72-74.
[11] Por. Ibidem, s. 76-78.
[12] Por. Ibidem, s. 79-82.
[13] Por. Ibidem, s. 83-85.
[14 A. Drozdek, On Cyberimmortality, w: Analiza i Egzystencja, nr. 31/2015, s. 9.
[15] P. Torres: Superinteligencja i przyszłość rządów: Priorytetyzacja problemu kontroli na końcu historii, w: Sztuczna Inteligencja. Bezpieczeństwo…, s. 446.
[16] Por. Ibidem, s. 447-450.
[17] Por. Ibidem, s. 460-462.
[18] Ibidem, s. 462.
[19] Por. S. P. Huntington: Zderzenie cywilizacji i nowy kształt ładu światowego, tłum. H. Jankowska, Muza, Warszawa 2011.
[20] K. Warwick: Inteligentne maszyny są zagrożeniem dla ludzkości, w: Sztuczna Inteligencja. Bezpieczeństwo…, s. 525,
[21] Ibidem, s. 526.
[22] Por. Ibidem, s. 529-532.

Bibliografia:

1. Bostrom N., Yudkowsky E (2020), Etyka sztucznej inteligencji, w: Sztuczna Inteligencja. Bezpieczeństwo…, s. 71-86.
2. Drozdek A. (2015), On Cyberimmortality, w: Analiza i Egzystencja, nr. 31/2015, s. 5-19.
3. Grajeta P. (2019), Ciało wobec technonauki. Perspektywa transhumanistyczna, w: Studia Socjologiczne, nr. 1 (232)/2019, s. 117-132.
4. Huntington S. P. (2011), Zderzenie cywilizacji i nowy kształt ładu światowego, tłum. H. Jankowska, Warszawa: Muza.
5. Kaplan J. (2019), Sztuczna inteligencja. Co każdy powinien wiedzieć, tłum. S. Szymański, Warszawa: PWN.
6. Kurzweil R. (2013), Nadchodzi Osobliwość. Kiedy człowiek przekroczy granice biologii, tłum. Lingua Lab, Warszawa: Kurhaus Publishing Kurhaus Media.
7. Rutkowski L. (2005), Metody i techniki sztucznej inteligencji. Inteligencja obliczeniowa, Warszawa: Wyd. Naukowe PWN.
8. Szpringer W. (2020), Zarządzanie przez algorytmy. Technologia-ekonomia-prawo, Warszawa: Wydaw. „Poltext”.
9. Sztuczna Inteligencja. Bezpieczeństwo i zabezpieczenia (2020), red. R. V. Yampol-skiy, Warszawa: PWN.
10. Szymański K. (2015), Transhumanizm, w: Kultura i wartości, nr. 13/2015, s. 133-152.
11. Torres P. (2020), Superinteligencja i przyszłość rządów: Priorytetyzacja problemu kontroli na końcu historii, w: Sztuczna Inteligencja. Bezpieczeństwo…, s. 445-466.
12. Warwick K. (2020), Inteligentne maszyny są zagrożeniem dla ludzkości, w: Sztuczna Inteligencja. Bezpieczeństwo…, s. 523-532.

Sprawdź inne artykuły z tego wydania tygodnika:

Nr 138 / (34) 2022

Przejdź do archiwum tekstów na temat:

# Nowe technologie # Społeczeństwo i kultura

Być może zainteresują Cię również: