Nowa rewolucja techniczna. Nadczłowiek i nadkomputer
Niemiecki filozof Friedrich Nietzsche przedstawił swoją koncepcję nadczłowieka w traktacie „Tako rzecze Zaratustra; książka dla wszystkich i dla nikogo”. Nadczłowiek jest jednym z pojęć, które odegrało kluczową rolę w jego krytyce współczesnej moralności i kultury.
Zdefiniował on nadczłowieka jako jednostkę, która dążąc do samorealizacji, musi przekraczać granice narzucone jej przez tradycyjne wartości i normy społeczne. W ich miejsce wprowadza własne wartości, normy i zasady, według których układa swoje życie i nadaje mu sens.
Koncepcja nadczłowieka
Idea nadczłowieka powstała na bazie krytyki moralności chrześcijańskiej, którą Nietzsche nazwał moralnością niewolników, ponieważ promuje pokorę, współczucie i słabość.
Nadczłowiek odrzuca te wartości i promuje siłę, moc i twórczość, które uznaje za wartości wyższe. Dążąc do realizacji swoich celów i przejmowania kontroli nad swoim życiem, kieruje się wolą mocy, która jest główną siłą napędową życia i twórczości. Upadek wartości tradycyjnych oznacza śmierć Boga i nihilizm – bezsens i pustkę. Temu przeciwstawia się twórcza siła nadczłowieka[1].
Inna mniej znana koncepcja nadczłowieka definiuje go jako istotę nieśmiertelną w wyniku łączenia się z nieskończonością. Jednym z marzeń człowieka jest pokonanie śmierci poprzez zapewnienie sobie wiecznego bytowania, by nie umrzeć cały. Stara się zrealizować je na różne sposoby, między innymi w wyniku mumifikacji, balsamowania ciała albo stawiania sobie nagrobków w postaci „pomników trwalszych od spiżu, wznioślejszych od królewskich budowli piramid, których ni deszcze żarłoczne, ni wichry szalone, lat szeregi bez końca, ni wieki w swym biegu nie zdołają zniszczyć”[2]. Odporność ich „na wieki bez końca” to nieskończone trwanie.
Również loty w przestrzeń pozaziemską można traktować jako próbę łączenia się z nieskończonością – z nieskończonym kosmosem. Innym sposobem łączenia się z nieskończonością jest aktywne (świadome) lub pasywne (niecelowe) pozostawianie swoich śladów cyfrowych w chmurach informacyjnych w wyniku digitalizacji człowieka.
Ślad informacyjny odnosi się do informacji, które pozostawia się podczas korzystania z Internetu. W czasach „big data” każdy człowiek działający w cyberprzestrzeni pozostawia po sobie cyfrowe ślady (cienie), ponieważ generuje dane (również bardzo osobiste), które trafiają do baz danych i chmur internetowych. Chmura internetowa to sieć połączonych ze sobą serwerów, która działa podobnie jak pendrive. W ten sposób tworzy swój image i swoją tożsamość cyfrową (e-tożsamość). Staje się ona swoistym towarem (raczej: łupem), nabywanym chętnie przez oszustów oraz różne organizacje, zajmujące się szpiegowaniem.
Ślad może być aktywny lub pasywny. Aktywny zawiera dane, które użytkownik świadomie udostępnia online, np. posty w mediach społecznościowych, komentarze, rejestracje w serwisach internetowych. A pasywny powstaje bez świadomego udziału użytkownika i zawiera np. adresy IP, pliki cookies, historię przeglądania, dane lokalizacyjne.
Ślad informacyjny jest niewidoczny, trudny do usunięcia i może być przechowywany przez „nieskończenie” długi czas w chmurach internetowych (informacyjnych). Użytkownik posiadający dostęp do chmury może na niej umieszczać swoje dane, zdjęcia, filmy, dokumenty, programy, a nawet cały komputer z systemem. Firmy informatyczne sprzedają ją lub udostępniają za darmo jako usługę. Teraz raczej sprzedają, ponieważ pojawił się intratny „rynek śladów informacyjnych”, na którym jest coraz więcej chętnych do łączenia się z nieskończonością. Przeważnie są to ludzie bogaci i naiwni, którzy uwierzyli w to, co pisze się w mediach na temat możliwości wiecznego bytowania w postaci śladu informacyjnego, szybującego w przestworzach w chmurach internetowych. Na obietnicy nieskończonego trwania (zmartwychwstania, reinkarnacji, życia pozagrobowego itp.) żerują także wszystkie religie od początku ich istnienia.
Chmura internetowa ma następujące zalety: duże bezpieczeństwo (bardziej prawdopodobne jest, że złodziej ukradnie laptopa lub pendrive’a z danymi niż włamie się do naszej chmury), łatwa dostępność, ogromna pojemność dyskowa (pojemność chmury można dowolnie, a więc nieograniczenie lub „nieskończenie” rozszerzać w zależności od potrzeb), integracja i współpraca (chmura umożliwia łatwą integrację z różnymi aplikacjami i systemami, co ułatwia współpracę między różnymi narzędziami i platformami, a użytkownicy mogą wspólnie pracować nad dokumentami, projektami i danymi w czasie rzeczywistym) oraz oszczędność kosztów (używanie chmury pozwala na redukcję kosztów związanych z zakupem, utrzymaniem i zarządzaniem fizycznymi serwerami i infrastrukturą Technologii Informatycznej; firmy płacą tylko za rzeczywiste użycie zasobów).
Przykłady usług chmury informacyjnej to m.in. Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform (GCP), a także usługi do przechowywania i udostępniania plików, takie jak Dropbox, Google Drive czy OneDrive. Zastosowanie chmury informacyjnej staje się coraz powszechniejsze w różnych sektorach – w biznesie, edukacji, medycynie i administracji publicznej – przynosząc korzyści w postaci zwiększonej wydajności, lepszej dostępności danych i większej elastyczności operacyjnej.
Wirtualizacja – nowa faza ewolucji antroposfery
Momentem przełomowym w historii ludzkości jest stworzenie świata wirtualnego.
Ludzie zawsze tworzyli swoje światy i wciąż tworzą nowe. Jedne są realistyczne, odzwierciedlające mniej lub bardziej adekwatnie świat sensoryczny, a inne fantastyczne. Przedstawia się je masom w postaci mniej lub bardziej zrozumiałych dzieł sztuki – utworów literackich, obrazów, rzeźb, kompozycji muzycznych i dzieł architektonicznych. Każdy ma swój subiektywny świat konceptualny – indywidualny i intymny – zamknięty w przestrzeni prywatności, którego tylko on sam może w pełni doświadczać i komunikować się z nim.
Społeczności też tworzą swoje światy, na które składają się światy indywidualne osób, wchodzących w ich skład. Faktycznie, są więc intersubiektywne i dostępne poznawczo dla wielu osób. A w miarę wzrostu liczebności i spójności kulturowej takich społeczności ulegają coraz większej obiektywizacji.
Digitalizacja świata i człowieka
Kształtowanie człowieka cyfrowego postępuje równolegle z rozwojem epoki antropocenu od końca dwudziestego wieku, ale najbardziej od początku dwudziestego pierwszego, kiedy udział ludzi w destrukcji środowiska społecznego wzrósł znacznie wskutek akumulacji kapitału.
Obecnie ingerencja kapitału w życie prywatne i publiczne (politykę, moralność, religię itd.) przybrała niesłychane rozmiary. Można przypuszczać, że w przyszłości będzie jeszcze bardziej się nasilać.
Toteż Jason W. Moore (socjolog z Binghamton University) proponuje, żeby wyodrębnić tę fazę rozwoju antropocenu, nazywając ją „kapitałocenem”[3].
W tej epoce ukształtowała się specyficzna odmiana człowieka – Homo oeconomicus, który stopniowo wypiera i zastępuje Homo sapiens. Kieruje się on przede wszystkim wartościami ekonomicznymi: pieniądzem, bogactwem, nadkonsumpcją i nadkomfortem, co budzi poważne zaniepokojenie osób trzeźwo myślących o dalszych losach ludzkości.
Nowym rodzajem świata wymyślonego jest świat wirtualny[4]. Wirtualnymi światami są trwałe internetowe, komputerowo renderowane przestrzenie (ich realistyczne obrazy komputerowe), zaludniane przez setki, tysiące, a nawet miliony użytkowników Internetu naraz, którzy postrzegają i odczuwają je prawie tak samo, jak świat realny. Wskutek tego, w wielu przypadkach nie uświadamiają sobie granic między światem wirtualnym a realnym. Świat wirtualny zaludniają różne istoty i przedmioty wirtualne: awatary, ikony i emotikony. Jednak najważniejsi są wirtualni ludzie.
Dzięki komputerom i odpowiednim programom można tworzyć różne światy wirtualne, a ich składniki wyposażać w dowolne, zazwyczaj wyimaginowane, właściwości różniące się od realnych właściwości ich korelatów w świecie rzeczywistym (sensorycznym). W szczególności nie muszą tam obowiązywać prawa fizyki. Świat wirtualny jest przeciążony informacjami, których ilość powiększa się w zastraszającym tempie [5].
W wyniku postępu w dziedzinie technologii komputerowej niedawno pojawiła się nowa forma świata wirtualnego – świat cyfrowy. Jego komponentami są cyfrowe (matematyczne) odzwierciedlenia realnych przedmiotów, procesów i zjawisk. Wszystko, co się da, przedstawia się teraz w postaci cyfr. Zdigitalizowane obiekty świata realnego ukazują się na czytnikach powszechnie dostępnych urządzeń elektronicznych, przede wszystkim na przenośnych, tj. na laptopach, tabletach, telefonach komórkowych, „inteligentnych zegarkach” i innych „mądrych” urządzeniach i gadżetach. Cyfryzacja wciska się coraz bardziej w życie codzienne dzięki modnemu „Internetowi inteligentnych rzeczy”[6]. Ma on dobre i złe strony. Jak wszelkie „mądre” urządzenia techniczne, ułatwia różne czynności praktyczne, a życie ludzi czyni ciekawszym i bardziej komfortowym. A równocześnie przyczynia się do redukcji sfery prywatności wszędzie tam, gdzie dociera Internet, gdyż upowszechnia dane osobiste i intymne.
Nawet tradycyjne domy przekształca się w „inteligentne”, tzn. kontrolowane i podglądane przez inteligentne urządzenia internetowe, które przekazują informacje o ich mieszkańcach między innymi w celu szpiegowania i kradzieży danych: „Czy są w domu?”, „Co robią?”, „Jak odpoczywają?”, „Czy są chorzy?” itd.
Realizacja idei Ubiquitous Computing (wspomagane komputerowo i bez granic przetwarzanie informacji dotyczących wszystkich sfer życia społecznego) umożliwia koncernom IT, prywatnym programistom i hobbystom wszczepianie ludziom mikroskopowych urządzeń elektronicznych (chipów) i ucyfrowienie wszystkiego w ich otoczeniu. A dzięki inteligentnej „galanterii elektronicznej” i „inteligentnym implantom” technologia informatyczna może przekraczać granice ludzkiego ciała. Wszystkie te urządzenia są w stanie komunikować się wzajemnie ze sobą oraz z innymi osobami poprzez różne sieci łączności.
Media społecznościowe, w szczególności Twitter [obecnie X – przyp. red.] i Facebook, zrewolucjonizowały sposób przesyłania i obiegu informacji, co ma również złe strony, ponieważ m.in. otwarły bezprecedensowe możliwości dla manipulantów społecznych. Różne urządzenia elektroniczne zbierają i gromadzą dane o człowieku i oferują ich użytkownikom więcej informacji o nim, aniżeli on sam wie o sobie. Instytucje i koncerny wykorzystują je rzekomo dla naszego dobra, ale faktycznie do innych celów: śledzenia, kontroli, reklamy i marketingu.
Obiecuje się ludziom dobrodziejstwa płynące ze społeczeństwa informatycznego, w którym np. ma postępować produktywność i lepsza jakość życia, chociaż nie ma pewności, że będą one rosnąć nieograniczenie i że okażą się tak dobre, jak się teraz przypuszcza. Natomiast pewne jest to, że postępująca rewolucja cyfrowa implikuje zagrożenie dla wolności i prywatności jednostek.
Digitalizacja ludzi pomaga rządzącym uzyskać pełne panowanie nad obywatelami. Dopóki ludzie zachowują jeszcze coś dla siebie, w co nikt inny, a tym bardziej państwo, nie jest w stanie ingerować, dopóty nie mogą być całkowicie zniewoleni. Jak stwierdził Günther Anders: „W każdej dyktaturze ‘Ja’ jest obszarem, który musi się okupować w pierwszym rzędzie”[7].
Świat cyfrowy stopniowo wyobcowuje się i wymyka spod kontroli ludzi.
Staje się wciąż bardziej nieprzewidywalny i stanowi coraz większe, wyobrażone i realne zagrożenie dla ludzi. Dlatego dziewięciu wybitnych ekspertów europejskich z zakresu Big Data, socjologii, filozofii, prawa, technologii i ekonomii zwraca uwagę na zagrożenie związane z automatyzacją społeczeństwa za pomocą algorytmów oraz sztucznej inteligencji i ostrzega przed „dyktaturą danych”[8]. W swoich pracach i publicznych wystąpieniach ostrzegają przed różnorodnymi zagrożeniami, takimi jak naruszenia prywatności, nierówności społeczne, dyskryminacja oraz brak transparentności i odpowiedzialności w stosowaniu technologii SI[9].
W świecie cyfrowym formuje się nowy gatunek społeczny człowieka – Homo digitalis (człowiek cyfrowy).
Jest to inna postać człowieka wirtualnego – zero-jedynkowa imitacja człowieka realnego – efekt zapoczątkowanej przez pierwszą rewolucję przemysłową w XVIII wieku ewolucji „człowieka maszynopodobnego”. Prawdopodobnie jest jego postacią najwyżej rozwiniętą.
A w pełni rozwinięty człowiek cyfrowy jest robotem, którym rządzą algorytmy zaprogramowane przez innych. Wskutek tego jest on zniewolony w najwyższym stopniu. Jego decyzje nie zależą od tego, czy w ogóle myśli ani co myśli w trakcie ich podejmowania. Ludzie cyfrowi obcując na co dzień z rozmaitymi urządzeniami elektronicznymi, wplątują się coraz bardziej w przeróżne sieci internetowe, z których trudno im się wyzwolić, gdyż szybko uzależniają się od nich, jak od narkotyków. W konsekwencji poddają się ich władzy i stają się ich zakładnikami i niewolnikami. Dlatego słusznie twierdzi Aleksandr Nikishin, że „najnowsze technologie inteligentne sprawując kontrolę nad ludźmi, grożą przekształceniem się społeczeństwa w cyfrowy obóz koncentracyjny”[10]. Tak oto, w digitalnej cywilizacji krzewi się digitalne niewolnictwo – najnowsza i najdotkliwsza forma neoniewolnictwa w czasach neoliberalizmu.
Proces kształtowania się człowieka cyfrowego postępuje coraz szybciej. Coraz bardziej digitalizowane są jego funkcje cielesne i umysłowe, psychika, osobowość i duchowość oraz zachowania, postawy, emocje i relacje międzyludzkie.
W dniu 13 listopada 2017 r. rozpoczęła się rewolucyjna zmiana świata w konsekwencji zezwolenia na stosowanie w USA pierwszej w świecie „pigułki digitalnej” w postaci mikrochipa. Na razie wprowadzono do niej mikroskopijny sensor, który powiadamia lekarza o czasie jej zażycia. Później będzie umieszczać się w niej więcej sensorów badających parametry i stany organizmu. Pociągnie to za sobą digitalizację pomiarów różnych parametrów ciała oraz diagnostyki lekarskiej za pomocą sztucznej inteligencji, a potem digitalizację terapii i drastyczną zmianę pojmowania zdrowia.
Ostatnio w Szwecji i niektórych innych krajach Europy wszczepiono ludziom na ich życzenie „implanty płatnicze”[11], które zastępują tradycyjne bankowe karty płatnicze działające zbliżeniowo. Z jednej strony, ułatwiają one dokonywanie płatności, ale z drugiej strony umożliwiają zainteresowanym instytucjom wgląd w historię operacji bankowych danej osoby.
Zapewne wkrótce będzie się wszczepiać implanty do wykonywania innych czynności. W ten sposób będzie się coraz bardziej obdzierać ludzi z ich prywatności w celu nie do pomyślenia dokładnej inwigilacji ich przez rozmaite osoby i organizacje oraz do wzrastającej do niebywałych rozmiarów kontroli. A to stanowi poważne zagrożenia dla wolności osobistej i demokracji. Powinno ono stać się ostrzeżeniem dla etyków i polityków i zmusić ich do skutecznego przeciwstawiania się temu. Nie powinni dopuścić do tego, by spełniło się marzenie Włodzimierza Iljicza Lenina.
Podobno w październiku 1919 r. wódz rewolucji socjalistycznej Lenin zjawił się w laboratorium słynnego rosyjskiego fizjologa i noblisty Piotra Iwanowicza Pawłowa, odkrywcy odruchów bezwarunkowych u psów. Wizyta wywołała zdziwienie uczonego. Jak wspomina Pawłow w swoich prywatnych notatkach, opublikowanych dopiero w latach 90.XX. wieku w rosyjskim tygodniku „Ogoniok”, Lenin oświadczył: „Chcę, aby rosyjskie masy naśladowały komunistyczny wzorzec reagowania i myślenia. W przeszłości w Rosji było zbyt dużo indywidualizmu. Komunizm nie toleruje indywidualistycznych tendencji. Są szkodliwe. Kolidują z naszymi planami. Musimy wyeliminować indywidualizm”. Ta wypowiedź zdziwiła Pawłowa: „Czyżby Lenin oczekiwał ode mnie uczynienia z ludźmi tego, czego dokonałem z psami?”. A potem zapytał: „Chcecie ujednolicić ludność Rosji? Sprawić, by wszyscy zachowywali się jednakowo i przewidywalnie? Kontrolować odruchy mas?”. Lenin odparł: „Właśnie tak. Jestem przekonany, że człowieka można poprawić, ukształtować wedle naszej woli, tak jak się nam podoba. Stworzyć człowieka nowej ery. Ery komunizmu” Jednak antykomunista Pawłow nie spełnił tej prośby.
Przenikanie digitalizacji do wnętrza człowieka jest czymś równie bardzo obiecującym jak przerażającym. Jest mieszaniną fascynacji i lęku przed tym, że człowiek stanie się cyborgiem – hybrydą człowieka i maszyny – istotą przekraczającą własne ograniczenia cielesne, egzotyczną i niespotykaną, a więc jakąś odmianą nietzscheańskiego nadczłowieka.
O ile w latach 60. XX wieku mówiło się o poszerzaniu granic człowieka na zewnątrz w wyniku robotyzacji, to teraz mówi się o przekraczaniu ich wewnątrz organizmu ludzkiego dzięki wprowadzaniu tam nanobotów[12].
Przewiduje się, że za około dziesięć lat większość bogatych ludzi w krajach uprzemysłowionych będzie obcować z cyborgami, albo stanie się nimi. A umieszczanie nanobotów wewnątrz ciała będzie czymś tak normalnym, jak stały się przeszczepy różnych narządów.
Poszczególne nanoboty w człowieku będą połączone ze sobą oraz z nanobotami innych ludzi za pomocą sieci komputerowych (Internetu). Wskutek tego ucieleśni się usieciowienie i digitalizację. Ray Kurzweil, słynny amerykański wynalazca i dyrektor ds. technicznych w Google, dokładnie przepowiedział, że już w latach 30. XXI wieku komputery zmierzą się z ludzką inteligencją i pokonają ją, a ludzie będą nosić w mózgach nanoboty wielkości komórek biologicznych połączonych z globalnym Internetem. To pozwoli im pobierać umiejętności i wytwarzać geny w celach terapeutycznych. Z początku będzie to dostępne dla bogatych, a wkrótce także dla mas, tak jak to było w przypadku telefonów komórkowych.
Nanoboty umieszczone w naszych mózgach wytworzą też nowe sposoby odbierania bodźców, inne niż znane wrażenia zmysłowe. Optymistycznie twierdzi się, że takie nanoboty nie zagrożą prywatności, ponieważ każdy człowiek będzie mógł je szyfrować indywidualnie, a szyfrowanie zawsze wyprzedza deszyfraż. Jednak w wyniku postępu technicznego zmniejsza się czas między szyfrowaniem i rozszyfrowaniem. Wobec tego będzie coraz bardziej skracać się czas trwania prywatności.
Poza tym przyspieszona digitalizacja ciała kryje w sobie wiele konsekwencji trudnych do przewidzenia i opanowania na podstawie dzisiejszego stanu wiedzy. Nie wiadomo, jakie możliwości dla manipulacji myślami, zachowaniami, postawami i uczuciami ludzi stworzy połączenie ich mózgów w jedną sieć globalną i jakie problemy teoretyczne i praktyczne wynikną z nadania robotom praw człowieka i z traktowania ich tak jak „osoby elektroniczne”.
Być może digitalizacja ludzi jest wstępem i warunkiem koniecznym do zaprowadzenia centralistycznego rządu światowego. Ta przepowiednia Kurzweila spełniła się już wcześniej z chwilą zbudowania biokomputera z żywych komórek mózgu ludzkiego.
Człowiek cyfrowy to osoba żyjąca i funkcjonująca w erze cyfrowej, korzystająca z nowoczesnych technologii i Internetu w codziennym życiu. Obejmują one sferę:
- komunikacji (wykorzystywanie cyfrowych narzędzi komunikacji, takich jak media społecznościowe, e-maile, komunikatory i wideokonferencje),
- edukacji (dostęp do wiedzy online za pomocą e-learningu, kursów internetowych, wirtualnych bibliotek i platform edukacyjnych),
- pracy (praca zdalna, telekonferencje, zarządzanie projektami online oraz wykorzystanie narzędzi cyfrowych w codziennej pracy),
- rozrywki: (konsumpcja treści multimedialnych zawartych w filmach, muzyce, grach wideo i książkach cyfrowych),
- zakupów i finansów (korzystanie z e-commerce, bankowości online, płatności mobilnych oraz kryptowalut),
- zdrowia (monitorowanie zdrowia za pomocą aplikacji, konsultacje medyczne online, telemedycyna i urządzenia wearable),
- kultury (udział w wirtualnych wydarzeniach kulturalnych, społecznościach internetowych i forach dyskusyjnych).
Na późniejszym etapie rozwoju świata wirtualnego pojawiła się sztuczna inteligencja (SI), która otworzyła nowe możliwości w różnych dziedzinach techniki. Wraz z uczeniem maszynowym stosuje się ją w różnych dziedzinach, od analizy danych po pojazdy autonomiczne.
Termin „sztuczna inteligencja” wprowadził w 1956 r. amerykański informatyk John McCarthy na konferencji w Dartmouth. „Sztuczna inteligencja to nauka i inżynieria tworzenia inteligentnych maszyn, zwłaszcza inteligentnych programów komputerowych. Jest to związane z podobnym zadaniem używania komputerów do zrozumienia ludzkiej inteligencji, ale SI nie musi ograniczać się do metod, które są biologicznie obserwowalne”[13].
SI jest działem informatyki, który zajmuje się tworzeniem systemów zdolnych do wykonywania zadań, jakie normalnie wymagają ludzkiej inteligencji.
SI wywiera kolosalny wpływ na wiele dziedzin, od medycyny i finansów, po transport i rolnictwo. Ze sztucznej inteligencji korzysta się w technologiach opartych na logice rozmytej; systemach eksperckich do rozwiązywania wielu problemów; maszynowym tłumaczeniu tekstów; sieciach neuronowych; uczeniu się maszyn; eksploracji danych; rozpoznawaniu obrazów, mowy, mówców i pisma; sztucznej twórczości artystycznej; inteligentnych interfejsach; prognozowaniu i wykrywaniu oszustw oraz w analizie wideo w czasie rzeczywistym.
Nowa rewolucja techniczna
Nowa rewolucja techniczna datuje się od stworzenia komputera biologicznego. Jego koncepcja powstała w latach 50. i 60. XX wieku.
Początki teorii obliczeń biologicznych sięgają prac brytyjskiego matematyka i informatyka Alana Turinga i innych pionierów komputerowych, którzy teoretyzowali na temat możliwości wykorzystania biologicznych procesów do obliczeń.
Postępy w biologii molekularnej, takie jak odkrycie struktury DNA przez Watsona i Cricka w 1953 r, stworzyły podstawy do zrozumienia mechanizmów biologicznych, które mogły zostać wykorzystane w biokomputerach. W 1994 roku Leonard Adleman przeprowadził pierwsze udane eksperymenty z obliczeniami DNA, rozwiązując problem ścieżki Hamiltona przy użyciu cząsteczek DNA. To wydarzenie jest często uważane za narodziny biokomputerów.
Komputer biologiczny wykorzystuje molekuły kwasu deoksyrybonukleinowego (DNA) i rybonukleinowego (RNA), które są nośnikami i magazynami informacji genetycznej w organizmach żywych. Determinują one cechy organizmu.
W przeciwieństwie do tradycyjnych komputerów, które opierają się na krzemowych układach scalonych do przetwarzania informacji, biokomputery korzystają w tym celu z procesów i zjawisk biologicznych.
Na początku biokomputerów używano do przeprowadzania skomplikowanych obliczeń na dużą skalę. Potem problemów medycyny (diagnostyka, terapia i inteligentne leki), biotechnologii (projektowanie i modyfikowanie organizmów na poziomie molekularnym), na użytek kryptografii (ze względu na zdolność do przeprowadzania równoległych obliczeń koniecznych do rozwiązywania złożonych problemów.
W latach 90. XX wieku zaczęto rozwijać badania nad automatycznymi systemami biologicznymi, takimi jak biomolekularne automaty komórkowe. Przyczyniły się one do rozwoju bardziej złożonych koncepcji obliczeniowych, opartych na biochemii.
W pierwszej dekadzie XXI wieku nastąpił dalszy rozwój technik biotechnologicznych. Postępy w inżynierii genetycznej, biotechnologii oraz nanotechnologii pozwoliły na bardziej precyzyjną manipulację cząsteczkami biologicznymi, co przyspieszyło rozwój biokomputerów. W tym czasie powstały pierwsze systemy oparte na enzymach, które potrafiły wykonywać proste operacje logiczne, co umożliwiło wykonywania obliczeń logicznych za pomocą biologicznych komponentów.
W drugiej dekadzie tego stulecia pojawiły się pierwsze syntetyczne systemy komórkowe, które mogły wykonywać specyficzne zadania obliczeniowe, takie jak wykrywanie określonych sygnałów chemicznych w środowisku i udzielanie odpowiedź na nie. Oprócz tego biokomputery zostały zastosowane w tworzeniu biosensorów zdolnych do wykrywania chorób i zmian w środowisku na poziomie molekularnym.
Obecnie rozwój syntetycznej biologii pozwolił na stworzenie bardziej złożonych biokomputerów opartych na żywych komórkach, które mogą przetwarzać informacje w sposób analogiczny do komputerów elektronicznych, ale z wykorzystaniem biochemii.
Współczesne badania koncentrują się na integracji biokomputerów z tradycyjnymi układami elektronicznymi, co powinno umożliwić tworzenie hybrydowych systemów obliczeniowych.
Przykładem są systemy do analizy danych biologicznych w czasie rzeczywistym lub inteligentne implanty medyczne.
Dalsze prace będą ukierunkowane na rozwój bardziej złożonych algorytmów biologicznych opartych na biochemii, co otworzyłoby nowe możliwości w zakresie przetwarzania danych, jak i rozwój komputerów opartych na neuronach. To może doprowadzić do stworzenia biologicznych odpowiedników SI, które będą działać na całkiem innych zasadach niż tradycyjna SI.
Komputer biologiczny nazwałem „nadkomputerem”. Jak nadczłowiek przekracza granice tradycyjnego człowieka, tak nadkomputer przekracza granice tradycyjnego komputera. Nie jest już komputerem martwym, którego procesor zbudowany został z materii nieożywionej (krzemu), lecz jakby żywym, bo jego procesor zrobiony jest z organelli[14].
Przyszłość. Ludzie cyfrowi i biokomputery
Przewidywalna przyszłość będzie zdeterminowana przez ludzi cyfrowych i biokomputery. Trudno dziś odpowiedzieć na pytanie, czy to okaże się wielkim dobrodziejstwem czy zagrożeniem. Na gruncie tradycyjnej etyki rozważania na temat człowieka cyfrowego bardziej skłaniają do dystopijnej konkluzji. Są ku temu różne powody.
Po pierwsze, żyjemy w społeczeństwie wiedzy, w którym każdy ma łatwy dostęp do edukacji i wiedzy naukowej i nic istotnego nie stoi na przeszkodzie, by w maksymalnym stopniu skorzystał z tego. Dzięki temu mógłby racjonalnie myśleć, działać i podejmować decyzje optymalnie dobre dla ludzi oraz ich oikos. A tymczasem, człowiek, ulegając presji ideologii konsumpcjonizmu, komfortu upodobnia się do człowieka maszynopodobnego, głupieje na potęgę i nie chce być mądrzejszy. Zdaje się chętniej na sztuczną inteligencję niż na naturalną inteligencję własną. Toteż bardziej ufa kłamstwom szalbierzy aniżeli prawdziwym wypowiedziom uczciwych ekspertów.
W cyfrowym społeczeństwie oraz więcej ludzi będących jeszcze Homo sapiens przekształca się w Homo digitalis. W takim razie przypuszczenie, że będzie mądrzej i lepiej, okazuje się tylko kolejną utopią w historii ludzkości.
Po drugie, światem nie tyle rządzą politycy z prawdziwego zdarzenia, kierujący się dobrem wspólnym, ile karierowicze, globalni aferzyści i nikła grupa ponadpaństwowych megakorporantów kierujących się dobrem własnym. To współcześni nadludzie lekceważący wszelkie ograniczenia dobrem własnym. To są współcześni nadludzie lekceważący wszelkie ograniczenia i normy przyzwoitości. Tym groźniejsi, że gromadzą w swych rękach największe bogactwo[15] i dysponują najnowszą techniką – sztuczną inteligencją i nadkomputerami. Największą ich ambicją jest władać światem i zostawić po sobie jak najtrwalszy ślad na Ziemi i w chmurze informacyjnej, by połączyć się z nieskończonością.
Po trzecie, zdegenerowani przez ideologie konsumpcjonizmu i cywilizację zła nieformalni władcy świata – coraz bardziej pazerni megakorporanci – wraz z oficjalnymi rządami marionetek, pociąganymi za linki znajdujące się w rękach oligarchów, wprowadzili ludzkość na skraj przepaści. Odbywają tu swoisty „taniec zwycięstwa”, nie zważając na to, że niebawem stoczą się na jej dno. Ale dla nich to bez znaczenia, ponieważ żyjąc „tu-i-teraz”, nie martwią się o przyszłość. Nie obchodzi ich to, że pociągną za sobą całą ludzkość w otchłań.
Po czwarte, na niewiele zdają się apele ludzi trzeźwo myślących, dalekowzrocznych realistów znajdujących się wśród naukowców, dziennikarzy, artystów, pisarzy, ekologów itp., którzy kierują się nie tylko zasadą „tu-i-teraz” lub „po nas choćby potop”, ale normą „tam-i-potem”. Bo dla nich sprawy przyszłych generacji są co najmniej tak samo ważne, jak teraźniejszego pokolenia; nie tylko sprawy lokalne „tu”, ale też globalne „tam”. Rzecz w tym, że nie liczy się z nimi tylu ludzi, ilu powinno, by wystarczyło do utworzenia światowego ruchu na rzecz ochrony ludzkości i świata przed zagładą.
Po piąte, współcześni ludzie, głównie w krajach wysoko ucywilizowanych i zlaicyzowanych, zauroczeni osiągnięciami nowoczesnej techniki i nauki, przestali się bać czegokolwiek. Nie są dla nich przerażające straszydła fikcyjne (bogowie, diabły, Gargamele, Baby Jagi itp.) ani rzeczywiste, (wojny, terroryści, zmiany klimatyczne, klęski żywiołowe, kryzysy ekonomiczne, pandemie, samowładcy itp.) Istnienia pierwszych nie weryfikuje nauka, a przed drugimi, jak sądzą, skutecznie obroni technika. O ile nie wierzy się w fikcyjne strachy, to nawet dobrze. Gorzej, gdy ignoruje się prawdziwe, bo to zwalnia z obowiązku przeciwstawiania się im.
Po szóste, postępuje gwałtowny wzrost cyfryzacji, który jest olbrzymim zagrożeniem dla wolności jednostek, społeczności, organizacji i państw.
Na szczególną uwagę zasługuje cyfryzacja sfery banków i finansów, która bardzo szybko dokonuje się w skali globalnej. Nic nie zniewala ludzi tak, jak pieniądze i banki. Toteż dyktatorzy dokonywali zamachu na wolność obywateli, przede wszystkim zmuszając ich do korzystania z coraz liczniejszych usług bankowych w coraz szerszym zakresie. Zrazu bank stał się ogniwem pośrednim między nabywcą i sprzedawcą w wyniku zastąpienia gotówki przez weksle. Potem, w wyniku likwidacji kas wypłacających pobory w zakładach pracy. W końcu, w wyniku zmuszenia ludzi do dokonywania wszelkich przelewów pieniężnych i płatności wyłącznie poprzez banki. W efekcie każdy musi mieć swoje konto bankowe przynajmniej w jednym banku krajowym lub zagranicznym. I każdy jest coraz bardziej kontrolowany przez banki: bank wie wszystko o nim i w coraz większym stopniu decyduje o jego losie i życiu.
Wreszcie, jakby tego było za mało, wprowadzono elektroniczną walutę cyfrową i pieniądze cyfrowe[16]. Waluta elektroniczna miałaby być traktowana na równi z tradycyjnym pieniądzem w formie gotówki – banknotów i monet, ale z czasem ma je wyprzeć z obiegu.
Z jednej strony, pieniądze elektroniczne znacznie ułatwiają obrót pieniężny, ale z drugiej strony, są najpotężniejszym instrumentem zniewolenia ludzi nie tylko w aspekcie finansowym. Coraz częściej autorzy publikacji uświadamiają masy o tym i ostrzegają je przed zagrożeniami wynikającymi z tego[17].
Głównie chodzi o to, że spowoduje to całkowite ubezwłasnowolnienie ludzi. Za sprzeciwienie się grozić będzie zablokowaniem środków na koncie. A ponadto garstce ludzi, chcących rządzić światem, umożliwi realizację tego celu. Chcąc zapewnić sobie sprawowanie absolutnej władzy nad obywatelami, trzeba podporządkować sobie banki. Kto ma władzę nad bankami, ten rządzi ludźmi i światem. Szkopuł jednak w tym, że banki wiedząc o tym bronią swej niezależności od rządów, tzn. chcą rządzić rządami i innymi organami państwa i ich funkcjonariuszami. Garstka mega korporantów hołduje hasłu: „Jeden pieniądz, jeden rząd, jedna władza”[18].
Na inne zagrożenia uczula Cathy O’Neil, amerykańska matematyczka (nauka o danych) z Columbia University. W książce „Weapons of Math Destruction” (Broń matematycznego niszczenia)[19] O’Neil dowodzi, że wiele algorytmów stosowanych w ocenie zdolności kredytowej, rekrutacji, czy wyrokach sądowych, działa jak „czarne skrzynki”. Oznacza to, że ich działanie jest tajemnicze, a decyzje są nieprzejrzyste dla użytkowników. Algorytmy mogą wzmacniać istniejące nierówności społeczne wskutek uprzedzeń i preferować osoby z pewnych grup społecznych. Stosowane na dużą skalę mogą dawać błędne lub niesprawiedliwe wyniki badań.
W konkluzji autorka stwierdza, że algorytmy SI nie są neutralnymi narzędziami, bo zależą od tego, kto ich używa. Dlatego wzywa do większej odpowiedzialności za stosowanie algorytmów, większej ostrożności i krytycyzmu.
Inaczej mogą to oceniać przyszłe pokolenia żyjące w innym środowisku i w innych warunkach na gruncie innego systemu wartości, innych poglądów i doświadczeń życiowych.
Przypisy:
[1] Koncepcja nadczłowieka została nadużyta i zdeformowana przez ideologię nazistowską, która próbowała go wykorzystać do uzasadnienia nacjonalizmu, rasizmu i eugeniki, czemu stanowczo sprzeciwiał się Nietzsche.
[2] Horatius, Ad Melpomenen (III, 30): Exegi mnumentum aere perennius,/regalique situ piramid altius/ Quod non imber edax, non aquilo impotent/ Possit diruere aut innumerabilis/Annorum series et fuga temporum. /Non omnis moriar.
[3] Jason W. Moore przedstawił swoją koncepcję kapitałocenu w kilku publikacjach. Przede wszystkim w książce „Capitalism in the Web of Life: Ecology and the Accumulation of Capital” (2015). Rozwija tam swoje tezy na temat kapitałocenu. Przedstawia krytyczną analizę kapitalizmu i jego wpływu na środowisko. Twierdzi, że kapitalizm jest główną siłą napędową degradacji ekologicznej. Wskazuje bezpośrednio na system kapitalistyczny jako główną siłę napędową obecnych zmian ekologicznych. Podkreśla rolę specyficznych struktur władzy i ekonomii, w szczególności oligarchów, które przyczyniają się do degradacji środowiska, eksploatacji zasobów i nierówności społecznych
[4] Mark W. Bell (Indiana University), dokonawszy syntezy kilku reprezentatywnych definicji cząstkowych, zaproponował taką definicję: „Świat wirtualny to synchroniczna, trwała sieć ludzi przedstawianych za pomocą awatarów, funkcjonująca dzięki systemowi komputerów połączonych ze sobą”.
[5] O ile w końcu XX wieku ogólna ilość informacji produkowanych rocznie w świecie wynosiła 250 MB, a w 2006 r. 150 GB, to obecnie szacuje się ją grubo ponad 1 EB. A więc, w ciągu ćwierć wieku wzrosła bilionkrotnie.
[6] Termin Internet Rzeczy odnosi się do połączenia różnych urządzeń i obiektów codziennego użytku z internetem, co umożliwia im komunikowanie się ze sobą oraz wymianę danych. Głównym celem jest stworzenie inteligentnych, zautomatyzowanych systemów, które mogą działać samodzielnie lub współpracować z innymi systemami, aby ułatwić życie, zwiększyć efektywność i poprawić jakość usług.
[7] Cyt. za Marta Cywińska, Pomarańczowa rewolucja, 2023
[8] Tylko w 2015 r. pojawiło się tyle danych, ile w całej historii ludzkości do 2014 r. co minutę wysyła się setki tysięcy zapytań do Google’a i tyle samo zamieszcza się postów na facebookach. One zdradzają nasze myśli i uczucia. Szacuje się, że w ciągu dziesięciu lat będzie w ramach „Internetu przedmiotów” około 150 mld usieciowionych czujników pomiarowych, tj. dwadzieścia razy więcej niż liczy dzisiejsza populacja świata. Potem co 12 godzin będzie podwajać się liczba danych. Już dzisiaj wiele organizacji usiłuje te Big Data zamienić na Big Money.
[9] Shoshana Zuboff (profesor w Harvard Business School), Luciano Floridi (profesor filozofii i etyki informacji na Uniwersytecie Oksfordzkim), Cathy O’Neil (autorka książki „Weapons of Math Destruction”, która krytykuje algorytmy za ich nieprzejrzystość i potencjalną dyskryminację), Virginia Dignum (profesor na Uniwersytecie Umeå w Szwecji), Antoinette Rouvroy (belgijska prawniczka i filozofka), Ruha Benjamin (profesor socjologii na Princeton University, autorka książki „Race After Technology”), Philip Alston (specjalny sprawozdawca ONZ ds. skrajnego ubóstwa i praw człowieka), Thomas Metzinger (filozof i kognitywista, profesor na Uniwersytecie w Moguncji), Joanna Bryson (profesor etyki i technologii na Hertie School w Berlinie).
[10] Nikishin A., Cifrovoje rabstvo v cifrovoj civilizacii (18.10.2017).
[11] Implant płatniczy pozwala na dokonywanie płatności zbliżeniowych za pomocą wszczepionego pod skórę mikrochipa. Są to małe urządzenia, zwykle wielkości ziarenka ryżu, które można wszczepić pod skórę, najczęściej na dłoni. Implanty te działają na podobnej zasadzie co karty zbliżeniowe czy telefony z funkcją NFC, umożliwiając płatności w punktach obsługujących płatności zbliżeniowe.
[12] Nanoboty są ekstremalnie małymi robotami rzędu od 1 do 100 nm. Naukowcy stworzyli je z cząsteczek DNA, które mogą wykonywać proste zadania, takie jak dostarczanie leków do określonych komórek. Mikroroboty są nieco większe od nanobotów. Zostały opracowane do zastosowań takich jak mikrochirurgia i terapia ukierunkowana. Potencjał nanobotów jest ogromny i obiecujący zrewolucjonizowanie dziedzin od medycyny po ekologię. Zanim jednak ich powszechne wdrożenie stanie się rzeczywistością, należy stawić czoła poważnym wyzwaniom naukowym, technicznym i etycznym.
[13] McCarthy, J. (2004). What is Artificial Intelligence? Stanford University.
[14] Organella nie jest żywym organizmem. Jest strukturą wewnątrzkomórkową, która pełni specyficzne funkcje w komórce organizmu eukariotycznego konieczne dla prawidłowego funkcjonowania komórki. Sama w sobie nie jest niezależnym żywym organizmem.
[15] W 2023 r. raport Oxfam wskazywał, że 1% najbogatszych ludzi zgromadziło około 45-50% globalnego bogactwa.
[16] Cyfrowa waluta banku centralnego to forma pieniądza, która istnieje tylko w formie elektronicznej, a nie fizycznej, takiej jak tradycyjne banknoty i monety. Pieniądz cyfrowy banku centralnego (CBDC) to cyfrowa wersja waluty narodowej, np. dolara, euro, złotówki czy juana.
[17] Szymon Machniewski, CBDC – Pieniądz cyfrowy banku centralnego – co to takiego?, Money.pl, 29.08.2023
[18] Przypomina ono znane zawołanie hitlerowców, które zwabiło masy Niemców: „Ein Volk, ein Reich, ein Fhrer” (Jeden naród, jedna rzesza jeden wódz”).
[19] Cathy O’Neil, Weapons of Math Destruction, Publisher: Crown, New York 2016