fbpx
Jesteś społecznikiem? Wykorzystaj prawo. Bezpłatne szkolenie

Analiza

Lekcje z rozwoju sztucznej inteligencji – o raporcie Instytutu Rozwoju Człowieka im. Maxa Plancka

robot
robot fot. Gerd Altmann z Pixabay

Sztuczna inteligencja znacząco wpływa na wiele aspektów naszego życia. Wielokrotnie przekonał się o tym choćby każdy użytkownik smartfonu. To właśnie dzięki niej rekomendacje określonych przedmiotów są lepiej dostosowane do naszych rzeczywistych preferencji, a uciążliwe maile trafiają do spamu. Jej rozwój sprawił, że jest w stanie pokonać nawet najlepsze ludzkie umysły, co udowodniły m.in. prowadzone z nią rozgrywki szachowe.

Ożywiło to dyskusję dotyczącą potencjalnych negatywnych skutków rozwoju sztucznej inteligencji. W ludziach obudził się lęk, że zdominuje ona ludzki umysł w praktycznie każdej dziedzinie. To między innymi dlatego sztuczna inteligencja stała się obiektem zainteresowania wielu naukowców – od matematyków po filozofów. Rezultatem wzmożonego zainteresowania badaniami nad sztuczną inteligencją (SI) są między innymi „Trzy prawa robotyki” spopularyzowane przez amerykańskiego pisarza i profesora biochemii Isaaca Asimova, które reprezentują archetypowe wytyczne strategii powstrzymywania potencjalnych niebezpieczeństw sztucznej inteligencji. Opierają się na założeniach (nie do końca właściwych), zgodnie z którymi programiści będą chcieli i mogli zaprogramować te prawa, a sztuczna inteligencja nie będzie mogła w nie ingerować. Niestety zakres tych praw nie jest częścią analizy problemu kontrolowania superinteligencji.

Dla debaty dotyczącej potencjalnych zagrożeń związanych z rozwojem SI istotny jest fakt, że dąży ona do maksymalizacji własnego przetrwania za pomocą bodźców zewnętrznych, bez konieczności wyposażania maszyn przez ludzkich programistów w określone reprezentacje świata. Superinteligencja jest wieloaspektowa. Jest w stanie mobilizować różnorodne zasoby, aby osiągnąć cele, które są potencjalnie niezrozumiałe dla człowieka.

Istotne w tym kontekście badania Nicka Bostroma, który skupił się na analizie możliwych trajektorii rozwoju superinteligencji. Badacz poświęcił znaczną część swojej monografii problemowi kontroli sztucznej inteligencji. Wymienił dwie klasy mechanizmów rozwiązywania problemu kontroli. Pierwsze podejście polega na ograniczeniu zdolności superinteligencji tak, by nie wyrządzała ona krzywdy ludziom. Drugie to próba zmotywowania superinteligencji do realizacji celów, które są w interesie człowieka. Badacz obszernie omawia słabości tych mechanizmów, wskazując, że superinteligencja, której zadaniem jest realizacja celów korzystnych dla człowieka, może uznać za skuteczniejsze niszczenie życia na Ziemi i tworzenie szybszych, skomputeryzowanych symulacji szczęśliwych myśli.

Podobnie jest w przypadku metody motywacyjnej. Superinteligencja może nie ufać ludziom, że wywiążą się ze swoich zobowiązań. Inne rozwiązanie polegałoby na rezygnacji korzyści oferowanych przez sztuczną inteligencję i odizolowanie jej. Jednak eksperyment Yudkowsky’ego pokazuje, że idea sztucznej inteligencji, która odpowiada jedynie na pytania otwarte, podlega możliwości ataków socjotechnicznych. Potencjalnym rozwiązaniem mającym na celu złagodzenie ataków społecznych jest zapewnienie bezpiecznego środowiska zamkniętego i ograniczenie sztucznej inteligencji tylko do odpowiedzi na pytania binarne („Tak” lub „Nie”).

Jednym z kluczowych wyzwań związanych z mechanizmami powstrzymywania sztucznej inteligencji jest odpowiednie zrównoważenie jej bezpieczeństwa i użyteczności. W skrajnym przypadku najbezpieczniejsza metoda może być związana z jej kompletną bezużytecznością, co stoi w sprzeczności z ideą budowy sztucznej inteligencji.

W analizie zostaje przywołana hipotetyczna sytuacja, w której superinteligencja zostaje umieszczona w odpowiednim środowisku, a żaden człowiek nie może zostać przez nią skrzywdzony. W takiej sytuacji eksperci mogliby zbadać, czy i w jakich okolicznościach może ona zostać wypuszczona. Rosyjski informatyk i specjalista ds. bezpieczeństwa sztucznej inteligencji Roman Yampolsky uważa, że człowiek nie byłby w stanie dokonać takiej oceny i przekonuje, że superinteligencja nigdy nie powinna zostać wypuszczona na zewnątrz. Ponadto naukowcy wskazali, że nie może istnieć żaden pojedynczy algorytm, który pozwalałby SI ocenić, czy dane działanie mogłoby skrzywdzić człowieka. Nie bez znaczenia jest fakt, że sztuczna superinteligencja może być już wokół nas.

Ludzie mogą nawet nie wiedzieć, kiedy nadeszły maszyny superinteligentne, ponieważ rozstrzygnięcie, czy maszyna wykazuje inteligencję, należy do tego samego spojrzenia na problemy, co problem powstrzymywania jej działania. Jest to konsekwencja twierdzenia Rice’a. Zgodnie z tym twierdzeniem pozornie proste problemy są nierozstrzygalne. Rezultatem zredukowanych wersji problemu rozstrzygalności jest weryfikacja formalna, której celem jest stworzenie technik weryfikujących poprawność programów komputerowych i zapewniających, że spełnią one pożądane właściwości. Jednak techniki te są dostępne tylko dla bardzo ograniczonych klas programów i danych wejściowych.

Współcześnie uruchamiamy miliardy programów komputerowych na świecie i korzystamy ze smartfonów bez żadnej formalnej gwarancji ich całkowitego bezpieczeństwa.

Nie mamy możliwości udowodnienia, że ​​uruchamiając aplikację na naszych smartfonach, nie wywołalibyśmy reakcji łańcuchowej prowadzącej do transmisji kodów wystrzelenia rakiet, które rozpoczynają wojnę nuklearną – brzmi to nieprawdopodobnie, ale nie jest wykluczone.

Pomimo ogólnej nierozwiązywalności problemu z przewidywaniem jesteśmy przekonani, ze wszystkich praktycznych względów, że nie znajdujemy się w żadnej z kłopotliwych sytuacji. Zdolność współczesnych komputerów do adaptacji przy użyciu zaawansowanych algorytmów uczenia maszynowego sprawia, że ​​jeszcze trudniej jest nam przyjmować założenia dotyczące ostatecznego zachowania superinteligentnej sztucznej inteligencji.  

Raport: Superintelligence Cannot be Contained:Lessons from Computability Theory (pdf) [dostęp: 06.07.2021]

Sprawdź inne artykuły z tego wydania tygodnika:

Nr 79 / (27) 2021

Przejdź do archiwum tekstów na temat:

# Nowe technologie # Świat

Być może zainteresują Cię również:

Facebook i inne korporacje cenzurują treści! Zapisz się na Tygodnik Instytutu Spraw Obywatelskich. W każdej chwili masz prawo do wypisania się. Patrz, czytaj, działaj bez cenzury.

Administratorem danych osobowych jest Fundacja Instytut Spraw Obywatelskich z siedzibą w Łodzi, przy ul. Pomorskiej 40. Dane będą przetwarzane w celu informowania o działaniach Instytutu. Pełna informacja dotycząca ochrony danych osobowych.