Wstrzymajcie eksperymenty ze sztuczną inteligencją silniejszą niż GPT-4 na 6 miesięcy – list otwarty
Organizacja społeczna Future of Life Institute wystosowała list otwarty do laboratoriów badawczych zajmujących się sztuczną inteligencją, wzywający do natychmiastowego zaprzestania eksperymentów ze sztuczną inteligencją silniejszą niż GPT-4 na co najmniej 6 miesięcy. Pod listem podpisali się m.in. Elon Musk (współzałożyciel OpenAI), Steve Wozniak (współzałożyciel Apple), Max Tegmark (autor książki „Życie 3.0. Człowiek w erze sztucznej inteligencji”), badacze SI i uczenia maszynowego oraz pracownicy DeepMind (firmy zajmującej się AI i należącej do Google).
Treść listu otwartego
Systemy sztucznej inteligencji (SI) wyposażone w inteligencję na poziomie ludzkiej mogą stwarzać istotne zagrożenie dla społeczeństwa i ludzkości. Wykazały to pogłębione badania i zostało to potwierdzone przez wiodące laboratoria zajmujące się SI. Jak stwierdzono w powszechnie akceptowanych zasadach z Asilomar: zaawansowana SI może być źródłem głębokich zmian w historii życia na Ziemi i powinna być projektowana i zarządzana z odpowiednią troską i właściwymi środkami. Niestety taki poziom planowania i zarządzania rozwojem technologii SI pozostaje w sferze marzeń, mimo że w ostatnich miesiącach laboratoria SI uczestniczyły w wymykającym się spod kontroli wyścigu na drodze ku rozwijaniu i wdrażaniu coraz potężniejszych cyfrowych umysłów, których nikt – nawet ich twórcy – nie jest w stanie zrozumieć, przewidywać ich działań ani w pełni kontrolować.
Współczesne systemy SI zaczynają już konkurować z ludźmi w codziennych zadaniach i musimy zadać sobie pytanie: czy powinniśmy pozwolić maszynom zalewać nasze kanały informacyjne propagandą i nieprawdą? Czy powinniśmy zautomatyzować wszystkie profesje, w tym takie, które przynoszą poczucie spełnienia? Czy powinniśmy rozwijać nie-ludzkie umysły, które w przyszłości mogą stać się potężniejsze od nas, a nawet nas zastąpić? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją? Tego typu decyzje nie mogą być podejmowane przez liderów technologicznych, których władza nie pochodzi z demokratycznego wyboru.
Potężne systemy SI powinny być rozwijane dopiero wówczas, gdy zdobędziemy pewność, że przyniosą pozytywne efekty, a związane z nimi ryzyko będzie możliwe do zażegnania.
Ta pewność musi być dobrze uzasadniona i wzrastać wraz ze skalą potencjalnych skutków powodowanych przez dany system SI. W niedawnym oświadczeniu OpenAI dotyczącym silnej SI stwierdza się, że w pewnym momencie może być istotne uzyskanie niezależnej oceny przed rozpoczęciem szkolenia systemów przyszłości, a w przypadku najbardziej zaawansowanych prób uzgodnienie ograniczenia tempa przyrostu mocy obliczeniowej wykorzystywanej do tworzenia nowych modeli. Zgadzamy się. Teraz jest ten moment.
W związku z tym wzywamy wszystkie laboratoria SI do natychmiastowego wstrzymania rozwoju systemów SI silniejszych niż GPT-4 (GPT, czyli Generative Pre-trained Transformer, to technologia opracowana przez firmę OpenAI, która umożliwia rozmowę z maszynami – przyp. red.) na okres przynajmniej 6 miesięcy.
Zawieszenie badań powinno być jawne i możliwe do zweryfikowania oraz obejmować wszystkie kluczowe podmioty. Jeśli takie rozwiązanie nie może zostać uchwalone w trybie pilnym, rządy powinny zareagować i ustanowić moratorium.
Laboratoria SI i niezależni eksperci powinni wykorzystać wstrzymanie badań na wspólne opracowanie i wdrożenie zestawu protokołów bezpieczeństwa dla zaawansowanych projektów SI, rygorystycznie kontrolowanych przez niezależnych ekspertów zewnętrznych. Protokoły te powinny gwarantować ponad wszelką wątpliwość, że systemy, które ich przestrzegają, są bezpieczne. Nie oznacza to całkowitego zawieszenia badań nad SI, a jedynie wycofanie się z niebezpiecznego wyścigu ku coraz bardziej nieprzewidywalnym i cechującym się coraz większymi możliwościami modelom SI.
Badania i rozwój w dziedzinie SI powinny ponownie skupić się na uczynieniu obecnych, potężnych systemów dokładniejszymi, bezpieczniejszymi, bardziej zrozumiałymi, przejrzystymi, niezawodnymi i godnymi zaufania.
Zarazem twórcy SI muszą współpracować z decydentami w celu radykalnego przyspieszenia rozwoju sprawnych systemów zarządzania i nadzoru nad SI. Powinny one uwzględniać przynajmniej:
- nowe, sprawne organy regulacyjne nadzorujące rozwój technologii SI;
- monitorowanie wysoce wydajnych systemów SI i dużych zasobów mocy obliczeniowej;
- nakładanie „znaków wodnych” na obrazy wygenerowane przez systemy SI, umożliwiające odróżnienie prawdziwych od sztucznych oraz śledzenie wycieków i rozprzestrzeniania się modeli SI;
- sprawny ekosystem nadzoru i certyfikacji;
- odpowiedzialność za szkody wyrządzone przez SI;
- przeznaczenie znaczących środków publicznych na badania nad bezpieczeństwem technologii SI;
- dobrze wyposażone instytucje, zdolne do radzenia sobie z dramatycznymi gospodarczymi i politycznymi zawirowaniami (zwłaszcza w obrębie demokracji), które spowoduje SI.
Ludzkość może cieszyć się kwitnącą przyszłością dzięki SI. Po tym, jak udało nam się stworzyć potężne systemy SI, możemy teraz cieszyć się „latem SI”, podczas którego czerpiemy z niej korzyści i projektujemy te systemy dla dobra wspólnego wszystkich obywateli, dając ludzkości szansę na przystosowanie się do zachodzących zmian. Nasze społeczeństwa wstrzymały badania nad innymi technologiami o potencjalnie katastrofalnych skutkach dla ludzkości[*]. W tym przypadku również możemy tak postąpić. Cieszmy się długim „latem SI” zamiast pędzić nieprzygotowani ku upadkowi (nieprzetłumaczalna gra słów: ang. „fall” oznacza zarówno upadek, jak i jesień – przyp. red.).
Przypisy:
(*) Przykłady obejmują klonowanie ludzi, modyfikacje ludzkich linii zarodkowych, badania nad tzw. wzmocnieniem funkcji (eksperymenty, które sprawiają, że już groźne wirusy stają się jeszcze groźniejsze – przyp. red.) i eugenikę.