Sztuczna inteligencja – zasady z Asilomar
Future of Life Institute zorganizował w 2017 roku międzynarodową konferencję badaczy sztucznej inteligencji w Asilomar w Kalifornii. Podczas wydarzenia ustalono zasady rozwoju AI, którymi powinni kierować się jej twórcy.
Tekst deklaracji jest dostępny na stronie ASILOMAR AI PRINCIPLES. Zapis dyskusji panelowej z konferencji można obejrzeć w serwisie YouTube.
Do 6 lipca 2021 roku podpisało się pod zasadami 1797 badaczy sztucznej inteligencji i robotyki oraz 3923 innych osób m.in. Stephen Hawking, Elon Musk, Ray Kurzweil, Yann LeCun (szef AI w Facebooku). Co znamienne, na liście sygnatariuszy nie figuruje Bill Joy, autor tekstu „Dlaczego przyszłość nas nie potrzebuje?”.
Zasady rozwoju sztucznej inteligencji z Asilomar
Poniższe Zasady zostały opracowane w trakcie konferencji w Asilomar.
Sztuczna inteligencja dostarczyła nam wielu użytecznych narzędzi, z których na co dzień korzystają ludzie na całym świecie. Jej ciągły rozwój w oparciu o poniższe zasady stworzy niezwykłe możliwości rozwoju ludzkości w nadchodzących dziesięcioleciach i stuleciach.
Aspekty badań:
- Cel badań: Celem badań nad sztuczną inteligencją jest stworzenie pożytecznego narzędzia o ukierunkowanym działaniu.
- Finansowanie badań: Inwestycje w sztuczną inteligencję powinny iść w parze z finansowaniem badań nad zapewnieniem korzystnego zastosowania tego narzędzia. Badania w dziedzinach takich jak informatyka, ekonomia, prawo czy etyka powinny spróbować odpowiedzieć na drażliwe pytania, takie jak:
- Jak możemy sprawić, żeby przyszłe systemy sztucznej inteligencji były odporne na ataki ze strony hakerów i awarie?
- Jak możemy rozwijać nasz dobrobyt poprzez automatyzację, zachowując ludzkie zasoby i cele?
- Jak możemy udoskonalić nasze obecne systemy prawne, aby były bardziej sprawiedliwe i skuteczne, przy jednoczesnej minimalizacji ryzyka związanego z rozwojem sztucznej inteligencji?
- Z jakim zestawem wartości powinna być zgodna sztuczna inteligencja oraz jaki powinna mieć status prawny i etyczny?
- Relacje między nauką a polityką: Powinna istnieć konstruktywna wymiana zdań między badaczami nad sztuczną inteligencją a politykami odpowiedzialnymi za zarządzanie państwem.
- Kultura badań: Należy wspierać kulturę współpracy, zaufania i przejrzystości wśród badaczy i twórców sztucznej inteligencji.
- Unikanie „wyścigu zbrojeń” – Badacze rozwijający systemy sztucznej inteligencji powinni współpracować, aby uniknąć możliwych nadużyć (np. łamania standardów bezpieczeństwa).
Etyka i wartości:
- Bezpieczeństwo: Systemy sztucznej inteligencji powinny być bezpieczne przez cały okres ich użytkowania i możliwie weryfikowalne w czasie swojej pracy.
- Przejrzystość błędu: Jeśli system ulegnie awarii, powinniśmy mieć możliwość sprawdzenia, co zawiodło.
- Odpowiedzialność sądowa: Jakiekolwiek zaangażowanie autonomicznego systemu w podejmowanie decyzji prawnych powinno zawierać klarowne wyjaśnienie, które może być skontrolowane przez kompetentny organ ludzki.
- Odpowiedzialność: Projektanci i konstruktorzy zaawansowanych systemów sztucznej inteligencji są interesariuszami w zakresie moralnych implikacji ich stosowania. W kwestiach możliwych konsekwencji ich prawidłowego lub błędnego użytkowania to oni ponoszą odpowiedzialność.
- Ujednolicenie wartości: Wysoce autonomiczne systemy sztucznej inteligencji powinny być projektowane w taki sposób, aby ich cele i zachowania były zgodne z wartościami ludzkimi przez cały okres ich działania.
- Wartości ludzkie: Systemy sztucznej inteligencji powinny być projektowane i obsługiwane w sposób zgodny z ideałami godności ludzkiej, praw, wolności i różnorodności kulturowej.
- Prywatność: Ludzie powinni mieć prawo dostępu do generowanych przez siebie danych, zarządzania nimi i kontrolowania ich, biorąc pod uwagę możliwości systemów sztucznej inteligencji w zakresie analizowania i wykorzystywania tych danych.
- Wolność i prywatność: Zastosowanie systemów sztucznej inteligencji do danych osobowych nie może w sposób nieuzasadniony ograniczać ludzkiej wolności.
- Wspólna korzyść: Systemy sztucznej inteligencji powinny przynosić korzyści jak największej liczbie osób.
- Wspólny dobrobyt: Możliwości generowane przez sztuczną inteligencję powinny być dostępne dla możliwie największej liczby osób, tak aby zwiększać dobrobyt całej ludzkości.
- Kontrola: Ludzie powinni móc decydować, czy i w jaki sposób chcą wykorzystywać możliwości sztucznej inteligencji do osiągania wyznaczonych celów.
- Działanie niewywrotowe: Władza wynikająca z kontroli nad wysoce zaawansowanymi systemami sztucznej inteligencji powinna respektować i ulepszać, a nie podważać procesy społeczne i obywatelskie, od których zależy zdrowie społeczeństwa.
- Zastosowania militarne: Należy unikać wyścigu zbrojeń w zakresie rozwoju śmiercionośnej broni autonomicznej.
Aspekty długookresowe:
- Możliwości rozwoju: Ponieważ nie istnieje w tej sprawie konsensus, powinniśmy unikać przyjmowania mocnych założeń dotyczących granic rozwoju systemów sztucznej inteligencji.
- Znaczenie: Zaawansowane systemy sztucznej inteligencji mogą przyczynić się do głębokiej zmiany w historii życia na Ziemi, dlatego powinny być projektowane i zarządzane z odpowiednią troską i przy użyciu właściwych środków.
- Ryzyko: Ryzyko stwarzane przez systemy sztucznej inteligencji musi być przedmiotem planowania i działań ograniczających, proporcjonalnych do spodziewanego wpływu.
- Rekurencyjne samodoskonalenie: Systemy sztucznej inteligencji zaprogramowane w celu rekurencyjnego samodoskonalenia lub samoreplikacji w sposób, który mógłby prowadzić do szybkiego wzrostu jakości lub ilości, muszą podlegać ścisłym środkom bezpieczeństwa i kontroli.
- Dobro wspólne: Superinteligencja powinna być rozwijana wyłącznie w służbie szeroko podzielanych ideałów etycznych i dla dobra całej ludzkości, a nie jednego państwa czy organizacji.
Dowiedz się, jak powstawały Zasady oraz dołącz do dyskusji na ich temat). Pełna lista sygnatariuszy znajduje się tutaj.