Sztuczna inteligencja – zasady z Asilomar

Konferencja w Asilomar 2017
(od lewej) Elon Musk, Stuart Russell, Bart Selman, Ray Kurzweil, David Chalmers, Nick Bostrom, Demis Hassabis, Sam Harris, Jaan Tallinn

Future of Life Institute zorganizował w 2017 roku międzynarodową konferencję badaczy sztucznej inteligencji w Asilomar w Kalifornii. Podczas wydarzenia ustalono zasady rozwoju AI, którymi powinni kierować się jej twórcy.

Tekst deklaracji jest dostępny na stronie ASILOMAR AI PRINCIPLES. Zapis dyskusji panelowej z konferencji można obejrzeć w serwisie YouTube.

Do 6 lipca 2021 roku podpisało się pod zasadami 1797 badaczy sztucznej inteligencji i robotyki oraz 3923 innych osób m.in. Stephen Hawking, Elon Musk, Ray Kurzweil, Yann LeCun (szef AI w Facebooku). Co znamienne, na liście sygnatariuszy nie figuruje Bill Joy, autor tekstu „Dlaczego przyszłość nas nie potrzebuje?”.

Zasady rozwoju sztucznej inteligencji z Asilomar

Poniższe Zasady zostały opracowane w trakcie konferencji w Asilomar.

Sztuczna inteligencja dostarczyła nam wielu użytecznych narzędzi, z których na co dzień korzystają ludzie na całym świecie. Jej ciągły rozwój w oparciu o poniższe zasady stworzy niezwykłe możliwości rozwoju ludzkości w nadchodzących dziesięcioleciach i stuleciach.

Aspekty badań:

  1. Cel badań: Celem badań nad sztuczną inteligencją jest stworzenie pożytecznego narzędzia o ukierunkowanym działaniu.
  2. Finansowanie badań: Inwestycje w sztuczną inteligencję powinny iść w parze z finansowaniem badań nad zapewnieniem korzystnego zastosowania tego narzędzia. Badania w dziedzinach takich jak informatyka, ekonomia, prawo czy etyka powinny spróbować odpowiedzieć na drażliwe pytania, takie jak:
  • Jak możemy sprawić, żeby przyszłe systemy sztucznej inteligencji były odporne na ataki ze strony hakerów i awarie?
  • Jak możemy rozwijać nasz dobrobyt poprzez automatyzację, zachowując ludzkie zasoby i cele?
  • Jak możemy udoskonalić nasze obecne systemy prawne, aby były bardziej sprawiedliwe i skuteczne, przy jednoczesnej minimalizacji ryzyka związanego z rozwojem sztucznej inteligencji?
  • Z jakim zestawem wartości powinna być zgodna sztuczna inteligencja oraz jaki powinna mieć status prawny i etyczny?
  1. Relacje między nauką a polityką: Powinna istnieć konstruktywna wymiana zdań między badaczami nad sztuczną inteligencją a politykami odpowiedzialnymi za zarządzanie państwem.
  2. Kultura badań: Należy wspierać kulturę współpracy, zaufania i przejrzystości wśród badaczy i twórców sztucznej inteligencji.
  3. Unikanie „wyścigu zbrojeń” – Badacze rozwijający systemy sztucznej inteligencji powinni współpracować, aby uniknąć możliwych nadużyć (np. łamania standardów bezpieczeństwa).

Działamy bez cenzury. Nie puszczamy reklam, nie pobieramy opłat za teksty. Potrzebujemy Twojego wsparcia. Dorzuć się do mediów obywatelskich.

Etyka i wartości:

  1. Bezpieczeństwo: Systemy sztucznej inteligencji powinny być bezpieczne przez cały okres ich użytkowania i możliwie weryfikowalne w czasie swojej pracy.
  2. Przejrzystość błędu: Jeśli system ulegnie awarii, powinniśmy mieć możliwość sprawdzenia, co zawiodło.
  3. Odpowiedzialność sądowa: Jakiekolwiek zaangażowanie autonomicznego systemu w podejmowanie decyzji prawnych powinno zawierać klarowne wyjaśnienie, które może być skontrolowane przez kompetentny organ ludzki.
  4. Odpowiedzialność: Projektanci i konstruktorzy zaawansowanych systemów sztucznej inteligencji są interesariuszami w zakresie moralnych implikacji ich stosowania. W kwestiach możliwych konsekwencji ich prawidłowego lub błędnego użytkowania to oni ponoszą odpowiedzialność.
  5. Ujednolicenie wartości:  Wysoce autonomiczne systemy sztucznej inteligencji powinny być projektowane w taki sposób, aby ich cele i zachowania były zgodne z wartościami ludzkimi przez cały okres ich działania.
  6. Wartości ludzkie: Systemy sztucznej inteligencji powinny być projektowane i obsługiwane w sposób zgodny z ideałami godności ludzkiej, praw, wolności i różnorodności kulturowej.
  7. Prywatność: Ludzie powinni mieć prawo dostępu do generowanych przez siebie danych, zarządzania nimi i kontrolowania ich, biorąc pod uwagę możliwości systemów sztucznej inteligencji w zakresie analizowania i wykorzystywania tych danych.
  1. Wolność i prywatność: Zastosowanie systemów sztucznej inteligencji do danych osobowych nie może w sposób nieuzasadniony ograniczać ludzkiej wolności.
  2. Wspólna korzyść: Systemy sztucznej inteligencji powinny przynosić korzyści jak największej liczbie osób.
  3. Wspólny dobrobyt: Możliwości generowane przez sztuczną inteligencję powinny być dostępne dla możliwie największej liczby osób, tak aby zwiększać dobrobyt całej ludzkości.
  4. Kontrola: Ludzie powinni móc decydować, czy i w jaki sposób chcą wykorzystywać możliwości sztucznej inteligencji do osiągania wyznaczonych celów.
  5. Działanie niewywrotowe: Władza wynikająca z kontroli nad wysoce zaawansowanymi systemami sztucznej inteligencji powinna respektować i ulepszać, a nie podważać procesy społeczne i obywatelskie, od których zależy zdrowie społeczeństwa.
  6. Zastosowania militarne: Należy unikać wyścigu zbrojeń w zakresie rozwoju śmiercionośnej broni autonomicznej.

Aspekty długookresowe:

  1. Możliwości rozwoju: Ponieważ nie istnieje w tej sprawie konsensus, powinniśmy unikać przyjmowania mocnych założeń dotyczących granic rozwoju systemów sztucznej inteligencji.
  2. Znaczenie: Zaawansowane systemy sztucznej inteligencji mogą przyczynić się do głębokiej zmiany w historii życia na Ziemi, dlatego powinny być projektowane i zarządzane z odpowiednią troską i przy użyciu właściwych środków.
  3. Ryzyko: Ryzyko stwarzane przez systemy sztucznej inteligencji musi być przedmiotem planowania i działań ograniczających, proporcjonalnych do spodziewanego wpływu.
  4. Rekurencyjne samodoskonalenie: Systemy sztucznej inteligencji zaprogramowane w celu rekurencyjnego samodoskonalenia lub samoreplikacji w sposób, który mógłby prowadzić do szybkiego wzrostu jakości lub ilości, muszą podlegać ścisłym środkom bezpieczeństwa i kontroli.
  5. Dobro wspólne: Superinteligencja powinna być rozwijana wyłącznie w służbie szeroko podzielanych ideałów etycznych i dla dobra całej ludzkości, a nie jednego państwa czy organizacji.

Dowiedz się, jak powstawały Zasady oraz dołącz do dyskusji na ich temat). Pełna lista sygnatariuszy znajduje się tutaj.

Sprawdź inne artykuły z tego wydania tygodnika:

Nr 79 / (27) 2021

Przejdź do archiwum tekstów na temat:

# Nowe technologie # Świat

Być może zainteresują Cię również: