fbpx

Sztuczna inteligencja – zasady z Asilomar

Konferencja w Asilomar 2017
(od lewej) Elon Musk, Stuart Russell, Bart Selman, Ray Kurzweil, David Chalmers, Nick Bostrom, Demis Hassabis, Sam Harris, Jaan Tallinn

Future of Life Institute zorganizował w 2017 roku międzynarodową konferencję badaczy sztucznej inteligencji w Asilomar w Kalifornii. Podczas wydarzenia ustalono zasady rozwoju AI, którymi powinni kierować się jej twórcy.

Tekst deklaracji jest dostępny na stronie ASILOMAR AI PRINCIPLES. Zapis dyskusji panelowej z konferencji można obejrzeć w serwisie YouTube.

Do 6 lipca 2021 roku podpisało się pod zasadami 1797 badaczy sztucznej inteligencji i robotyki oraz 3923 innych osób m.in. Stephen Hawking, Elon Musk, Ray Kurzweil, Yann LeCun (szef AI w Facebooku). Co znamienne, na liście sygnatariuszy nie figuruje Bill Joy, autor tekstu „Dlaczego przyszłość nas nie potrzebuje?”.

Zasady rozwoju sztucznej inteligencji z Asilomar

Poniższe Zasady zostały opracowane w trakcie konferencji w Asilomar.

Sztuczna inteligencja dostarczyła nam wielu użytecznych narzędzi, z których na co dzień korzystają ludzie na całym świecie. Jej ciągły rozwój w oparciu o poniższe zasady stworzy niezwykłe możliwości rozwoju ludzkości w nadchodzących dziesięcioleciach i stuleciach.

Aspekty badań:

  1. Cel badań: Celem badań nad sztuczną inteligencją jest stworzenie pożytecznego narzędzia o ukierunkowanym działaniu.
  2. Finansowanie badań: Inwestycje w sztuczną inteligencję powinny iść w parze z finansowaniem badań nad zapewnieniem korzystnego zastosowania tego narzędzia. Badania w dziedzinach takich jak informatyka, ekonomia, prawo czy etyka powinny spróbować odpowiedzieć na drażliwe pytania, takie jak:
  • Jak możemy sprawić, żeby przyszłe systemy sztucznej inteligencji były odporne na ataki ze strony hakerów i awarie?
  • Jak możemy rozwijać nasz dobrobyt poprzez automatyzację, zachowując ludzkie zasoby i cele?
  • Jak możemy udoskonalić nasze obecne systemy prawne, aby były bardziej sprawiedliwe i skuteczne, przy jednoczesnej minimalizacji ryzyka związanego z rozwojem sztucznej inteligencji?
  • Z jakim zestawem wartości powinna być zgodna sztuczna inteligencja oraz jaki powinna mieć status prawny i etyczny?
  1. Relacje między nauką a polityką: Powinna istnieć konstruktywna wymiana zdań między badaczami nad sztuczną inteligencją a politykami odpowiedzialnymi za zarządzanie państwem.
  2. Kultura badań: Należy wspierać kulturę współpracy, zaufania i przejrzystości wśród badaczy i twórców sztucznej inteligencji.
  3. Unikanie „wyścigu zbrojeń” – Badacze rozwijający systemy sztucznej inteligencji powinni współpracować, aby uniknąć możliwych nadużyć (np. łamania standardów bezpieczeństwa).

Etyka i wartości:

  1. Bezpieczeństwo: Systemy sztucznej inteligencji powinny być bezpieczne przez cały okres ich użytkowania i możliwie weryfikowalne w czasie swojej pracy.
  2. Przejrzystość błędu: Jeśli system ulegnie awarii, powinniśmy mieć możliwość sprawdzenia, co zawiodło.
  3. Odpowiedzialność sądowa: Jakiekolwiek zaangażowanie autonomicznego systemu w podejmowanie decyzji prawnych powinno zawierać klarowne wyjaśnienie, które może być skontrolowane przez kompetentny organ ludzki.
  4. Odpowiedzialność: Projektanci i konstruktorzy zaawansowanych systemów sztucznej inteligencji są interesariuszami w zakresie moralnych implikacji ich stosowania. W kwestiach możliwych konsekwencji ich prawidłowego lub błędnego użytkowania to oni ponoszą odpowiedzialność.
  5. Ujednolicenie wartości:  Wysoce autonomiczne systemy sztucznej inteligencji powinny być projektowane w taki sposób, aby ich cele i zachowania były zgodne z wartościami ludzkimi przez cały okres ich działania.
  6. Wartości ludzkie: Systemy sztucznej inteligencji powinny być projektowane i obsługiwane w sposób zgodny z ideałami godności ludzkiej, praw, wolności i różnorodności kulturowej.
  7. Prywatność: Ludzie powinni mieć prawo dostępu do generowanych przez siebie danych, zarządzania nimi i kontrolowania ich, biorąc pod uwagę możliwości systemów sztucznej inteligencji w zakresie analizowania i wykorzystywania tych danych.
  1. Wolność i prywatność: Zastosowanie systemów sztucznej inteligencji do danych osobowych nie może w sposób nieuzasadniony ograniczać ludzkiej wolności.
  2. Wspólna korzyść: Systemy sztucznej inteligencji powinny przynosić korzyści jak największej liczbie osób.
  3. Wspólny dobrobyt: Możliwości generowane przez sztuczną inteligencję powinny być dostępne dla możliwie największej liczby osób, tak aby zwiększać dobrobyt całej ludzkości.
  4. Kontrola: Ludzie powinni móc decydować, czy i w jaki sposób chcą wykorzystywać możliwości sztucznej inteligencji do osiągania wyznaczonych celów.
  5. Działanie niewywrotowe: Władza wynikająca z kontroli nad wysoce zaawansowanymi systemami sztucznej inteligencji powinna respektować i ulepszać, a nie podważać procesy społeczne i obywatelskie, od których zależy zdrowie społeczeństwa.
  6. Zastosowania militarne: Należy unikać wyścigu zbrojeń w zakresie rozwoju śmiercionośnej broni autonomicznej.

Aspekty długookresowe:

  1. Możliwości rozwoju: Ponieważ nie istnieje w tej sprawie konsensus, powinniśmy unikać przyjmowania mocnych założeń dotyczących granic rozwoju systemów sztucznej inteligencji.
  2. Znaczenie: Zaawansowane systemy sztucznej inteligencji mogą przyczynić się do głębokiej zmiany w historii życia na Ziemi, dlatego powinny być projektowane i zarządzane z odpowiednią troską i przy użyciu właściwych środków.
  3. Ryzyko: Ryzyko stwarzane przez systemy sztucznej inteligencji musi być przedmiotem planowania i działań ograniczających, proporcjonalnych do spodziewanego wpływu.
  4. Rekurencyjne samodoskonalenie: Systemy sztucznej inteligencji zaprogramowane w celu rekurencyjnego samodoskonalenia lub samoreplikacji w sposób, który mógłby prowadzić do szybkiego wzrostu jakości lub ilości, muszą podlegać ścisłym środkom bezpieczeństwa i kontroli.
  5. Dobro wspólne: Superinteligencja powinna być rozwijana wyłącznie w służbie szeroko podzielanych ideałów etycznych i dla dobra całej ludzkości, a nie jednego państwa czy organizacji.

Dowiedz się, jak powstawały Zasady oraz dołącz do dyskusji na ich temat). Pełna lista sygnatariuszy znajduje się tutaj.

Sprawdź inne artykuły z tego wydania tygodnika:

Nr 79 / (27) 2021

Przejdź do archiwum tekstów na temat:

# Nowe technologie # Świat

Być może zainteresują Cię również:

Facebook i inne korporacje cenzurują treści! Zapisz się na Tygodnik Instytutu Spraw Obywatelskich. W każdej chwili masz prawo do wypisania się. Patrz, czytaj, działaj bez cenzury.

Administratorem danych osobowych jest Fundacja Instytut Spraw Obywatelskich z siedzibą w Łodzi, przy ul. Pomorskiej 40. Dane będą przetwarzane w celu informowania o działaniach Instytutu. Pełna informacja dotycząca ochrony danych osobowych.