Pomóż zatrzymać autonomiczne systemy broni!

Stoimy przed potencjalnymi zagrożeniami i wyzwaniami związanymi z rozwojem i zastosowaniem autonomicznych systemów śmiercionośnej broni (LAWS). Globalna społeczność musi zająć stanowisko, które uwzględniać będzie prawa człowieka, etykę i bezpieczeństwo. Zwracamy się z apelem o zatrzymanie rozwoju tych technologii, ponieważ mogą prowadzić do nieodwracalnych negatywnych skutków w sytuacjach konfliktów zbrojnych oraz w otoczeniu cywilnym.
Dlaczego interwencja jest potrzebna?
- Brak znaczącej kontroli ludzkiej: autonomiczne systemy broni działają na podstawie algorytmów, gdzie czynnik ludzki jest ograniczony. Dowódcy często mają tylko kilka sekund na zatwierdzenie operacji, co może prowadzić do błędów. Brak znaczącej kontroli ludzkiej nad tymi systemami stwarza poważne ryzyko naruszeń prawa międzynarodowego i etyki.
- Ryzyko cyfrowej dehumanizacji: LAWS, podejmując decyzje na podstawie zredukowanych danych, nie są w stanie w pełni ocenić kontekstu humanitarnego czy etycznego. To prowadzi do cyfrowej dehumanizacji – procesu, w którym ludzie są traktowani jak dane, a nie jak istoty ludzkie z własnymi prawami i godnością.
- Potencjalne naruszenia praw człowieka: użycie LAWS w konfliktach zbrojnych może łamać fundamentalne prawa człowieka, w tym prawo do życia, zakaz tortur oraz zasadę niedyskryminacji. Błędy w identyfikacji celów mogą skutkować przypadkowym atakowaniem niewinnych osób, co stanowi rażące naruszenie prawa międzynarodowego. Automatyzacja procesu decyzyjnego i brak ludzkiego elementu w podejmowaniu decyzji może prowadzić do sytuacji, gdzie użycie siły jest nadmiernie brutalne lub nieludzkie, nie uwzględniające kontekstu sytuacji. AWS mogą nie rozpoznać kontekstu społeczno-kulturowego, co może prowadzić do dyskryminacyjnych działań. Jeśli system szkolony jest na danych niereprezentatywnych, jego działania mogą faworyzować lub dyskryminować pewne grupy ludności. Sposób, w jakim system był trenowany, nie będzie jawny, bo są to dane wojskowe. Nigdy nie będziemy mieć pewności, czy system prawidłowo rozpoznaje cel i nie jest skażony „bias” (tendencjami stronniczymi, uprzedzeniami).
Co proponujemy?
- Zakaz użycia LAWS: wzywamy do globalnego zakazu stosowania w konfliktach zbrojnych autonomicznych systemów uzbrojenia, szczególnie tych, które mogą samodzielnie podejmować decyzje o życiu i śmierci.
- Stworzenie międzynarodowego traktatu: trwają prace nad międzynarodowym traktatem regulującym rozwój, produkcję, transfer i użycie autonomicznych systemów broni, z naciskiem na zakaz systemów, które nie zapewniają znaczącej kontroli ludzkiej.
- Wzmocnienie procesów weryfikacji i nadzoru: potrzebne są silne mechanizmy nadzoru międzynarodowego, które będą monitorować rozwój i implementację AWS (autonomicznych systemów broni), aby zapobiec ewentualnym nadużyciom i błędom systemowym.
Jak można wesprzeć tę inicjatywę?
Możesz złożyć wniosek do raportu Sekretarza Generalnego ONZ: państwa członkowskie, organizacje międzynarodowe i organizacje pozarządowe powinny złożyć wnioski, które będą wzmocnić argumentację za potrzebą regulacji AWS w nadchodzącym raporcie Sekretarza Generalnego ONZ.
- Zgłoszenia można przesyłać za pośrednictwem poczty elektronicznej do pana René Holbacha (holbach@un.org) z kopią do pani Giulii Marrone (marrone@un.org).
Termin upływa 25 maja 2024 roku.
- Młodzieżowa Sieć kampanii Stop Killer Robots przygotowała zgłoszenia do raportu Sekretarza Generalnego ONZ (UNSG) w sprawie AWS, aby uwzględnić w nim opinie młodych ludzi z całego świata.
Tutaj możesz poprzeć raport jako osoba fizyczna lub wraz ze swoją organizacją: https://forms.gle/phpWAv3CzmRtQW8NA.
Termin upływa 17 maja 2024 roku.
W świetle zbliżającego się terminu składania wniosków wszystkie zainteresowane strony, w tym państwa, organizacje pozarządowe, eksperci i osoby fizyczne, są zachęcane do udziału w kształtowaniu przyszłości AWS. Każde państwo, które złoży swoje stanowisko, przyczyni się do budowania bardziej inkluzywnego i bezpiecznego świata, w którym technologia będzie służyć ludzkości zamiast stawać się źródłem nowych zagrożeń.