Stop Killer Robots. Autonomiczne systemy broni – nowe narzędzie pola walki XXI wieku?

Stop Killer Robots

W świecie, w którym technologia ewoluuje szybciej niż nasze zdolności do zrozumienia jej konsekwencji, autonomiczne systemy broni (AWS – autonomous weapons systems) stają się tematem gorących dyskusji. Niestety Polski to nie dotyczy. Instytut Spraw Obywatelskich działa w ramach globalnej koalicji „Stop Killer Robots” wyrażając zaniepokojenie rozwojem tych technologii. Czyżbyśmy byli świadkami narodzin nowej ery w prowadzeniu wojen, w których maszyny decydują o życiu i śmierci?

Od momentu rozpoczęcia w 2013 roku działań Koalicji, dyskusja publiczna na świecie dotycząca autonomicznych systemów broni zyskała na znaczeniu. Rozważania koncentrowały się głównie wokół zagadnień etycznych i prawnych związanych z przekazywaniem pewnych zadań sztucznej inteligencji oraz z odpowiedzialnością za te działania.

Według „Stop Killer Robots” autonomiczne systemy broni są uważane za bardziej niebezpieczne dla ludzkości niż broń jądrowa, co skłania do postulatów zakazania ich rozwijania, produkcji i użycia.

Niepokój wyrażany przez koalicję koncentruje się na potencjalnym naruszeniu prawa humanitarnego.

Część krajów przyjęło już swoje wewnętrzne wytyczne dotyczące AWS m.in. Wielka Brytania i Stany Zjednoczone. Są to ogólne zalecenia, gdzie podane są przyjęte definicje, zagrożenia i wyzwania. Podejście poszczególnych państw do autonomicznych systemów broni różni się i dlatego tak ważne jest wypracowanie wspólnych ustaleń na arenie międzynarodowej. Celem Koalicji jest zawarcie przez Organizację Narodów Zjednoczonych traktatu prawnego regulującego działanie AWS, a w szczególności zakazującego używania autonomicznych systemów śmiercionośnej broni – tzw. LAWS (lethal autonomous weapons systems). 

Wyścig zbrojeń w zakresie autonomicznych systemów broni jest nie tylko palącym problemem naszych czasów, ale także alarmującym sygnałem do społeczności międzynarodowej.

Rozwój technologii, umożliwiający maszynom wybór celów i użycie siły bez ludzkiej interwencji, rodzi istotne pytania etyczne i prawne.

W książce „Sztuczna inteligencja na wojnie. Perspektywa Międzynarodowego Prawa Humanitarnego Konfliktów Zbrojnych” dr Kaja Kowalczewska podaje przykłady takich systemów jak amerykański Patriot czy rosyjski Antey S-300VM. Dowodzą one, że nie jest to już tylko domena science fiction, lecz rzeczywistość, z którą musimy się zmierzyć.

Kwestia balansu między postępem technologicznym a globalną stabilnością i bezpieczeństwem jest złożona.

Inwestycje w nowe technologie wojenne mogą eskalować napięcia międzynarodowe i odciągać zasoby od poszukiwania rozwiązań pokojowych.

To z kolei stawia pod znakiem zapytania przyszłość międzynarodowych relacji i równowagi sił.

Ważne jest, aby prowadzić otwartą i informacyjną dyskusję na temat obecnego stanu prawnego dotyczącego AWS i LAWS. Od stycznia do marca 2024, będziemy regularnie informować, tłumaczyć i analizować te kwestie w naszych mediach społecznościowych.

grafika z napisem Vote Against the Machine - Stop Killer Robots
grafika Stop Killer Robots

Zachęcamy do śledzenia tych materiałów i aktywnego uczestniczenia w dyskusji. Tylko poprzez szerokie zrozumienie i zaangażowanie społeczne możemy wpłynąć na kształtowanie przyszłości, w której technologia służy dobru wspólnemu, a nie eskalacji konfliktów.

Bądźcie z nami, aby dowiedzieć się więcej i wziąć udział w tej ważnej debacie.

Sprawdź, czym zajmuje się kampania „Stop Killer Robots”.

Sprawdź inne artykuły z tego wydania tygodnika:

Nr 212 / (4) 2024

Przejdź do archiwum tekstów na temat:

# Nowe technologie

Być może zainteresują Cię również:

Budynek Auschwitz i logo IBM

IBM, the Holocaust and technology

We talk with Edwin Black about IBM’s business with the Nazis, the company’s profit from genocide and the use of technology…