Stop Killer Robots. Autonomiczne systemy broni – nowe narzędzie pola walki XXI wieku?
W świecie, w którym technologia ewoluuje szybciej niż nasze zdolności do zrozumienia jej konsekwencji, autonomiczne systemy broni (AWS – autonomous weapons systems) stają się tematem gorących dyskusji. Niestety Polski to nie dotyczy. Instytut Spraw Obywatelskich działa w ramach globalnej koalicji „Stop Killer Robots” wyrażając zaniepokojenie rozwojem tych technologii. Czyżbyśmy byli świadkami narodzin nowej ery w prowadzeniu wojen, w których maszyny decydują o życiu i śmierci?
Od momentu rozpoczęcia w 2013 roku działań Koalicji, dyskusja publiczna na świecie dotycząca autonomicznych systemów broni zyskała na znaczeniu. Rozważania koncentrowały się głównie wokół zagadnień etycznych i prawnych związanych z przekazywaniem pewnych zadań sztucznej inteligencji oraz z odpowiedzialnością za te działania.
Według „Stop Killer Robots” autonomiczne systemy broni są uważane za bardziej niebezpieczne dla ludzkości niż broń jądrowa, co skłania do postulatów zakazania ich rozwijania, produkcji i użycia.
Niepokój wyrażany przez koalicję koncentruje się na potencjalnym naruszeniu prawa humanitarnego.
Część krajów przyjęło już swoje wewnętrzne wytyczne dotyczące AWS m.in. Wielka Brytania i Stany Zjednoczone. Są to ogólne zalecenia, gdzie podane są przyjęte definicje, zagrożenia i wyzwania. Podejście poszczególnych państw do autonomicznych systemów broni różni się i dlatego tak ważne jest wypracowanie wspólnych ustaleń na arenie międzynarodowej. Celem Koalicji jest zawarcie przez Organizację Narodów Zjednoczonych traktatu prawnego regulującego działanie AWS, a w szczególności zakazującego używania autonomicznych systemów śmiercionośnej broni – tzw. LAWS (lethal autonomous weapons systems).
Wyścig zbrojeń w zakresie autonomicznych systemów broni jest nie tylko palącym problemem naszych czasów, ale także alarmującym sygnałem do społeczności międzynarodowej.
Rozwój technologii, umożliwiający maszynom wybór celów i użycie siły bez ludzkiej interwencji, rodzi istotne pytania etyczne i prawne.
W książce „Sztuczna inteligencja na wojnie. Perspektywa Międzynarodowego Prawa Humanitarnego Konfliktów Zbrojnych” dr Kaja Kowalczewska podaje przykłady takich systemów jak amerykański Patriot czy rosyjski Antey S-300VM. Dowodzą one, że nie jest to już tylko domena science fiction, lecz rzeczywistość, z którą musimy się zmierzyć.
Kwestia balansu między postępem technologicznym a globalną stabilnością i bezpieczeństwem jest złożona.
Inwestycje w nowe technologie wojenne mogą eskalować napięcia międzynarodowe i odciągać zasoby od poszukiwania rozwiązań pokojowych.
To z kolei stawia pod znakiem zapytania przyszłość międzynarodowych relacji i równowagi sił.
Ważne jest, aby prowadzić otwartą i informacyjną dyskusję na temat obecnego stanu prawnego dotyczącego AWS i LAWS. Od stycznia do marca 2024, będziemy regularnie informować, tłumaczyć i analizować te kwestie w naszych mediach społecznościowych.
Zachęcamy do śledzenia tych materiałów i aktywnego uczestniczenia w dyskusji. Tylko poprzez szerokie zrozumienie i zaangażowanie społeczne możemy wpłynąć na kształtowanie przyszłości, w której technologia służy dobru wspólnemu, a nie eskalacji konfliktów.
Bądźcie z nami, aby dowiedzieć się więcej i wziąć udział w tej ważnej debacie.
Sprawdź, czym zajmuje się kampania „Stop Killer Robots”.