Felieton

Autonomiczne systemy broni na tapecie ONZ i niewygodne pytania

broń z tabliczką z napisem po angielsku algorithms shouldnt make life or death decisions
Źródło: grafika koalicji Stop Killer Robots

Marta Stępniak

Tygodnik Spraw Obywatelskich – logo

Nr 308 / (46) 2025

Autonomiczne systemy broni (autonomous weapon systems AWS) stały się częścią naszej rzeczywistości. To najszybciej rozwijane narzędzia współczesnych konfliktów, które mogą podważyć zasady odpowiedzialności i ochrony cywilów. W listopadzie 2025 r. Zgromadzenie Ogólne ONZ głosowało po raz kolejny nad rezolucją L.41 w sprawie AWS (156 głosów było za, 5 przeciw, 8 wstrzymujących się). Dodam, że Polska od dłuższego czasu jest w gronie tych ostatnich.

Polska leży na granicy regionu o podwyższonym ryzyku konfliktu. Każda innowacja wojskowa, która przyspiesza decyzje o użyciu siły czy rozmywa ludzką odpowiedzialność, może uderzyć w bezpieczeństwo naszych obywateli i infrastruktury. W tym sensie udział w globalnej debacie o AWS to nie abstrakcyjna dyskusja, lecz ochrona naszych, polskich interesów. Jeśli reguł nie będzie, to właśnie państwa frontowe, takie jak Polska, będą w pierwszej kolejności narażone na skutki braku jasnych ograniczeń. Najlepiej oddają to słowa prezydenta Ukrainy Wołodymyra Zełenskiego z wystąpienia w ONZ we wrześniu 2025 roku. Mówił o najbardziej destrukcyjnym wyścigu zbrojeń w historii, napędzanym przez AI i drony. Wezwał też do globalnych regulacji ich użycia. Zaznaczył, że powstrzymanie tej wojny teraz, a wraz z nią globalnego wyścigu zbrojeń, będzie tańsze niż budowa podziemnych przedszkoli czy ogromnych bunkrów dla infrastruktury krytycznej w przyszłości.

Polska a rezolucja

Rezolucję zgłosiła Austria wspólnie z grupą 30 państw współsponsorujących przypominając, że wszystkie autonomiczne systemy broni podlegają już istniejącym ramom: międzynarodowemu prawu humanitarnemu, prawom człowieka i prawu karnemu.

Jednocześnie nie ma precyzyjnych zapisów odnośnie użycia tych nowych rodzajów broni. Dlatego ważne jest stworzenie konkretnych regulacji dotyczących AWS.

Od października do listopada 2025 roku, na forum ONZ temat AWS został podniesiony przez ponad 135 państw (łącznie w ponad 150 wystąpieniach, w tym głosów grup regionalnych i organizacji międzynarodowych). Zdecydowana większość – od UE i Unii Afrykańskiej, po państwa obu Ameryk – wezwała do pilnej regulacji i poparła rezolucję.

A gdzie jest Polska? Nasz kraj zabrał głos w trakcie 80. sesji Zgromadzenia Ogólnego ONZ (9 i 21 października 2025 r.), podkreślając znaczenie Konwencji o niektórych rodzajach broni konwencjonalnej (CCW) i ochrony cywilów, ale bez jednoznacznego odniesienia do AWS. Równocześnie część naszych sąsiadów (Litwa, Łotwa, Estonia) zmieniła swoje głosowania względem 2024 r. – popierając rezolucję. Jako państwo frontowe mamy szczególny interes w tym, by nowe technologie nie pogłębiały niestabilności i by istniały jasne granice chroniące cywilów.

Od ONZ do pola walki

Stop Killer Robots, czyli koalicja, której częścią jest Instytut Spraw Obywatelskich, przypomina, że maszyny nie powinny podejmować decyzji o życiu i śmierci ludzi. To nie jest slogan z plakatu,

choć chwytliwy, ale bardzo konkretne ostrzeżenie. Im więcej realnej władzy oddamy algorytmom, tym bardziej wojnę będą kształtować ich błędy i uprzedzenia, a nie ludzkie sumienie czy zdrowy rozsądek.

W centrum sporu jest praktyczne znaczenie zasady „znaczącej kontroli ludzkiej” (meaningful human control). Państwa, które rozwijają autonomiczne systemy broni podkreślają, że to dany dowódca, operator ponosi odpowiedzialność i kontroluje użycie siły. Problem w tym, że przy systemach obciążonych biasami (uprzedzeniami), taka kontrola bardzo łatwo staje się fikcją.

Jeśli algorytm już wcześniej wybrał cele, oznaczył podejrzane osoby i ocenił ryzyko, to udział człowieka sprowadza się tylko do zatwierdzenia operacji. To klasyczny automation bias, czyli skłonność do przeceniania rekomendacji systemu.

Biasy są rasowe, kulturowe lub wynikające z braków danych, co w praktyce oznacza, że system częściej typuje jako cel konkretne grupy ludzi albo „nie widzi” innych. Jeżeli autonomiczny system częściej klasyfikuje młodych mężczyzn o określonym wyglądzie jako terrorystów, albo nie rozpoznaje osoby na wózku jako cywila, to operator patrzy na dane już z zafałszowanym obrazem rzeczywistości. Ta znacząca kontrola ludzka wymaga, żeby decyzja człowieka była świadoma i niezależna, a nie tylko stanowiła odtworzenie uprzedzeń zakodowanych w modelu.

AWS i uprzedzenia, które za nimi idą, zwykle nie rzucają się w oczy od razu.

Sztuczna inteligencja ucząca się na ogromnych zbiorach danych chłonie nie tylko informacje, ale także wzorce odzwierciedlające istniejące w społeczeństwie nierówności lub błędne założenia. Jeśli w danych są przekłamania, system je powieli i dopóki nie zostanie celowo przetestowany na skrajnych przypadkach, takie ukryte uprzedzenia mogą pozostać niewidoczne.

Najbardziej podstępne są te uprzedzenia, które powodują tzw. brak identyfikacji. System po prostu czegoś nie widzi — nie klasyfikuje osoby, nie dostrzega obiektu — i nikt nie zauważa samego błędu, bo przecież nie ma alarmu, nie ma czerwonego sygnału. Jak zwraca uwagę raport SIPRI „Bias in military artificial intelligence and compliance with international humanitarian law”, operator może nie mieć pojęcia, że na obrazie z drona algorytm pominął człowieka z boku kadru. Na przykład jeśli system nie był trenowany na obrazach osób poruszających się na wózkach, może w ogóle nie wykryć ich obecności.

Osobną kategorią są biasy wynikające z zastępczych wskaźników. To sytuacje, w których system nie analizuje tego, co naprawdę istotne, tylko opiera się na uproszczonych regułach — jak założenie, że cywil ma smartfona na abonament, a bojownik używa kart prepaid, albo że terroryści w danym regionie zawsze wyglądają i zachowują się w podobny sposób. Algorytm zaczyna wtedy traktować te wskaźniki jako prawdę absolutną, a w praktyce oznacza to wykluczenie całych grup ludzi, którzy po prostu nie pasują do takiej sztywnej matrycy. To właśnie te niewidoczne błędy są najbardziej niebezpieczne — bo trudno je wykryć, a jeszcze trudniej udowodnić, że w ogóle występują.

Wymieniony wyżej raport opisuje scenariusze, które łatwo można przenieść w nasze realia, np. system uczy się, że wróg to grupy młodych mężczyzn z bronią. Następnie błędnie klasyfikuje np. myśliwych na polowaniu czy rekonstrukcje historyczne z bronią hukową. Jest ryzyko, że autonomiczne systemy broni używane do ataków na cele korzystają z uproszczonych wskaźników: typ budynku, ruch wokół, nietypowe zgromadzenia. Przy braku lokalnie reprezentatywnych danych system może np. uznać procesje Bożego Ciała lub protesty społeczne za aktywność wroga, a budynek – za cel wojskowy. Ponieważ takich biasów nie zakodowano wprost (są efektem ubocznym danych), trudno je wykryć standardowymi metodami testowania. Dopiero analiza przekrojowa – uwzględniająca różnorodność populacji i sytuacji – może ujawnić, że np. system częściej oznacza osoby o określonym kolorze skóry jako wrogów albo że ignoruje sygnały od ludzi spoza sieci komunikacyjnej.

Warto pamiętać, że wojna nie zatrzymuje całkowicie życia społecznego, ponieważ ludzie dalej się przemieszczają, organizują się, pomagają sobie, uciekają i wracają.

To właśnie w takich dynamicznych i chaotycznych warunkach biasy AI są najbardziej niebezpieczne, bo system nie rozumie kontekstu. Widzi tylko to, co przypomina dane treningowe.

Co widać z Genewy

W pracach Grupy Ekspertów Rządowych ds. Śmiercionośnych Autonomicznych Systemów Broni (GGE ds. LAWS) dojrzewa przekonanie, że przygotowywany rolling text (robocza wersja rezolucji) może stać się realnym punktem wyjścia do negocjacji nowego, wiążącego instrumentu prawnego. To dobry moment, żeby ten impuls wykorzystać.

Jeśli tego nie zrobimy, przygotujmy się na eskalację konfliktów na skalę jakiej jeszcze nie widzieliśmy. Ale czy do tego można się przygotować…


Polecamy poradnik – Przyszłość teatru wojny: autonomiczne systemy broni, kontrola i odpowiedzialność


Zrealizowano ze środków koalicji Stop Killer Robots

Sprawdź inne artykuły z tego wydania tygodnika:

Nr 308 / (46) 2025

Przejdź do archiwum tekstów na temat:

# Nowe technologie # Społeczeństwo i kultura # Świat

Być może zainteresują Cię również: