Autonomiczne systemy broni, kontrola i odpowiedzialność. Zobacz nasz nowy poradnik

Przewodnik „Przyszłość teatru wojny: autonomiczne systemy broni, kontrola i odpowiedzialność”

Nie wiesz, jak działają autonomiczne systemy broni (AWS)? One są już wokół nas – i rozwijają się szybciej, niż myślisz. Ten przewodnik odsłania kulisy działania AWS, technologii, która rewolucjonizuje pole walki, często poza kontrolą społeczeństwa i bez jakiejkolwiek regulacji. Przeczytaj, a dowiesz się, jak autonomiczne systemy broni są testowane i wdrażane – bez naszej wiedzy i zgody.

W poradniku znajdziesz kluczowe informacje o AWS – ich roli w polityce, wojskowości i prawie międzynarodowym. To technologia, która nie tylko zmienia sposób prowadzenia wojen, ale także stawia przed nami fundamentalne pytania o przyszłość etyki i kontroli nad sztuczną inteligencją w działaniach zbrojnych.

Prezentujemy fragment poradnika. Zachęcamy do lektury całej publikacji.

Jak wielkie korporacje technologiczne wspierają rozwój i zastosowanie autonomicznych systemów broni (AWS)?

Duże korporacje technologiczne, takie jak Microsoft, Google i Amazon, odgrywają znaczącą rolę w rozwoju i wsparciu autonomicznych systemów broni (AWS) poprzez dostarczanie technologii chmurowych i narzędzi sztucznej inteligencji. Przykładem może być współpraca Microsoftu z Siłami Obronnymi Izraela (IDF), w ramach której platforma chmurowa Azure była wykorzystywana do obsługi działań wojskowych, analiz wywiadowczych i zarządzania „bankami celów”. Microsoft dostarczył IDF także zaawansowane narzędzia sztucznej inteligencji w celu wsparcia przetwarzania języka i danych wizualnych.

W latach 2023-2024 Microsoft zapewnił tysiące godzin wsparcia technicznego dla izraelskiego wojska, generując miliony dolarów przychodu.

Podobnie Google uczestniczył w projekcie Nimbus, wartym 1,2 mld dolarów, dostarczając chmurowe usługi obliczeniowe dla izraelskich instytucji rządowych, w tym IDF.

Z ujawnionej dokumentacji wynika, że Google pracował bezpośrednio z IDF, dostarczając technologie AI do celów wojskowych, mimo publicznego zaprzeczania współpracy w tym obszarze.

W przypadku Google, część pracowników wyraziła sprzeciw wobec współpracy z izraelskim wojskiem, obawiając się, że ich praca przyczynia się do naruszeń praw człowieka. Google zwolniło 28 pracowników, którzy zorganizowali protesty w biurach firmy w Nowym Jorku i Kalifornii. Protesty zostały stłumione przez firmę, co uwypukla problem tłumienia krytyki wewnętrznej wobec współpracy z wojskiem.

Obie firmy dostarczały technologie umożliwiające zwiększenie precyzji operacji wojskowych, przyspieszenie analizy danych i rozwój narzędzi do namierzania celów, co budzi obawy dotyczące odpowiedzialności, zgodności z prawem międzynarodowym oraz moralnej dopuszczalności stosowania takich rozwiązań. Wiele technologii wojskowych jest rozwijanych w tajemnicy, co uniemożliwia publiczną kontrolę nad ich zastosowaniem i zgodnością z normami prawnymi.

Technologie chmurowe i AI, pierwotnie rozwijane do celów komercyjnych, obecnie są wykorzystywane w działaniach wojskowych, co budzi wątpliwości, czy będą w stanie rozróżnić infrastrukturę cywilną od wojskowej.

Jak autonomiczne systemy broni (AWS) mogą wpływać nie tylko na pole walki, ale także na życie codzienne?

Autonomiczne systemy broni (AWS) mogą znacząco wpływać na życie społeczne poprzez wykorzystanie zaawansowanych technologii, takich jak rozpoznawanie twarzy, algorytmiczne namierzanie celów oraz analiza danych w celu identyfikacji zagrożeń.

Rozpoznawanie twarzy i targetowanie osób

AWS wykorzystują kamery i czujniki do śledzenia oraz identyfikacji obiektów i osób. Systemy te analizują dane o cechach fizycznych, takich jak gesty, kształt twarzy czy wzorce ruchu, co może prowadzić do błędnej klasyfikacji i naruszeń prywatności. Technologie te mogą być używane do masowego monitorowania przestrzeni publicznej, co budzi obawy związane z inwigilacją i dyskryminacją.

Zagrożenie dehumanizacją

Decyzje podejmowane przez algorytmy AWS, a nie ludzkich operatorów, mogą prowadzić do traktowania ludzi wyłącznie jako „danych” lub „celów”. Taka redukcja człowieczeństwa zagraża wartościom społecznym i etycznym, a także może prowadzić do błędów w ocenie sytuacji w krytycznych momentach.

Potencjalna dyskryminacja i uprzedzenia
Systemy AWS mogą działać na podstawie niereprezentatywnych lub stronniczych danych, co prowadzi do dyskryminacji pewnych grup społecznych.

Ryzyko naruszeń praw człowieka

Automatyzacja decyzji związana z wprowadzaniem technologii AWS niesie ryzyko nieuzasadnionych ataków, skutkujących łamaniem praw człowieka.

Problemy te mogą pojawić się również w kontekście policyjnym lub podczas tłumienia protestów, gdzie AWS mogą być używane do działań represyjnych.

Publikacja została sfinansowana w ramach XV edycji grantu Stop Killer Robots.

Przyszłość teatru wojny: autonomiczne systemy broni, kontrola i odpowiedzialność – okładka

Marta Stępniak, Paweł Marczak, Przyszłość teatru wojny: autonomiczne systemy broni, kontrola i odpowiedzialność, Instytut Spraw Obywatelskich, 2025

Sprawdź inne artykuły z tego wydania tygodnika:

Nr 271 / (10) 2025

Przejdź do archiwum tekstów na temat:

# Nowe technologie # Społeczeństwo i kultura

Być może zainteresują Cię również:

www_CK_OFERTA_PRACY

OWES Instytutu

Szukamy doradcy. Dołącz do zespołu

W ramach prowadzonych działań w obszarze wsparcia organizacji pozarządowych poszukujemy osób do pracy.  Zobacz nasze ogłoszenia – na Twoje CV czekamy do 12 listopada 2024 r.    Poszukujemy…