Jan Waszewski, Maciej Gurtowski: Cyfrowy rasizm?

fot. Gerd Altmann z Pixabay
Tygodnik Spraw Obywatelskich – logo

Nr 112 / (8) 2022

W artykule analizujemy jeden z problemów związanych ze zmianami w sferze nadzoru (surveillance). Jest nim sposób, w jaki nadzór za pomocą zautomatyzowanych narzędzi wykorzystujących bazy danych (dataveillance) – wpływa na segregowanie ludzi i powstanie nowych form dyskryminacji. W prowadzonej analizie wychodzimy od rekonstrukcji głównych koncepcji wykorzystywanych w badaniach nad nadzorem. Jedna z nich dotyczy powstawania tzw. sobowtórów cyfrowych, które są przechowywanymi w bazach danych i wykorzystywanymi w nadzorze odpowiednikami konkretnych, żywych ludzi. Zjawisko cyfrowego rasizmu polega na segregowaniu i dyskryminowaniu pewnych osób i grup ze względu na wybrane atrybuty ich cyfrowego sobowtóra.

Czasopismu „Transformacje” dziękujemy za udostępnienie fragmentu artykułu do publikacji. Zachęcamy do lektury całego tekstu „Cyfrowy rasizm? Zautomatyzowane techniki nadzoru jako nadrzędzie segregacji i dyskryminacji”.

Wprowadzenie

Celem niniejszej analizy jest socjologiczna charakterystyka fenomenu towarzyszącego przemianom we współczesnym nadzorze (ang. surveillance2) – fenomenu, który proponujemy nazwać cyfrowym rasizmem.

Pod pojęciem cyfrowego rasizmu rozumiemy taką formę segregacji i dyskryminacji, która powstaje w efekcie zautomatyzowanego, prowadzonego za pomocą systemów komputerowych przetwarzania informacji o ludziach na podstawie kryteriów bezpośrednio lub pośrednio związanych z elementami fenotypu charakterystycznymi dla danej rasy. Rolę bezpośredniego wskaźnika może pełnić znalezienie się informacji o rasie w bazie danych połączonej z danym systemem nadzoru. Pośrednim wskaźnikiem mogą być informacje, z których można wywnioskować przynależność rasową danej osoby – nazwisko, wygląd (zdjęcia, dane biometryczne), wyznanie lub narodowość[3].

Aby lepiej zrozumieć analizowane przez nas zjawisko, warto odwołać się dwóch kategorii: nadzoru opartego o kryteria rasowe oraz tzw. nowego nadzoru, wykorzystującego zautomatyzowane techniki kontroli i przetwarzania danych. […]

Nowy nadzór

Amerykański socjolog Gary T. Marx w klasycznej pracy Undercover: Police Surveillance in America z 1988 roku wprowadził koncepcję nowego nadzoru:

jest [on] powiązany z dalekosiężnymi zmianami technologicznymi i zmianami w organizacji społecznej. Racjonalizacja kontroli nad przestępczością, która zaczęła się XIX wieku, w efekcie tych zmian przekroczyła próg krytyczny. Technologia zwiększyła siłę kontroli społecznej. Możliwość zbierania informacji przez państwo i prywatne organizacje rozszarpała [torn asunder] wiele z naszych konwencjonalnych opinii o prywatności. Tradycyjne granice pomiędzy prywatnym a publicznym i pomiędzy prawami jednostki a władzą państwa są wyznaczane na nowo[15].

Zdaniem Marxa nadzór współcześnie (w przeciwieństwie do tradycyjnego nadzoru) dotyczy najczęściej nie jednostek, a całych kategorii osób czy określonych kontekstów społecznych[16]. Można przez nie rozumieć miejsca, przestrzenie czy sieci obejmowane nadzorem. To w tych kontekstach jednostki działają i są nadzorowane.

W nowym nadzorze ludzie są obserwowani, monitorowani – jednym słowem nadzorowani – właśnie na tle i w związku z określonymi kontekstami społecznymi, geograficznymi lub technologicznymi.

Kluczem do zrozumienia różnicy między nowym a starym nadzorem jest to, że w nowym nadzorze nie chodzi już tylko o śledzenie jakiejś podejrzanej osoby. Ze względu na różne typy działalności ludzie są zachęcani do poddawania siebie i swoich ciał specjalnym testom. Marx wymienił tu badanie poziomu alkoholu, testy ciążowe, ustalanie wejścia w menopauzę czy też testy na AIDS[17]. Ze względu na dostępność takich form samo-nadzoru stają się one ważnym wymiarem kontroli społecznej. Od ludzi oczekuje się, że będą wiedzieli, iż znajdują się w określonej kategorii osób i będą się zachowywać zgodnie z normami w danej kategorii obowiązującymi.

Definicja nowego nadzoru zaproponowana przez Marxa to:

Wykorzystanie środków technicznych do pozyskania lub tworzenia informacji o ludziach. Mogą być one wydobywane od jednostek lub pozyskiwane w określonych kontekstach. W definicji użycie ‘środków technicznych’ do pozyskania lub tworzenia informacji oznacza zdolność do wykroczenia poza to, co pozwalają zdobyć nieuzbrojone zmysły człowieka oraz poza to, co zostaje ujawniane dobrowolnie przez daną osobę. (…) Mówienie o ‘kontekstach’ towarzyszących ‘jednostkom’ wskazuje na to, że większość nowoczesnego nadzoru to szukanie wzorów, prawidłowości i powiązań[18].

[…]

Sobowtóry cyfrowe

Proces powstawania fenomenu Surveillant assemblages analizuje się między innymi z perspektywy oddzielania, abstrahowania za pomocą technologii informatycznych, danych na temat ludzi od ich fizycznej obecności w danym miejscu. Ciało człowieka, czy też człowiek po prostu, zostaje opisany na podstawie zbioru rozproszonych „przepływów”, informacji różnego typu, przechowywanych przez różne instytucje i podmioty prywatne.

Współcześnie informacje na temat ludzi (począwszy od ich urodzenia – dane o życiu prenatalnym nawet wcześniej) trafiają do komputerowych baz danych. Kolejny etap, przez który przechodzą informacje o ludziach, to ponowne złożenie człowieka w całość na podstawie wcześniej zebranych rozproszonych i przetworzonych danych. Powstają wtedy niedokładne odzwierciedlenia ludzi, określane jako ich sobowtóry cyfrowe.

Przetworzenie wizerunku danego człowieka w przepływy cyfrowe nie pozwala na odtworzenie go w tej samej formie, którą posiadał przed rozbiciem. Powstaje coś nowego – podobnego, lecz nie tożsamego[35]. Według Davida Lyona sobowtóry cyfrowe są to:

Różnorakie sploty danych personalnych, które, czy nam się to podoba czy nie, reprezentują „ja” w ramach systemów biurokratycznych lub sieciowych – zostają wprawione w ruch pod postacią impulsów elektrycznych, stając się podatne na zmiany, uzupełnianie, kojarzenie, ubytki[36].

Sobowtóry cyfrowe można analizować i oddziaływać na nie. Co więcej, instytucja, która dokonuje rekonstrukcji sobowtóra, może wpływać na niego zgodnie ze swoimi potrzebami – wybierając określone informacje.

Sobowtór ma szczególną wartość w działalności gospodarczej – na przykład może zostać wykorzystany do tworzenia profili obecnych klientów i wskazywania potencjalnych klientów. Obróbka danych na temat ludzi w formie cyfrowej służy osiąganiu przewagi informacyjnej i w konsekwencji przewagi rynkowej.

Szczególnie w związku z wykorzystaniem systemów analizy danych określanych w ostatniej dekadzie jako Big Data[37]. Handel „sobowtórami cyfrowymi” staje się współcześnie coraz bardziej istotnym typem działalności gospodarczej[38].

To, jak są skonstruowane sobowtóry cyfrowe, decyduje o tym, jak „jesteśmy traktowani przez ubezpieczycieli, policję, pomoc społeczną, pracodawców, działy marketingowe podmiotów gospodarczych”[39]. Należy pamiętać, że „nie są [one] niewinnymi zbiorami impulsów elektronicznych” i są tym mniej niewinne, im więcej zawierają informacji o „religii, pochodzeniu etnicznym i innych naszych kontrowersyjnych [z jakiegoś powodu] cechach”[40]. Sobowtóry cyfrowe często naruszają zasady poprawności politycznej – np. jeżeli pomagają w typowaniu, kto może być terrorystą, na podstawie włączonych do sobowtóra cyfrowego informacji o pochodzeniu etnicznym, rasie czy wyznawanej religii. Innymi słowami, chodzi tu o cyfrową dyskryminację pewnych osób, prowadzoną w istotnym stopniu także w oparciu o kryteria rasowe.

Jest jeszcze jedna, ważna cecha sobowtórów cyfrowych. Ich działanie i trwałość wymaga istnienia odpowiedniej infrastruktury informacyjnej. Z jednej strony, budowanie zasadniczej części tej infrastruktury (w postaci baz danych) powinno ułatwiać dostęp do informacji[41]. Z drugiej jednak strony, organizacje biurokratyczne często są tak skonstruowane, że nie dopuszczają do – odwołajmy się do języka koncepcji Michela Croziera i Erhardta Friedberga[42] – oddania kontroli nad ich sferami niepewności. Innymi słowy, organizacje biurokratyczne opierają się przed próbami pozbawienia ich władzy wynikającej z posiadanego prawa do prowadzania określonych działań i podejmowania decyzji. W tych sferach niepewności może się znaleźć: wprowadzanie do baz danych informacji wchodzących w skład sobowtóra cyfrowego, sposób zmieniania danych tworzących sobowtóry cyfrowe, regulacja możliwości i zakresu pozyskiwania danych przez osoby spoza organizacji biurokratycznej i w jej ramach oraz – last but not least – sposoby segregowania ludzi w efekcie tworzenie różnych klasyfikacji i kategoryzacji[43].

Jednym z przykładów działania sobowtórów cyfrowych jest operacja z 1979 roku, w czasie której policja we Frankfurcie nad Menem wyszła w swoich działaniach antyterrorystycznych z założenia, że terroryści unikają używania czeków i kart kredytowych. Z tego powodu zebrano dane wszystkich osób płacących w tym mieście rachunki za energie elektryczną gotówką. Przez skrzyżowanie tych informacji z danymi m.in. o wynajęciach domów wytypowano dwa mieszkania. W jednym mieszkał handlarz narkotykami, a w drugim terrorysta[44]. Przykład z Frankfurtu wskazuje na ważny problem, który przez ostatnie 35 lat, ze względu na wzrost liczby istniejących i dostępnych podmiotom prywatnym i publicznym cech sobowtórów cyfrowych, stał się jeszcze bardziej istotny. Próba ukrycia się przed nadzorem przez niekorzystanie z nowych technologii może być ważnym wskaźnikiem tego, że dana osoba stanowi zagrożenie lub jest po prostu inna, może obca.

Brak posiadania właściwego sobowtóra cyfrowego, składającego się z odpowiednich składników, może doprowadzić do innego traktowania osób z takim wybrakowanym sobowtórem cyfrowym. Mogą one zostać uznane za terrorystów lub potencjalnych przestępców, ale również nie dostać kredytu czy pracy.

W pewnym sensie cyfrowe sobowtóry, zdefiniowane jako wybrakowane, czyli „niepełnosprawne”, mogą czynić faktycznie niepełnosprawnymi ich fizyczne pierwowzory, np. poprzez niedopuszczenie do partycypacji z określonych typów usług.

Nadzór jako segregacja społeczna – prowadzona za pomocą zautomatyzowanych technik nadzoru

Ludzie funkcjonują w świecie społecznym, który jest oparty na klasyfikacjach i kategoryzacjach[45]. W czasach obecnych naszą szczególną uwagę powinny zwracać tendencje do wspomagania procesu kategoryzacji ludzi za po-mocą programów komputerowych. W efekcie ich działania powstają wirtualne „bramy i bariery, które ograniczają, kanalizują i segregują populacje i jednostki”[46].

Amerykański badacz komunikacji Oscar H. Gandy jr., już w 1993 roku zwrócił uwagę na to, jak duże znaczenie ma dzielenie za pomocą wyspecjalizowanych systemów nadzoru ludzi i wspólnot na abstrakcyjne kategorie. Utrata kontroli nad danymi osobowymi w społeczeństwie dzielonym, sortowanym w taki sposób ma zdaniem Gandy’ego daleko idące konsekwencje polityczne i gospodarcze[47]. Kilkanaście lat później Gandy odniósł się już bezpośrednio do profilowania ludzi w oparciu o rasę. Jego zdaniem okazuje się ono nieskuteczne w pracy policji i jest bardzo niepopularne oraz często atakowane jako przejaw dyskryminacji. Organy ścigania będą korzystać z profilowania rasowego tak długo, jak tylko będą to robić z wyczuciem i będą w stanie ukryć lub racjonalnie przedstawić to, że kryteria rasowe są istotnym elementem budowanych profili podejrzanych[48]. Rasa ma wpływ w USA również na sposób prowadzenia badań klinicznych i jest związana z tworzeniem leków przeznaczonych głównie lub wyłącznie dla czarnych mieszkańców USA. Tutaj dyskryminacja przebiega w innym kierunku – niektóre leki są tworzone tylko dla mniejszości[49].

Działamy bez cenzury. Nie puszczamy reklam, nie pobieramy opłat za teksty. Potrzebujemy Twojego wsparcia. Dorzuć się do mediów obywatelskich.

W tym miejscu warto podkreślić, że stosowanie rasowych kryteriów do nadzoru było postrzegane przez przedstawicieli organów ścigania jako efektywne, zaś wydelegowanie stosowania ich na odpersonalizowany zautomatyzowany mechanizm pozwala na zneutralizowanie potencjalnych oskarżeń o rasizm, który w tym przypadku jest atrybutem systemu, a nie podmiotu.

Profilowanie to również ważne narzędzie marketingowe. Właściwe posegregowanie klientów wpływa na rozpoznanie obszarów, gdzie warto – ze względu na potencjalne zyski – prowadzić bardziej intensywne działania.

W efekcie, osoby, którymi zainteresowane są podmioty gospodarcze z powodu ich „bardziej wartościowych” profili, otrzymują bardziej adekwatnie dobrane komunikaty marketingowe oraz mogą liczyć na lepszą obsługę. Im więcej cech, istotnych z punktu widzenia mocy nabywczej i preferencji konsumenckich, wchodzi w skład profilu klienta, tym taka informacja jest bardziej wartościowa dla sprzedawcy towarów lub usług. Dla tworzenia bliskich relacji z klientami szczególne znaczenie ma łączenie różnych baz danych. Wyjątkową wartość wydają się tu mieć nawyki związane z mobilnością w Internecie i możliwością włączania danych na jej temat do profili klientów[50].

Proces przejścia od biznesowego wykorzystania nadzoru (zbierania i analizy danych osobowych) do użycia ich przez rządowe agencje opisał w od-niesieniu do zmian w USA po 11 września 2001 roku na przykładzie korporacji Acxiom Robert O’Harrow:

[Acxiom] systematycznie łączy i analizuje informacje wcześniej zebrane, tak by stworzyć portrety o wysokiej rozdzielczości 200 milionów dorosłych osób. (…) [Acxiom] pomaga sklepom detalicznym takim jak Lands’ End doprecyzować [focus] ich katalogi, klientom z sektora bankowego takim jak Citigroup stworzyć profile jednostek do dopracowania ofert kredytowych, ubezpieczycielom takim jak Allstate zadecydować kogo objąć ubezpieczeniem, a kogo wykluczyć spośród klientów. Zarządza [Acxiom] miliardami zapisów danych osobowych i finansowych dla prywatnego biura kredytowego Trans Union. Pomaga producentom leków namierzać ludzi z określonymi chorobami. Sprawdza osoby przed ich zatrudnieniem i pomaga wytropić dłużników. Szkicuje i przewiduje ludzkie zachowania.

A od czasu 11 września 2001 roku Acxiom zaoferował swoje techniczne know-how i nieprzetworzone dane – detale o tobie, twoim życiu, twojej rodzinie – do wykorzystania w największych w historii systemach nadzoru i sprawdzania ludzi stworzonych przez rząd USA[51].

Reakcje na zamachy 11 września 2001 roku sprawiły też, że „różne typy analizy biznesowej zostały przekonfigurowane dla celów antyterrorystycznych”[52].

Organizacje zwalczające terroryzm zaczęły korzystać z – użytkowanych już wcześniej w działalności gospodarczej – narzędzi analitycznych. Należały do nich: systemy zarządzania relacjami z klientami (CRM – Customer Relationship Management), wydobywanie wiedzy z baz danych (data-mining) czy hurtownie baz danych (data-warehousing)[53]. Współpracy pomiędzy agencjami rządowymi USA a korporacjami dotyczyły między innymi informacje ujawnione przez Edwarda Snowdena. Pozwalają one na lepsze zrozumienie zakresu i typu działalności amerykańskiej Narodowej Agencji Bezpieczeństwa i jej sojuszników z innych państw (w tym Polski)54.

Lyon w kontekście dyskryminacji zwrócił także uwagę na to, że zautomatyzowany nadzór – czy też nadzór oparty na algorytmach – pogłębia „proces społecznego sortowania, kategoryzowania ludzi dla różnych celów”[55]. Można wręcz mówić o dyskryminacji, która jest „narzędziem inkluzji i ekskluzji, akceptacji i odrzucenia, wartościowości i niegodności”[56]. Lyon odwołał się do Raportu mniejszości Stevena Spielberga[57], twierdząc, że współczesny zautomatyzowany nadzór ma działać wyprzedzająco i podobnie jak technika nadzoru przedstawiona w tym filmie przewidywać, że ktoś popełni przestępstwo, nawet zanim ta osoba sama sobie uświadomi wolę jego popełnienia[58].

Kluczem do zrozumienia nadzoru nowego typu[59] są według Lyona kody komputerowe. To właśnie w oparciu o nie budowane są systemy nadzoru.

Dzięki pracy programistów staje się możliwe „przewidywanie, antycypowanie wydarzeń (takich jak przestępstwa), chorób (takich jak AIDS) oraz zachowań (takich jak wybory konsumenckie)”[60]. Zasięg działania nadzoru opartego o kody komputerowe rośnie wraz z włączaniem do niego narzędzi analizy nie tylko danych „audiowizualnych, lecz także biometrycznych, genetycznych i lokalizacyjnych”[61]. Analiza takich danych opiera się na kodach komputerowych.

Należy z całą mocą podkreślić fakt, że to autorzy kodów komputerowych, rozbudowując system nadzoru, świadomie lub nie, dodają do nich swoje subiektywne przekonania na temat tego, jaką kategorię należy poddać dodatkowej kontroli. Jeżeli mają do dyspozycji tak bardzo zróżnicowane typy danych jak wskazane zostało to wyżej, to tym bardziej rośnie wpływ ich przekonań na ostateczny kształt kodu[62]. Bez uwzględnienia współczynnika humanistycznego nie można oceniać takich systemów nadzoru.

Systemy nadzoru oparte na algorytmach analizy danych stają się w co-raz większym stopniu nieprzejrzyste[63]. Problematyczne jest wykrycie wprowadzonych do kodów elementów cyfrowego rasizmu. Staje się on widoczny dopiero w efekcie praktycznych konsekwencji działania danego systemu nadzoru.

Wydawałoby się jednak – podążając za potocznym podejściem do informatyki i programowania – że system komputerowy powinien kierować się ściśle określonymi, neutralnymi kryteriami. Tak oczywiście nie jest. Wynika to z faktu, że wskaźniki zachowań niezwykłych lub łamiących normy definiują programiści. Najczęściej nie są oni specjalistami w kwestiach etycznych lub wolności obywatelskich. To jednak właśnie programiści decydują o kształcie procedury rozstrzygającej, kto zostanie uznany za zagrożenie, kto znajdzie się na liście zakazów lotu, kto będzie przeszukiwany, przesłuchiwany, może nawet zatrzymany. Zwolennicy wykorzystywania systemów nadzoru w ruchu lotniczym często pomijają znaczenie czynnika ludzkiego w tworzeniu tych systemów. Podkreślają natomiast coś przeciwnego – nadzór oparty na algorytmach ma właśnie przez swoje zautomatyzowanie wykluczać wpływ uprzedzeń ludzi na proces podejmowania decyzji. Czyli praktyka rasistowska może funkcjonować nieobciążona odpowiedzialnością. Zgodnie z zaobserwowaną przez Lyona perspektywą podejścia do systemów nadzoru są one traktowane – w efekcie ich skomputeryzowania – jako neutralne etycznie[64]. Władza nad schematami klasyfikacyjnymi – Lyon odwołał się tu do Pierre’a Bourdieu[65] – ma centralne znaczenie w świecie społecznym. Chociaż prawo definiuje kwestie tak istotne jak terroryzm i inne zagrożenia, to w ramach systemów nadzoru czynnik ludzki schodzi przy klasyfikowaniu na dalsze pole (czy też: przestaje być dostrzegany). Niektóre formy wykluczania całych grup, ze względu na automatyzację tego procesu, są trudne do rozpoznania. W sposób nieprzejrzysty powstaje nowy dystans pomiędzy „uprzywilejowanymi a biednymi” oraz pomiędzy „bezpiecznymi a podejrzanymi”[66].

W ważnej książce opartej na analizie dokumentów rządowych i śledztw komisji parlamentarnych oraz wywiadach z uczestnikami zdarzeń kanadyjska prawniczka Maureen Webb opisała zmiany w nadzorze po zamachach 11 września 2001 roku. Przedstawiła ona losy kilku kanadyjskich obywateli – pochodzących z Bliskiego Wschodu i Azji Południowej. Kanadyjskie tajne służby i policja zbierały o nich informacje, bo podejrzewano, że są terrorystami lub mają z nimi związki. Ze względu na taki właśnie opis tej grupy obywateli Kanady w międzynarodowych bazach danych o terrorystach władze USA na lotniskach zatrzymywały obywateli swojego sąsiada z północy. Następnie np. Syryjczycy i Egipcjanie z pochodzenia byli deportowani, za zgodą władz kanadyjskich, do kraju urodzenia. Tam torturowano ich, by uzyskać odpowiedzi na pytania prze-słane przez tajne służby USA i Kanady. Po długotrwałych protestach obywatelskich Kanadyjczycy zdołali zmusić swój rząd do zaprzestania tej praktyki i do doprowadzenia do zwolnienia obywateli Kanady z więzień i umożliwienie im powrotu do ojczyzny[67]. Jednak przez kilka lat trwał proces nadzorowania wy-branej grupy obywateli w oparciu o włączenie ich do kategorii osób podejrzanych głównie ze względu na pochodzenie narodowościowe i – pośrednio – rasowe. Systemy komputerowe traktowały ich jako podejrzanych. Tymi informacjami dzielono się międzynarodowo. Własnych obywateli nie chroniono przed wysłaniem do krajów, gdzie rutynowo torturuje się więźniów. Można stwierdzić, że w tym przypadku doszło do wspólnego działania systemu nadzoru używającego opartego na rasie algorytmu przetwarzania informacji i niejednolitego traktowania własnych obywateli przez państwo demokratyczne w oparciu o podobne kryterium.

Techniki nadzoru mogą także być traktowane jako narzędzie zapobiegające dyskryminacji. Dzieje się tak szczególnie w sytuacjach, w których osoby mające możliwość dyskryminowania nie mogą z niej skorzystać ze względu na to, że są poddawane nadzorowi[68].

Policjant przesłuchujący podejrzanego w pokoju wyposażonym w kamerę nie może go bezkarnie zastraszyć, pobić lub zelżyć. Inny przykład to urzędniczka, która nie może sprawdzić danych danej osoby w bazie danych w sposób bezprawny, na czyjąś prośbę lub w efekcie przekupstwa. Takiego sprawdzenia nie dokona ona poza kontrolą, bo każdy dostęp do jej bazy danych zostaje odnotowany w innej bazie danych. Druga baza danych służy nadzorowaniu bazy danych, do której dostęp ma ta hipotetyczna urzędniczka. I właśnie spiętrzenie tego typu relacji między bazami danych tworzy system nieprzejrzysty – kontrolujący, ale sam trudno poddający się kontroli.

[…]

Podsumowanie

Tradycyjny rasizm opierał się na kryteriach obserwowalnych, takich jak kolor skóry. W nowoczesnym, zbiurokratyzowanym świecie można było na potrzeby dyskryminacji odwołać się do archiwalnych metryk i kartotek, aby wskazać czyjeś „niewłaściwe pochodzenie” rasowe lub klasowe. Zaś obecnie, obojętnie jakim przymiotnikiem czy pojęciem określimy współczesność – może mianem społeczeństwa nadzoru[84] czy nawet społeczeństwa płynnego nadzoru[85] – zautomatyzowane narzędzia nadzoru sprawiają, że ludzi dzieli się, sortuje i – w określonych okolicznościach – dyskryminuje się ze względu na „niewłaściwy” zapis w bazie danych. Nie chodzi tu tylko o określony zapis (np. rasa, wyznanie), ale również o to, w jaki sposób system analizuje dane i wyciąga wnioski o ludziach[86].

W cyfrowym rasizmie przesłanką do segregacji i dyskryminacji nie są cechy osoby, ale jej cyfrowego sobowtóra. Ten ostatni powstaje w sposób nieprzejrzysty, na podstawie zestawienia wielu rozproszonych informacji ze źródeł zbieranych na potrzeby różnych podmiotów, publicznych i prywatnych.

W związku z tym ludzie często mogą nie zdawać sobie sprawy, że ich cyfrowy sobowtór jest „rasowo obciążony”. Kluczowy problem stanowi także fakt, że możliwości intencjonalnego kreowania cech cyfrowego sobowtóra, z powodu nieprzejrzystości procesu jego tworzenia w ramach Surveillant assemblage, są wyjątkowo ograniczone. Chociaż możemy podejmować próby unikania dyskryminacji, to nawet systemowe rozwiązania prawne nie rozwiążą istniejących problemów. Szczególnie dlatego, że są one związane z traktowanymi jako neutralne kodami komputerowymi. Są one równie nieprzejrzyste jak istniejący obecnie Surveillant assemblage.

Fenomen cyfrowego rasizmu polega na tym, że aktu dyskryminacji nie można przypisać konkretnemu człowiekowi, którego można poddać ocenie moralnej lub prawnej. Praktyka rasistowska powstaje w efekcie funkcjonowania zautomatyzowanego systemu, który trudno obarczać jakąkolwiek formą odpowiedzialności. Jednocześnie ewentualna krytyka takiego sytemu może zostać zneutralizowana argumentem troski o bezpieczeństwo. Przewrotność, czy wręcz perfidia, funkcjonowania takiego systemu polega także na tym, że określany jest on jako neutralny, obiektywny, wolny od emocji, podczas gdy faktycznie pozostaje on obciążony (intencjonalnie lub nie) subiektywnymi uprzedzeniami jego twórców.

Cyfrowy rasizm? Zautomatyzowane techniki nadzoru jako nadrzędzie segregacji i dyskryminacji – Transformacje, Nr 1-2 (84-85) 2015

Autorzy:
mgr Jan Waszewski – doktorant w Zakładzie Interesów Grupowych Instytutu Socjologii UMK w Toruniu,
dr Maciej Gurtowski – członek zespołu badawczego w Zakładzie Interesów Grupowych Instytutu Socjologii UMK w Toruniu

Przypisy:

3 W niektórych przypadkach jest to wystarczające do ustalenia rasy lub uznawane jest za wskaźnik przy-należności rasowej.
15 G.T. Marx, Undercover: Police Surveillance in America, Berkeley: University of California Press, 1988, s. 3-4.
16 Tamże.
17 G.T. Marx, What’s New About the „New Surveillance”? Classifying for Change and Continuity, Sur-veillance & Society 2002, nr 1, s. 8-29.  
18 Tamże.  
35 K. D. Haggerty, R. V. Ericson, dz. cyt., s. 611-614.
36 D. Lyon, Nadzór jako segregacja społeczna…, dz. cyt., s. 76. Tłumacze tekstu pojęcie data-double prze-tłumaczyli jako sobowtóry informacyjne.   
37 V. Mayer-Schönberger i K. Cukier, Big Data. Rewolucja, która zmieni nasze myślenie, pracę i życie, Warszawa: MT Biznes, 2014.
38 K. D. Haggerty, R. V. Ericson, dz. cyt., s. 611-616.
39 D. Lyon, Surveillance after September 11…, dz. cyt., s. 149.
40 Tamże.
41 D. Lyon, Nadzór jako segregacja społeczna…, dz. cyt., s. 76.
42 M. Crozier, E. Friedberg, Człowiek i system. Ograniczenia działania zespołowego, tłum. K. Bolesta-Ku-kułka, Warszawa: Państwowe Wydawnictwo Ekonomiczne, 1982.  
43 D. Lyon, Nadzór jako segregacja społeczna…, dz. cyt., s. 76.
44 A. Mattelart, The Globalization of Surveillance. The Origin of Securitarian Order, Cambridge: Polity, 2010, s. 131-132.
45 D. Lyon, Nadzór jako segregacja społeczna…, dz. cyt., s. 66.
46 Tamże.  
47 O. H. Gandy jr., The Panopticon Sort: A Political Economy of Personal Information, Boulder: Westview Press, 1993.
48 O. H. Gandy, jr., Quixotics unite: Engaging the pragmatists on rational discrimination, [w:] David Lyon (red.), Theorizing Surveillance. The Panopticon and Beyond, London-New York: Routledge Taylor and Francis Group, 2011, s. 325-326.
49 Tamże, s. 326-327.  
50 D. Lyon, Nadzór jako segregacja społeczna…, dz. cyt., 67-68.   
51 R. O’Harrow jr., No Place to Hide, New York, London-Toronto-Sydney: Free Press, 2004, s. 37.
52 D. Lyon, Surveillance after September 11…, dz. cyt., s. 119.
53 Jest to pojęcie bliskie pojęciu Big data. Data-warehousing oznacza tworzenie – pod określonym kątem – baz danych, które zawierają jak największą ilość danych z wybranej dziedziny. Inna cecha data-ware-housing to takie przetwarzanie różnych formatów danych, by można je było wspólnie analizować. Trze-cia właściwość hurtowni danych to takie porządkowanie danych, by usunięte zostały niedokładne dane i można było wykryć różnice pomiędzy danymi na ten sam temat pochodzącymi z różnych źródeł i ustalić, które dane są najbardziej wiarygodne (D. Lyon, Surveillance after September 11…, dz. cyt., s. 119).  
54 G. Greenwald, Snowden. Nigdzie się nie ukryjesz, Warszawa: Agora, 2014, rozdz. 3 i 4. O znaczeniu informacji Snowdena dla badań nad nadzorem zob. M. Andrejevic i K. Gates, Editorial. Big Data Sur-veillance: Introduction, „Surveillance & Society” 2014, tom 12, nr 2: 192.
55 Tamże, s. 81.
56 Tamże.
57 S. Spielberg (reż.), Raport mniejszości, Produkcja: Twentieth Century Fox i.in., 2002. Film na motywach powieści: P. K. Dick, Raport mniejszości, Warszawa: Amber, 2004.
58 D. Lyon, Surveillance after September 11…, dz. cyt., s. 81.
59 Tego rozróżnienia – wynikającego z analiz Gary’ego T. Marxa (What’s New…, dz. cyt.) – Lyon nie stosuje.
60 D. Lyon, Surveillance after September 11…, dz. cyt., s. 78.
61 Tamże.
62 Tamże.
63 V. Mayer-Schönberger i K. Cukier, Big Data, dz. cyt., rozdz. 8 i 9.  
64 Tamże, s. 135.
65 P. Bourdieu, Dystynkcja. Społeczna krytyka władzy sądzenia, Warszawa: Wydawnictwo Naukowe Scholar, 2006.
66 D. Lyon, Surveillance after September 11…, dz. cyt., s. 150.  
67 M. Webb, Illusions of Security. Global Surveillance and Democracy in the Post-9/11 World, San Fran-cisco: City Lights, 2007.
68 Tamże, s. 17.  
84 D. Murakami Wood, dz. cyt. 
85 Z. Bauman, D. Lyon, dz. cyt. 
86 Przykładowo: nazwisko + wyznanie + zarobki + podróże lotnicze + typ posiłków na pokładzie ≈ rasa.  

Sprawdź inne artykuły z tego wydania tygodnika:

Nr 112 / (8) 2022

Przejdź do archiwum tekstów na temat:

# Nowe technologie # Społeczeństwo i kultura

Być może zainteresują Cię również:

75. rocznica Nakby

75. rocznica Nakby. Weź udział w Marszu Powrotu

Nakba – Katastrofa Palestyńska z 1948 roku jest corocznie upamiętniania zazwyczaj 15 maja. To przypomnienie wysiedleń i niszczenia społeczności palestyńskiej, które poprzedziły powstanie…