Za kulisami AI Act: Jak nowe regulacje zmienią nasz świat

Dane biometryczne wykorzystywane do śledzenia obywateli i wychwytywania emocji, social scoring (działający w ramach systemu kredytu społecznego — klasyfikacja ludzi na podstawie ich zachowań społecznych, statusu społeczno-ekonomicznego, osobistych cech) czy predykcja kryminalna (typowanie osób, które mogą popełnić przestępstwo) to narzędzia sztucznej inteligencji, które wykorzystują z powodzeniem chińskie władze do kontrolowania obywateli. Na szczęście w Unii Europejskiej będą one zakazane, a wszystko dzięki AI Act – pierwszej na świecie tak obszernej regulacji prawnej dotyczącej działania i korzystania ze sztucznej inteligencji.
Już od lat 50. XX wieku trwają prace nad sztuczną inteligencją. W ostatnich latach, a nawet miesiącach jej rozwój znacznie przyśpieszył. Generatywna SI czy rozwiązania chmurowe są wykorzystywane w różnych obszarach gospodarki. Sztuczna inteligencja stała się technologią ogólnego zastosowania (general purpose). Może być wykorzystana w każdym sektorze czy aspekcie naszego życia. Dlatego tak ważne i pilne staje się ujęcie jej funkcjonowania w ramy prawne. Na świecie podejście do tego zagadnienia jest bardzo zróżnicowane, o czym pisaliśmy już w felietonie „Co dalej z AI? Czy Unia Europejska ureguluje działanie sztucznej inteligencji?”.
Dla Unii Europejskiej rozwój technologii musi być zgodny z europejskimi wartościami, które zostały zapisane w Karcie Praw Podstawowych.
Propozycja horyzontalnej regulacji to działania pionierskie. W toku długiego procesu legislacyjnego 14 czerwca 2023 roku Parlament Europejski zatwierdził w swoim oficjalnym stanowisku projekt ustawy AI Act.

Trójstronne negocjacje w sprawie ostatecznego kształtu tekstu między Parlamentem Europejskim, Komisją Europejską i państwami członkowskimi już trwają. Jest szansa, że AI Act zostanie przyjęty przed następnymi wyborami do Parlamentu Europejskiego zaplanowanymi na maj 2024 roku.
Wśród gremiów UE jest duża determinacja i wola, żeby przyjąć go do końca obecnej kadencji. Na posłów sprawozdawców wyznaczono sprawnie działających polityków.
Unia Europejska nie chce regulowania wszystkich systemów opartych o sztuczną inteligencję, tylko tych, które stwarzają ryzyko. Zasada oceny ryzyka za pomocą tak zwanego risk-based approach [podejście oparte na ryzyku – przyp. red.] już od kilkunastu lat jest wiodącą podczas procesów legislacyjnych na poziomie Unii Europejskiej. W tym przypadku również została zastosowana.
Klasyfikacja obszarów wysokiego ryzyka została rozszerzona o szkody dla zdrowia ludzi, bezpieczeństwa, praw podstawowych lub środowiska. Dostawcy AI będą zmuszeni do zagwarantowania ochrony praw podstawowych, zdrowia i bezpieczeństwa, środowiska, demokracji i praworządności.
Działamy bez cenzury. Nie puszczamy reklam, nie pobieramy opłat za teksty. Potrzebujemy Twojego wsparcia. Dorzuć się do mediów obywatelskich.
Systemy sztucznej inteligencji o niedopuszczalnym poziomie ryzyka dla bezpieczeństwa ludzi będą zabronione, w tym stosowanie technik podprogowych i manipulacyjnych, czy social scoring wykorzystywany do punktacji społecznościowej. Zakazana będzie również identyfikacja biometryczna w czasie rzeczywistym, co stanowi kluczowy krok dla ochrony wolności wypowiedzi, zgromadzeń i niedyskryminacji w miejscach publicznych. Parlament zagłosował również za zakazem kategoryzacji biometrycznej na podstawie czułych cech, takich jak płeć, rasa, seksualność czy pochodzenie etniczne oraz za zakazem rozpoznawania emocji w edukacji, miejscu pracy, przez policję i na granicach (także w obszarze predykcji kryminalnej).

Jak wskazuje Brando Benifei (członek grupy Postępowego Sojuszu Socjalistów i Demokratów w Parlamencie Europejskim, współsprawozdawca projektu AI Act):
„Jako Parlament Europejski poprzemy poprawkę (…) dotyczącą rozszerzenia zakazu scoringu społecznego na podmioty prywatne. Zabroniłoby to wykorzystywania sztucznej inteligencji do klasyfikowania obywateli do nielegalnych zastosowań – co ma miejsce w innych częściach świata. (…) Jedną rzeczą, której nie chcemy zmieniać, a która jest już w projekcie ustawy, jest zakaz rozpoznawania biometrycznego w czasie rzeczywistym. Przyjrzymy się wyjątkom dla organów ścigania, ale nie chcemy, aby ta praktyka została ogólnie przyjęta, ponieważ może to stworzyć wiele problemów w zakresie kontroli nad życiem obywateli. (…) Fakt, że sztuczna inteligencja obejmuje różne sektory, a przede wszystkim nie jest to jeszcze w pełni poznane, jest to jedno z największych wyzwań. (…) Kluczową rolą będzie prawodawstwo, które jest elastyczne w zakresie aktualizacji i można je dostosować, gdy rzeczy będą się zmieniać, ponieważ AI jest nadal bardzo rozwijającą się dziedziną.”[1]
Mimo próby odwrócenia porozumienia w sprawie nadzoru biometrycznego przez Europejską Partię Ludową,
europarlamentarzyści pokazali, że wsłuchują się w głosy obywateli (np. kampania Reclaim Your Face), którzy oczekują przestrzeni publicznych wolnych od rozpoznawania twarzy i innych masowych systemów biometrycznego monitoringu.
W AI Act położono też silny akcent na integracyjną rolę nowego Urzędu ds. AI. Ponadto proponuje się też ściślejsze dostosowanie do RODO. W swoich poprawkach do wniosku Komisji wskazano, aby systemy sztucznej inteligencji były bezpieczne i przejrzyste, nadzorowane przez ludzi, identyfikowalne, niedyskryminacyjne i przyjazne dla środowiska.
Niestety, Parlament Europejski nie wprowadził przepisów, które chroniłyby prawa migrantów przed systemami dyskryminacyjnego nadzoru, a mogą one ułatwiać nielegalne odesłania lub profilowanie osób w sposób dyskryminacyjny.
Pomimo pozostawienia pewnych luk w przepisach AI Act, nowa ustawa jest istotnym krokiem naprzód w ochronie naszych podstawowych praw. Daje nadzieję na lepszą regulację i odpowiedzialne wykorzystanie sztucznej inteligencji, otwierając drogę do dalszych ulepszeń i dostosowań w przyszłości.
[1] wypowiedzi z 9 marca 2022 roku – dentons.com