Felieton

Co dalej z AI? Czy Unia Europejska ureguluje działanie sztucznej inteligencji?

Sophia, humanoidalny robot firmy Hanson Robotics Ltd.
Sophia, humanoidalny robot firmy Hanson Robotics Ltd. fot. flickr (CC BY 2.0)

„Chatbot namówił ojca dwójki dzieci do samobójstwa”. Takie nagłówki można było niedawno znaleźć w belgijskich gazetach. Mężczyzna popełnił samobójstwo po rozmowach z chatbotem „Eliza”. Od dłuższego czasu dzielił się z AI swoimi obawami związanymi z globalnym ociepleniem. Rodzina zmarłego uważa, że bot pogorszył jego stan psychiczny i wierzy, że nie odebrałby sobie życia, gdyby nie rozmowy z AI.  

Jak mówi stare chińskie przekleństwo: „obyś żył w ciekawych czasach”. Można przypuszczać, że żyjemy w najciekawszych czasach od rewolucji przemysłowej.

W 2019 roku ujawniono, że holenderskie organy podatkowe wykorzystywały algorytmy do tworzenia profili osób, które potencjalnie mogłyby być skłonne do wyłudzania zasiłków opiekuńczych. System miał więc wyłapywać oszustwa na wczesnym etapie.

Jednak władze karały rodziny za samo podejrzenie możliwości popełnienia oszustwa na podstawie wskaźników ryzyka, które generował algorytm. Doprowadziło to do tragedii tysięcy rodzin, które i tak często znajdowały się w trudnej sytuacji życiowej.

Kontrola wykazała, że od ponad dwóch dekad organy podatkowe koncentrowały swoją uwagę na osobach o niskich dochodach oraz posiadających korzenie marokańskie lub tureckie. Według holenderskiej gazety „Trouw” kryteria profilu ryzyka zostały opracowane przez organ podatkowy. Najprawdopodobniej modele AI były szkolone na bazach danych, które od początku były pełne uprzedzeń i te uprzedzenia przeniosły na generowane wskaźniki ryzyka.

Najbardziej niepokoi fakt, że skandal wywołała nie korporacja, a państwowa jednostka budżetowa. Rolą państwa jest zapewnienie obywatelom równego traktowania i dostępu do pomocy społecznej. A tutaj mamy przykład oparty na uproszczeniach i stygmatyzacji. Państwo, zamiast tworzyć standardy, sięgnęło po najniższe uprzedzenia.

Firmy i rządy z całego świata są żywo zainteresowane wykorzystaniem algorytmów i sztucznej inteligencji do zautomatyzowania swoich systemów. Holenderski przykład pokazuje, jak wiele szkód może wyrządzić system bez odpowiednich zabezpieczeń i nadzoru.

A moglibyśmy przytoczyć jeszcze co najmniej kilka sytuacji, gdzie brak odpowiednich regulacji prawnych i nadzoru nad sztuczną inteligencją spowodował nadużycia.

Działamy bez cenzury. Nie puszczamy reklam, nie pobieramy opłat za teksty. Potrzebujemy Twojego wsparcia. Dorzuć się do mediów obywatelskich.

AI ACT – czy Unia Europejska ureguluje działanie AI?

Unia Europejska pracuje nad AI ACT, czyli regulacjami i zasadami stosowania sztucznej inteligencji, mającymi na celu ograniczenie szkód, jakie może wyrządzić ludziom.

Jest to podejście oparte na wspólnych wartościach etycznych ważnych dla Unii, co stawia ją w opozycji do podejścia chińskiego – opartego na totalnej kontroli państwa i niewielkim znaczeniu praw jednostki oraz w opozycji do modelu amerykańskiego, który pomija prawa najsłabszych obywateli. Które podejście będzie dominowało w Europie, przekonamy się już niebawem.

Komisja Europejska dąży do stworzenia europejskiego otoczenia regulacyjnego zasad działania sztucznej inteligencji. Celem AI Act (Artificial Intelligence Act) jest uregulowanie rynku technologicznego nie poprzez rodzaj usług czy produktu, ale biorąc pod uwagę wysokość ryzyka, jakie niesie AI. Akt prawny wyróżnia cztery rodzaje ryzyka:

  • nieakceptowalne (najwyższy poziom wiążący się z ryzykiem manipulacji),
  • wysokie,
  • ograniczone,
  • minimalne.

Wykorzystanie systemów, które cechuje nieakceptowalne ryzyko, będzie zakazane w Unii Europejskiej. Do przepisów będą musiały dostosować się wszystkie firmy i organizacje wykorzystujące rozwiązania AI.

Co ustawa oznacza dla obywatela?

Ustawa zakłada, że odpowiedzialność za działanie systemów wysokiego ryzyka spadnie na dostawców, czyli twórców systemów AI, chociaż lobby technologiczne próbowało tego uniknąć.

To na firmach będzie spoczywała odpowiedzialność za weryfikację, czy jej narzędzia nie wykorzystują sztucznej inteligencji do zakazanych praktyk. Zadaniem firm będzie także wdrożenie systemów kontroli danych i cyberbezpieczeństwa oraz określenie, jak dane rozwiązanie wpływa na człowieka.

Jak rozumieć sytuację, kiedy przedstawiciele gigantów technologicznych, jak Google, zwalniają ekspertki pracujące w zespole ds. sztucznej Inteligencji, zajmujące się aspektami etycznymi? Timnit Gebru i Margaret Mitchell zgłosiły zastrzeżenia, że aplikacje wiodących firm są podatne na seksizm i rasizm. Badaczki stwierdziły, że brak różnorodności wśród pracowników firm może doprowadzić do tego, że uprzedzenia twórców oprogramowania i systemów znajdą swoje odzwierciedlenie w rozwijanej przez firmę sztucznej inteligencji.

Timnit Gebru zajmowała się w Google badaniem ryzyka związanego z oprogramowaniem AI, a konkretnie – tzw. dużymi modelami językowymi. To technologia uczenia maszynowego oparta na sztucznych sieciach neuronowych. Jakość pisanego przez AI tekstu jest już ponoć tak wysoka, że trudno odróżnić go od języka ludzi.

Modele są już tak skuteczne, że mogą propagować uprzedzenia rasowe i płciowe, zdolne do naśladowania języka ludzi. Odbiorcy mogą nie mieć świadomości, że nie mają kontaktu z człowiekiem, lecz ze sztuczną inteligencją.

I tutaj pojawia się zagrożenie szerzenia dezinformacji przez sztuczną inteligencję.

Google i inni giganci nie chcą regulacji

Technologiczni giganci zwarli szyki i podejmują działania lobbingowe, aby skutecznie osłabić charakter oraz opóźnić wprowadzenie AI ACT. Firmy – w szczególności amerykańskie – starają się zmniejszyć wymagania stawiane systemom wysokiego ryzyka. Lobbyści podejmują działania, aby wyłączyć z regulacji systemy sztucznej inteligencji ogólnego przeznaczenia (General Purpose AI) i objąć nowym prawem wyłącznie firmy trzecie, czyli takie, które z tych usług korzystają. To zdejmowałoby odpowiedzialność z twórców tych systemów, a nakładało ją na barki firm-użytkowników.

A co z ograniczaniem naszej wolności przez sztuczną inteligencję?

Czy protestujemy dziś na ulicach i oburzamy się, że zabiera nam ona wolność? W praktyce może nam się wydawać, że firmy technologiczne, dostarczające produkty i usługi wykorzystujące sztuczną inteligencję, poszerzają nasze możliwości i zakres wyboru tychże usług i produktów. Jednak większość z nas zdaje już sobie sprawę, że firmy poprzez narzędzia AI sterują naszymi zachowaniami i preferencjami zakupowymi. Czy AI ACT zmieni coś w tym zakresie?

Chociaż przepisy RODO wywołują uśmiech na twarzy odbiorców, tak naprawdę dzięki tym regulacjom nasze dane osobowe są lepiej chronione, aniżeli Amerykanów czy Chińczyków. Podobnie może być w przypadku wejścia w życie AI ACT.

Europa podjęła rękawice i próbuje regulować działanie sztucznej inteligencji, chroniąc przy tym podstawowe prawa Europejczyków. Czy to się uda? Dowiemy się niebawem.

Sprawdź inne artykuły z tego wydania tygodnika:

Nr 171 / (15) 2023

Przejdź do archiwum tekstów na temat:

# Nowe technologie

Być może zainteresują Cię również: