AI ACT coraz bliżej. Trzymamy rękę na pulsie

Obrady Parlamentu Europejskiego - Ursula von der Leyen
Obrady Parlamentu Europejskiego - Ursula von der Leyen, fot. flickr CC BY 2.0

8 grudnia 2023 roku, po ponad 36 godzinach negocjacji pomiędzy Komisją Europejską, Radą UE oraz Parlamentem Europejskim, doszło do zawarcia umowy tymczasowej w sprawie unijnej ustawy o sztucznej inteligencji (AI ACT). Europa ma szansę stać się pionierem w wyznaczaniu trendów oraz określaniu kierunku rozwoju sztucznej inteligencji. W skali światowej jest to bowiem pierwsza próba stworzenia prawa regulującego AI.

Zasadniczo prace nad unijnym aktem prawnym trwają już od kwietnia 2021 roku. Wyraźnie przyspieszyły na początku roku 2023, kiedy to po udostępnieniu przez firmę OpenAI modelu językowego ChatGPT, popularność oraz publiczna dostępność narzędzi opartych na sztucznej inteligencji znacznie wzrosły.

Jak utrzymać AI w ryzach?

Podstawowym mechanizmem nowego prawa jest podejście oparte na ocenie ryzyka. Im wyższe ryzyko przy stosowaniu danego systemu sztucznej inteligencji, tym surowsze przepisy.

Obradujące w trilogu (Komisja Europejska, Rada UE oraz Parlament Europejski) strony zgodziły się na wprowadzenie środków ostrożności dla ogólnej (silnej) sztucznej inteligencji (GPAI), czyli takiej, która może działać wszechstronnie. Systemy oceniania społecznego oraz użycie sztucznej inteligencji do manipulacji lub wykorzystywania słabości użytkowników mają zostać zakazane. Planuje się ograniczenie stosowania systemów identyfikacji biometrycznej przez organy ścigania oraz zapewnienie konsumentom prawa do składania skarg i uzyskiwania wyjaśnień.

W przypadku nieprzestrzegania przepisów nakładane będą kary pieniężne, które sięgać mogą do 7,5 miliona euro lub 1,5% obrotu lub od 35 milionów euro lub 7% światowego obrotu danego przedsiębiorstwa.

Przewidziane środki nadzoru mogą jednak okazać się niewystarczające; w porozumieniu wciąż bowiem znajdują się luki prawne.

Przykładowo, wymienione wyżej obwarowania dotyczące użycia danych biometrycznych nie mają zastosowania w przypadku kwestii obrony państwa. Przedsiębiorstwa same mają definiować też stopień ryzyka tworzonych przez siebie systemów, co czyni system prawny podatny na manipulacje. Z drugiej strony, biurokratyczne wymogi oraz wąskie gardła regulacji mogą znacznie utrudnić rozwój małym i średniej wielkości przedsiębiorstwom (z ang. SME), których zasoby często bywają ograniczone.

Działamy bez cenzury. Nie puszczamy reklam, nie pobieramy opłat za teksty. Potrzebujemy Twojego wsparcia. Dorzuć się do mediów obywatelskich.

W oczekiwaniu na dalsze kroki

Tekst porozumienia musi teraz zostać oficjalnie przyjęty przez Parlament Europejski oraz Radę UE, ciała ustawodawcze Unii.

Ustalenia zawarte w dokumencie powinny wejść w życie ciągu dwóch lat od przegłosowania, a więc w roku 2026.

AI ACT to nie tylko gwarancja odpowiedzialnego i transparentnego rozwoju sztucznej inteligencji oraz bezpieczeństwa dla obywateli UE. Jak zauważyli przedstawiciele DigitalEurope, od kształtu ustawy zależy również, jakie szanse na rynku nowych technologii odsłonią się dla firm, w szczególności małych i średnich przedsiębiorstw (SME) oraz startupów. Aby zapewnić Europie konkurencyjność w dynamicznie zmieniającym się świecie branży AI, tworzone prawo musi przeciwdziałać nadużyciom, jednocześnie wspierając innowacyjność.

Sprawdź inne artykuły z tego wydania tygodnika:

NR 206 / (50) 2023

Przejdź do archiwum tekstów na temat:

# Nowe technologie # Świat

Być może zainteresują Cię również: