Opinia

Apel o technorealizm

robot
Obraz sujin soman z Pixabay
Tygodnik Spraw Obywatelskich – logo

Nr 220 / (12) 2024

Apelujemy do polskich władz, przedsiębiorców i opinii publicznej o odrzucenie technoentuzjazmu i przyjęcie postawy technorealizmu. Technorealizm oznacza, że każde wdrożenie technologii w nowym, ważnym obszarze życia społecznego wymaga oceny – na wzór przeprowadzanej już dzisiaj oceny skutków regulacji oraz analiz ryzyka znanych z obszarów zajmujących się bezpieczeństwem (fragment apelu).

Na przełomie lat 2023 i 2024:

  1. Prezydent USA podpisał rozporządzenie wykonawcze dotyczące bezpieczeństwa AI [1]. Właściciele najpotężniejszych systemów sztucznej inteligencji zobowiązani są umożliwić władzom audyt swych algorytmów. Oddzielne, specjalne przepisy mają uregulować przeprowadzanie takich testów w odniesieniu do wykorzystania AI w infrastrukturze krytycznej oraz biologii syntetycznej.
  1. W brytyjskim Bletchley Park odbyła się międzynarodowa konferencja AI Safety Summit, gdzie premier Wielkiej Brytanii ogłosił decyzję o utworzeniu AI Safety Institute. Zajmie się on analizą ryzyk związanych z dalszym rozwojem sztucznej inteligencji, włącznie z ryzykiem utraty kontroli nad AI przez ludzkość [2].
  1. Zarząd firmy OpenAI usunął Sama Altmana z funkcji dyrektora. Według doniesień Reutersa przyczyną było zlekceważenie ostrzeżeń przesyłanych do zarządu przez część pracowników OpenAI, że doszło do przełomu, który potencjalnie stanowi zagrożenie dla ludzkości. Pod presją inwestorów po kilku dniach zarząd przywrócił Altmana na stanowisko dyrektorskie [3]
  1. Komisje rynku wewnętrznego i wolności obywatelskich Parlamentu Europejskiego przyjęły ostateczną treść unijnego rozporządzenia AI Act, którego głosowanie na zgromadzeniu plenarnym parlamentu przewidywane jest na pierwszy kwartał 2024 r.
  1. Zaobserwować można skokowe wzrosty możliwości modeli LLM, m.in. w obszarze tworzenia realistycznych materiałów wideo, np. z użyciem modelu SORA stworzonym przez OpenAI.

Oto dobitne przykłady tego, jak istotnie zmienia się postrzeganie ryzyk związanych ze słabo kontrolowanym rozwojem technologii, w tym zwłaszcza AI. Technoentuzjazm, do niedawna niekwestionowany, coraz częściej jest kontestowany.

Technoentuzjazm to postawa zakładająca, że:

  1. nowe technologie, w tym cyfrowe, są zasadniczo korzystne dla człowieka;
  2. ich ewentualne wady da się zawsze usunąć dzięki kolejnym technologiom i że będzie na to czas;
  3. niezależnie od powodzenia tych korekt, tj. nawet w obliczu poważnych skutków negatywnych, rozwoju technologii i tak nie da się zahamować ani kontrolować.

Apelujemy do polskich władz, przedsiębiorców i opinii publicznej o odrzucenie tak rozumianego technoentuzjazmu i przyjęcie postawy technorealizmu.

Technorealizm oznacza, że każde wdrożenie technologii w nowym, ważnym obszarze życia społecznego wymaga oceny – na wzór przeprowadzanej już dzisiaj oceny skutków regulacji oraz analiz ryzyka znanych z obszarów zajmujących się bezpieczeństwem. Potrzebujemy systematycznej i ciągłej, zinstytucjonalizowanej oceny oddziaływania nowych technologii – w edukacji, opiece zdrowotnej, polityce socjalnej i innych sferach odpowiedzialności państwa.

W praktyce wymaga to przyjęcia zasady ostrożności wobec technologii.

Przykładem realizacji tej zasady w edukacji (lukratywnym rynku dla Big Techu) może być konieczność wykazania przez podmiot proponujący nowe rozwiązanie technologiczne, że proponowana technologia lub urządzenie przynosi uczniom korzyści. Nie możemy godzić się na eksperymenty na umysłach młodych ludzi. Liczne badania naukowe pokazują, że korzyści z nowych technologii (zwłaszcza ekranowych) w procesie nauczania są co najmniej wątpliwe, a nierzadko skutki ich wprowadzenia wręcz szkodliwe [4].

Nie musimy być bezwolni wobec niekontrolowanego rozwoju technologicznego, choć firmom technologicznym taka sytuacja bywa na rękę.

Nie brakuje konstruktywnych pomysłów uregulowania wpływu technologii na nasze życie jak na przykład tych opracowanych przez badacza z Cornell University Franka Pasquale dotyczących rozwoju AI i robotów autonomicznych. Jednym z nich jest to, że systemy te nie mogą „imitować człowieczeństwa”: ludzie zawsze muszą wiedzieć, czy mają do czynienia z człowiekiem czy też maszyną [5].

Z kolei profesor prawa Gaia Bernstein przedstawiła precyzyjny scenariusz uregulowania cyfrowych technologii uzależniających, w szczególności aplikacji na smartfony oraz gier komputerowych [6]. Nie musimy rezygnować z nowoczesnych technologii: trzeba jednak przystosowywać je do naszej wizji dobrego społeczeństwa. Dzisiaj, niestety, to my przystosowujemy się do rozwiązań technologicznych, w tym takich, które projektowane były z myślą o uzależnieniu nas, lub które niosą nieprzewidziane ale poważne skutki uboczne.

Apelujemy o poszukiwanie takich sposobów uregulowania technologii, które pozwolą nam odzyskać przynajmniej podstawowy poziom kontroli nad kierunkami rozwoju społecznego.

Rewolucja cyfrowa niesie zmiany zbyt szybkie i zarazem zbyt głębokie, byśmy mogli jedynie biernie im się przyglądać. Nie wszystkie społeczeństwa te zmiany przetrwają. Okiełznanie rozwoju technologicznego jest niezbędnym warunkiem zabezpieczenia suwerenności Polski, ale także przetrwania demokracji w skali globalnej.

Warszawa, 7 marca 2024 r.

Uczestnicy konferencji pt. „Technorealizm: perspektywa zarządzania rozwojem technologii” zorganizowanej przez Ośrodek Studiów nad Wyzwaniami Cywilizacyjnymi Centrum Badań nad Bezpieczeństwem Akademii Sztuki Wojennej 14 grudnia 2023, Warszawa-Rembertów


Przypisy:

[1] FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, 30.10.2023, [dostęp: 18.03.2024]

[2] Prime Minister launches new AI Safety Institute, 2.11.2023, [dostęp: 18.03.2024]

[3] OpenAI researchers warned board of AI breakthrough ahead of CEO ouster, sources say, 23.11.2024, [dostęp: 18.03.2024]

[4] Zob. np. K. H. James, “The Importance of Handwriting Experience on the Development of the Literate Brain”, Current Directions in Psychological Science, 2017, 26(6), 502–508; Gori, M., Del Viva, M., Sandini, G. et al.” Young children do not integrate visual and haptic information”, Nature Precedings (2008), https://doi.org/10.1038/npre.2008.1521.1.

[5] F. Pasquale, New Laws of Robotics. Defending Human Expertise in the Age of AI, 2020.

[6] G. Bernstein, Unwired: Gaining Control over Addictive Technologies, Cambridge University Press 2023.

Sprawdź inne artykuły z tego wydania tygodnika:

Nr 220 / (12) 2024

Przejdź do archiwum tekstów na temat:

# Nowe technologie # Społeczeństwo i kultura

Być może zainteresują Cię również: