Książka

Robert Fabricant, Cliff Kuang: User Friendly…

okładka książki User Friendly
Tygodnik Spraw Obywatelskich – logo

Nr 188 (32) / 2023

Jak niewidoczne zasady projektowania zmieniają nasze życie, pracę i rozrywkę? Historia dizajnu zorientowanego na użytkownika obfituje w fascynujące opowieści i nieoczekiwane zwroty akcji. Autorzy książki opowiadają o wpływie, jaki na wzornictwo wywarły globalne kryzysy, wojny światowe i awarie pewnej elektrowni jądrowej. Pokazują, jak projektowanie dla osób ze specjalnymi potrzebami utorowało drogę wynalazkom, bez których nikt z nas nie wyobraża już sobie życia. Sporo też piszą o tajnikach projektowania najnowszych technologii – od pojazdów autonomicznych, poprzez media społecznościowe, po sztuczną inteligencję. Analizują nasze oczekiwania wobec urządzeń oraz sposób, w jaki nawiązujemy z nimi relacje (od Wydawcy).

Wydawnictwu Karakter dziękujemy za udostępnienie fragmentu do publikacji. Zachęcamy do lektury całej książki.

9. Groźba

W pierwszej dekadzie XX wieku Burrhus Frederic Skinner był jeszcze dzieckiem. Choć jego wybitne osiągnięcia na polu psychologii miały nadejść dopiero za kilkadziesiąt lat, już wtedy w jego głowie rozwijał się ich zalążek. Jako dziesięcioletni chłopiec zakładał, że człowieka można dostroić do okoliczności, jak maszynę. Tę śmiałą hipotezę testował na samym sobie. Pewnego razu, wysłuchując napomnień matki, żeby sprzątał po sobie ubrania, postanowił oduczyć się zapominalstwa dzięki przeprojektowaniu swojego pokoju. W pierwszej kolejności przed drzwiami ustawił poziomo chorągiewkę, tak by blokowała wyjście. Następnie przywiązał do niej sznurek przepuszczony przez prowizoryczny bloczek, a na drugim końcu zaczepił haczyk. Mechanizm ten sprawiał, że flaga unosiła się dopiero wtedy, gdy powiesił swoją piżamę na haczyku[1]. Najwyraźniej Skinner kierował się następującą myślą, nawet jeśli nie potrafił jej wówczas ubrać w słowa: kiedy muszę zrobić coś, czego nie chcę, nie potrafię tego zapamiętać, ale odpowiednio zaprojektowane środowisko wymusi na mnie właściwe zachowanie. Idea ta nawiedzała go przez resztę życia z zaskakującą regularnością.

(…)

Skinner od najmłodszych lat cieszył się uznaniem nauczycieli, którzy wróżyli mu świetlaną przyszłość. Po ukończeniu college’u zapisał się więc na studia doktoranckie na Uniwersytecie Harvarda. (…) Skinner pragnął uczynić psychologię zwierząt dziedziną dorównującą naukom ścisłym pod względem metodologicznego rygoru – wyeliminować z niej potrzebę subiektywnej interpretacji zwierzęcych zachowań. Ponownie zabrał się więc za majsterkowanie, a na przełom nie trzeba było długo czekać. Wkrótce stworzył sprzęt badawczy, który nazwano na jego część „klatką Skinnera”[2]. Urządzenie to jest zdumiewającym echem jego pierwszych inżynieryjnych projektów, realizowanych jeszcze w dziecięcym pokoju. Ujawnia się w nim także towarzyszące mu od najmłodszych lat dążenie do kształtowania zachowania za pomocą otoczenia. Urządzenie miało formę komory – zdolnej pomieścić szczura, gołębia lub inne małe zwierzę – z wbudowanym głośnikiem lub lampką oraz dźwignią, po której naciśnięciu z podajnika wypadał pokarm. Celem eksperymentów prowadzonych z użyciem klatki Skinnera było sprawdzenie, czy nieszczęsne stworzenie zamknięte wewnątrz jest w stanie pojąć istotę związku przyczynowo-skutkowego – nauczyć się, że naciśnięcie dźwigni w odpowiedzi na określony bodziec przyniesie mu nagrodę.

Na pierwszy rzut oka jego badania nie wydają się szczególnie doniosłe. (…)

Kiedy stał się czołowym autorytetem naukowym, a jego klatka obudowana została ideologią, która zdominowała psychologię na lata, przekonywał, że „po odkryciu właściwej przyczyny zachowania nie ma konieczności poszukiwania jej wewnętrznych, pozornych czynników sprawczych. Wolna wola staje się pojęciem zbędnym”[3].

O tych niestrudzonych próbach sprowadzania ludzkiej osobowości do wytworu otoczenia warto pamiętać, zwłaszcza że jedno z odkryć Skinnera dotyczy najbardziej niepokojącego mechanizmu wbudowanego w świat przyjazny użytkownikowi. Skinner wpadł na jego ślad, zastanawiając się nad stosunkowo prostym problemem: jak nieprzewidywalność nagród wpłynie na szybkość reakcji szczurów?

Może się wydawać, że gryzonie będą reagować szybciej w przypadku nagród pojawiających się po każdym spełnieniu określonych warunków, a wolniej, gdy jest to niepewne – gdy istnieje jedynie jakaś bliżej nieokreślona szansa na nagrodę. Tymczasem eksperymenty Skinnera wykazały, że jest zupełnie odwrotnie. Szczury oczywiście wypatrywały pokarmu dostarczanego regularnie, ale wpadały w istny amok, gdy był podawany w sposób losowy[4].

(…)

Klatki Skinnera, kuszące perspektywą zmiennych nagród, można obecnie znaleźć wszędzie, ukryte pod innymi nazwami: Facebook, Instagram, Gmail, Twitter. Pierwsze, co robimy po przebudzeniu, to sprawdzenie Facebooka, Instagrama lub e-maila. Wiadomości i lajki napływające na nasze telefony mogą nas połechtać lub rozdrażnić. Albo po prostu znużyć. Nigdy nie wiadomo, co akurat się trafi. Ile polubień zbierze nasz post? W ten oto sposób po kilku minutach bezwiednie powtarzamy cały cykl: Facebook, Instagram, Twitter. Każda z tych aplikacji ma do tego poręczny gest szybkiego odświeżania – wystarczy na przykład przesunąć palcem po ekranie albo wcisnąć guzik, a trafi do nas świeża porcja newsów podana jak na tacy. Funkcja ta jest niczym innym, jak tylko zmodyfikowaną wersją dźwigni jednorękiego bandyty. Czasem nasze wysiłki spełzają na niczym, a czasem rozbijamy bank. To właśnie ta zmienność sprawia, że nie możemy oderwać się od telefonów.

(…)

Moi rodzice pochodzą z Tajwanu. Jestem synem mężczyzny, który przybył do Ameryki, by się kształcić, i kobiety, która zakończyła swoją edukację na szkole podstawowej. Całe swoje obecne życie – satysfakcjonującą pracę, dobre wykształcenie, kochaną żonę i przekonanie, że moje dziecko zasługuje na podobne szanse – zawdzięczam ogromnej zdolności amerykańskiego społeczeństwa do integracji kulturowej. Niezwykła historia rozwoju gospodarczego mojego kraju napisana została przez imigrantów poszukujących lepszego życia dla siebie i swoich bliskich. Dlatego 9 listopada 2016 roku, w dniu ogłoszenia wyników wyborów prezydenckich, zacząłem się zastanawiać – jak zapewne miliony Amerykanów – czy nasz kraj odwrócił się od ideałów, na których został zbudowany. Rozkład głosów wyborców i powyborcze analizy nie dawały żadnej jasnej odpowiedzi, dlaczego Clinton przegrała. Trudno było znaleźć w nich oparcie, ponieważ nie mówiły, jak możemy sobie z tym wszystkim poradzić. I wtedy natrafiłem na esej Maxa Reada: „Donald Trump wygrał dzięki Facebookowi”[5]

Zgodnie z główną przesłanką jego tekstu, której prawdziwość potwierdziły późniejsze analizy,

Facebook pozwala na rozprzestrzenianie nie tyle informacji, ile afirmacji. Za sprawą przycisku „Lubię to!”, stworzonego przez Rosensteina i Pearlman, oraz algorytmów śledzących lajki zostaliśmy otoczeni wygodnym, szczelnym kokonem przekazów medialnych zgodnych z wyznawaną przez nas ideologią.

Wpis błędnie sugerujący, że papież popiera kandydaturę Trumpa, został udostępniony 868 tysięcy razy, tymczasem artykuł prostujący tę zmyśloną historię jedynie 33 tysiące razy[6]. Kłamstwo zdoła obiec świat, nim prawda założy buty, ponieważ jeśli jakaś narracja zgadza się z naszym światopoglądem, wystarczy przekazać ją dalej. Poznanie prawdy wymaga kliknięcia nagłówka. Jak zauważył jeden z moich kolegów po fachu, Facebook stworzył dwudziestopierwszowieczny cyfrowy odpowiednik osiedli Levittown: miejsce sztucznej jednorodności, a nie różnorodności, w którym użytkownicy otaczani są przez wirtualnych sąsiadów o dokładnie takich samych poglądach jak ich własne[7].

W innych częściach świata dezinformacja ma nawet bardziej opłakane skutki niż na Zachodzie.

W czasie gdy Stany Zjednoczone i Wielka Brytania rozpoczynały swoje dochodzenia w sprawie wpływu Facebooka na wyniki amerykańskich wyborów prezydenckich z 2016 roku oraz referendum w sprawie Brexitu, przez Mjanmę przetoczyła się fala nienawiści i przemocy wobec Rohingja, muzułmańskiej mniejszości etnicznej od dziesiątek lat prześladowanej przez skrajnie nacjonalistycznych buddystów.

Krwawe pogromy już wcześniej zdarzały się tam z przeraźliwą regularnością, ale w roku 2017, gdy tragiczną śmierć poniosło 6700 Rohingja, 354 wioski spalono, a co najmniej 650 tysięcy mieszkańców zostało zmuszonych do porzucenia swoich domostw i ucieczki do Bangladeszu, ONZ potwierdziło, że to Facebook dolewa oliwy do ognia, umożliwiając szerzenie dezinformacji[8]. Podobną rolę platforma odegrała także podczas kolejnego antymuzułmańskiego powstania w Sri Lance oraz linczów w Indiach, Indonezji i Meksyku. Wpisy podżegające do każdego z tych incydentów pojawiły się na Facebooku i dzięki niemu docierały do kolejnych osób.

„Nie winimy wyłącznie Facebooka. Zarazki są nasze, a Facebook tylko je rozsiewa” – stwierdził jeden z urzędników państwowych Sri Lanki[9]. Mimo to serwis społecznościowy nie był jedynie wichrem pędzącym plagę ludobójstwa dalej niż kiedykolwiek przedtem; wbudowane w niego mechanizmy dostarczania informacji zwrotnych, wykorzystujące naszą pierwotną potrzebę afirmacji, sprawiają, że jego rola w tym procesie jest znacznie bardziej fundamentalna (wystarczy zacytować tytuł jednego z artykułów na ten temat: „Były dyrektor Facebooka uważa, że media społecznościowe niszczą społeczeństwo za pomocą »dopaminowych pętli sprzężenia zwrotnego«”[10]). Jak można wyczytać z artykułu „New York Timesa”, którego autorzy prześledzili losy wpisów propagujących fałszywą historię o aptekarzu ze Sri Lanki potajemnie podającym swoim buddyjskim klientom środki powodujące bezpłodność, „Facebook zdaje się przede wszystkim podsycać pierwotne instynkty plemienne. Posty przedstawiające świat w kategoriach »my« kontra »oni« w naturalny sposób zyskują popularność, ponieważ są sposobem na realizację potrzeby przynależności. Interfejs serwisu wykorzystuje elementy typowe dla gier i nagradza zaangażowanie, dając użytkownikom zastrzyk dopaminy za każdym razem, gdy ich wpisy zbiorą polubienia. W ten sposób utrwalane są zachowania, które spotykają się z afirmacją. A ponieważ algorytm preferuje treści negatywne, mimo że nie został z tą myślą zaprojektowany, najsilniejszego wzmocnienia dostarcza atakowanie outsiderów: fanów innej drużyny sportowej, zwolenników innej partii politycznej, przedstawicieli mniejszości narodowych[11].

Co więcej, nawet jeśli na ulicach ludziom przychodzą do głowy równie okropne, krzywdzące myśli, przed ich wyrażaniem zwykle powstrzymują ich normy zachowania obowiązujące w przestrzeni publicznej. W końcu na tym zasadza się nasze społeczeństwo: na krzewieniu pewnych zachowań i wykorzenianiu innych, tak by pielęgnować określonego rodzaju wspólnoty i uniemożliwiać rozwijanie się tym niepożądanym. To jego podstawowa funkcja. Facebook ułatwia natomiast uzewnętrznianie niskich pobudek i – w przeciwieństwie do przestrzeni publicznej – nagradza te skrajne zachowania polubieniami. Dzięki niespotykanym wcześniej mechanizmom feedbacku użytkownicy stają się świadomi istnienia innych podobnie myślących ludzi. Ten sygnał zostaje następnie wzmocniony, a opinie skrajne, dawniej nieśmiało powtarzane jedynie pod nosem, zmieniają się w okrzepły światopogląd, wykrzyczany światu wielkimi literami. To więcej niż tylko otaczanie się kokonem wirtualnej społeczności połączonej wspólną ideologią.

Afirmowanie przejawów mrocznej części ludzkiej natury sprawia, że grupy skrajne poczuwają się do bycia reprezentantami większości, a świadomość, że nie są odosobnieni we własnych poglądach, prowadzi ich członków do dalszej radykalizacji ich myślenia i zachowań. Łatwość oraz wygoda dizajnu przyjaznego użytkownikom pozwalają im stawać się najgorszą wersją siebie.

Z jego pomocą rozpętanie medialnej burzy i podsycanie społecznych niepokojów staje się dziecinnie proste. W swoich artykułach opisałem tysiące historii ze świata cyfrowego dizajnu. Miałem także okazję samemu projektować produkty cyfrowe. Na żadnym poprzednim etapie mojej kariery nie kwestionowałem jednak założenia, że usuwanie wszelkich niedogodności użytkowania jest bezwarunkowo dobre. Podejście to stawiałem na równi z nauką, sprawnie działającymi rynkami i niezawisłymi sądami. Czy taki przyjazny użytkownikowi świat aby na pewno jest wszystkim, na co nas stać?

W kolejnych miesiącach po wyborach prezydenckich skonsternowani członkowie sztabu Hillary Clinton zastanawiali się, jak mogli się tak przeliczyć w starciu z Donaldem Trumpem. W mediach tymczasem zaczęły pojawiać się pierwsze doniesienia o tajemniczej spółce Cambridge Analytica, zajmującej się analizą dużych zbiorów danych, i milionach dolarów, które otrzymała na wsparcie kampanii Trumpa[12]. Firma nie była innowatorem technologii. Czerpała inspirację z pracy Michała Kosińskiego, młodego psychologa zatrudnionego na Uniwersytecie w Cambridge.

Działamy bez cenzury. Nie puszczamy reklam, nie pobieramy opłat za teksty. Potrzebujemy Twojego wsparcia. Dorzuć się do mediów obywatelskich.

Kosiński zazwyczaj ubiera się w strój inwestora: beżowe chinosy i odprasowaną koszulę na guziki włożoną w spodnie (gdyby nosił ją wyciągniętą na wierzch, można by pomyśleć, że jest kolejnym start-upowym wizjonerem). Jak mógłby go jednak opisać jeden z badanych przez niego algorytmów, jego włosy są o 17,2 procent zbyt niesforne, a jego kilkudniowy zarost o 10,9 procent za długi. Jest nieugiętym kontestatorem – typem człowieka, który nie zawaha się zapytać napotkanego na drodze przechodnia, dlaczego wierzy w Boga. Kosiński twierdzi, że to zasługa młodości spędzonej w Polsce, w której ostra wymiana zdań jest narodowym hobby. Przyznaje też, że ta wrodzona swarliwość nadała kierunek jego karierze. Stał się dzięki niej Kasandrą wieszczącą ponurą przyszłość, jaką może zgotować nam analiza licznych śladów pozostawianych przez nas w sieci.

Kosiński obronił pracę magisterską poświęconą psychometrii, a stopień doktora otrzymał z psychologii. Zgodnie z jednym z podstawowych założeń tej dyscypliny ludzką osobowość i wszystkie jej zawiłości oraz niejasności można sprowadzić do pięciu cech – tak zwanej wielkiej piątki, określanej angielskim skrótowcem OCEAN – które u każdego ujawniają się w innych proporcjach: otwartości (ang. openness), czyli ciekawości nowych doświadczeń; sumienności (ang. conscientiousness), inaczej perfekcjonizmu; ekstrawersji (ang. extraversion); ugodowości (ang. agreeableness), określającej nastawienie do innych ludzi i zdolność do współpracy; oraz neurotyczności (ang. neuroticism), decydującej o tym, jak łatwo wytrącić daną osobę z równowagi emocjonalnej. W roku 2012 Kosiński pracował nad adaptacyjną wersją kwestionariusza osobowości opartego na modelu OCEAN, w którym kolejne pytania zmieniałyby się na podstawie udzielonych wcześniej odpowiedzi, skracając czas potrzebny na przeprowadzenie testu. Kosiński i jego współpracownik dostrzegli wówczas szansę na zebranie większej ilości danych: wystarczyłoby, że udostępnią kwestionariusz online. Stworzyli więc jego wersję na Facebooka, a ta szybko stała się niezwykle popularna, przyciągając miliony użytkowników. Kosiński zrozumiał, że ma do dyspozycji zbiór danych, jakiego świat jeszcze nie widział.

Wyniki kwestionariusza nie tylko wskazywały cechy osobowości respondentów, ale można było je także skorelować z ich aktywnością na Facebooku oraz danymi osobowymi umieszczonymi na ich profilach.

– Uświadomiłem sobie, że od analizy cyfrowych śladów użytkowników wiedzie bardzo krótka droga do stworzenia w pełni zautomatyzowanego sposobu opisywania ich osobowości  – wspomina Kosiński[13].

Wyniki jego badań były zaskakujące. Zaledwie kilkadziesiąt polubień wystarczyło, by model Kosińskiego określił kolor skóry użytkownika z pewnością rzędu 95 procent. W przypadku orientacji seksualnej i poglądów politycznych było bardzo podobnie: odpowiednio 88 i 85 procent.

W granicach możliwości predykcyjnych modelu znalazły się także: stan cywilny, wyznawana religia, posiadane nałogi, a nawet sytuacja rodzinna. Wraz ze wzrostem liczby danych, którymi dysponowali badacze, wyniki analizy stawały się coraz bardziej precyzyjne, z czasem wręcz niepokojąco precyzyjne. Wystarczyło 70 lajków, by model był w stanie przewidzieć odpowiedzi udzielone przez respondentów na teście osobowości lepiej niż ich przyjaciele. Przy 150 przebijał nawet rodziców. Kolejne 150 ujawniało niuanse osobowości i subtelne zabarwienia preferencji nieznane nawet życiowym partnerom respondentów[14]. Kiedy Kosiński opublikował wyniki swoich badań 9 kwietnia 2013 roku, skontaktował się z nim rekruter z Facebooka, proponując posadę w zespole zajmującym się analizą dużych zbiorów danych (ang. data science). Gdy później Kosiński sprawdził swoją skrzynkę pocztową, znalazł w niej pismo od prawników Facebooka, w którym grozili mu pozwem.

Firma szybko zareagowała, umożliwiając użytkownikom ukrycie swojej aktywności, ale na zawrócenie dalszego biegu spraw było już za późno – puszka Pandory została otwarta. Kosiński pokazał, że na podstawie polubień zostawionych przez użytkowników na Facebooku można odkryć ich osobowość. A jeśli znamy czyjąś osobowość, możemy łatwo dostosowywać wyświetlane na stronie treści do preferencji tej osoby – wiemy, co ją zezłości, przerazi, zmotywuje lub wyalienuje. Nie trzeba było długo czekać, aż z Kosińskim skontaktuje się Cambridge Analytica, ukrywająca się za spółką fasadową, i zaproponuje mu współpracę. Kosiński odrzucił ich ofertę i później z niepokojem obserwował kolejne doniesienia medialne o tym, jak sztab wyborczy Trumpa tworzył reklamy na Facebooka, mające wywołać oburzenie u bardzo wąskich grup odbiorców.

W roku 2016 dyrektor wykonawczy Cambridge Analytica i twierdził, że jego firma opracowała cyfrowe profile niemal wszystkich dorosłych obywateli Stanów Zjednoczonych – łącznie dwustu dwudziestu milionów ludzi.

Szacuje się, że przed wyborami firma testowała od czterdziestu do pięćdziesięciu tysięcy reklam dziennie, żeby znaleźć najlepsze sposoby na nakłonienie elektoratu Trumpa do pójścia do urn – lub zniechęcenie do głosowania tych, którzy nie byli mu przychylni[15]. Jedną z grup społecznych, które znalazły się na celowniku, byli czarni wyborcy z haitańskiej wspólnoty w Miami. Pracownicy sztabu Trumpa odpowiedzialni za jego kampanię w sieci przyznali się do wyświetlania im artykułów donoszących o defraudacji pieniędzy przeznaczonych na niesienie pomocy ofiarom katastrofalnego trzęsienia ziemi na Haiti w 2010 roku, jakiej rzekomo miała dopuścić się Fundacja Clintonów[16]. Kilka miesięcy później dziennikarze zaczęli kwestionować zapewnienia Cambridge Analytica na temat możliwości stosowanych przez nich algorytmów[17]. Nikt nie miał jednak wątpliwości, że w przypadku samego Facebooka nie byłyby to jedynie czcze przechwałki.

Namacalny dowód na to w postaci wewnętrznego dokumentu ujawnionego przez dziennikarzy z „The Australian” pojawił się niedługo po ogłoszeniu wyników wyborów. Dyrektorzy australijskiej filii Facebooka sugerowali w nim, że są w stanie zidentyfikować nastoletnich odbiorców, którym „brakuje wiary w samych siebie”, którzy „czują się bezużyteczni” lub „potrzebują czegoś na podniesienie własnej samooceny”. Facebook zareagował niemal natychmiast, wydając oficjalne oświadczenie i zapewniając, że nie udostępnia zewnętrznym podmiotom narzędzi pozwalających na rozpoznawanie stanu emocjonalnego użytkowników[18]. Firma nie mogła jednak udawać, że nie leżało to w granicach jej możliwości. Badania Kosińskiego w zdumiewający sposób wykazały, że reklamodawcy z Facebooka nie muszą polegać na prymitywnych metodach identyfikacji grup docelowych na podstawie informacji demograficznych. Nawet szczątkowe dane o aktywności użytkowników wystarczą do tworzenia przekazów dostosowanych do ich osobowości – przewidywania, jakie treści wywołają u nich pozytywne reakcje, a jakie negatywne. Po raz pierwszy w historii dizajnu przyjaznego użytkownikowi możliwe stało się kształtowanie doświadczeń nie na podstawie apriorycznych założeń, lecz realnej, empirycznej wiedzy.

Mark Zuckerberg od zawsze opisywał swoje ambicje językiem zapożyczonym od projektantów, twierdząc, że użytkownicy Facebooka są szczęśliwsi i bardziej zadowoleni z życia, ponieważ serwis „zbliża ludzi z całego świata do siebie”.

Jego dzieło jest jednak znacznie bardziej monumentalne: stworzył serwis potrafiący zrozumieć swoich użytkowników, mierząc działanie mechanizmów ich osobowości z precyzją, o której nikomu wcześniej się nie śniło. Zbudował największą klatkę Skinnera na świecie – machinę skupioną na użytkownikach, a zarazem im nieprzyjazną. Jest w tym pewna ponura ironia. Gdy Skinner zbudował swoją eksperymentalną klatkę, utrzymywał, że nie warto trwonić sil na spekulowanie na temat wewnętrznych stanów zwierzęcia, skoro jego zachowanie można opisać za pomocą samych bodźców i nagród. Szkodliwość Facebooka polega zaś właśnie na tym, że pozwala obcym ludziom, kierującym się nieznanymi nam pobudkami, zrozumieć, kim jesteśmy, i dokładnie przewidzieć, jak się zachowamy.

(…)

Gwoli ścisłości, skupiłem się na Facebooku ze względu na jego wyraźny i rozległy wpływ na nasze społeczeństwo. Prawda jest jednak taka, że każdy z obecnych na rynku nowych technologii gigantów, którego pozycja zbudowana została na dizajnie przyjaznym użytkownikowi, ma swoje za uszami.

Pod cienką warstwą interfejsu ich produkty skrywają nieznane skutki oraz koszty, zarówno materialne, jak i społeczne. Nie widzimy, na przykład, pracowników magazynów Amazona ledwo wiążących koniec z końcem, dla których często przez długi czas nie ma żadnej pracy, a którzy potem zmuszeni zostają do podejmowania się wycieńczających dwunastogodzinnych zmian. Apple umożliwiło powstanie Facebooka, głosząc wiarę, że całe życie musi zmieścić się na malutkim ekranie smartfona. W ten sposób poddało nasze doświadczenia dosłownej miniaturyzacji, przekładając je na coraz węższy wachlarz wyborów. Choć Google uniknęło karcącego spojrzenia opinii publicznej, które w ostatnich latach padło na Facebooka, przedsiębiorstwo to również w trudny do rozeznania sposób kształtuje nasz obraz świata, decydując o kolejności wyświetlanych nam treści.

Fabricant, Kuang_User friendly - okładka książki

Robert Fabricant, Cliff Kuang, User Friendly. Jak niewidoczne zasady projektowania zmieniają nasze życie, pracę i rozrywkę, Wydawnictwo Karakter, 2022


Przypisy:

[1] Daniel W. Bjork, B.F. Skinner: A Life, Waszyngton, D.C.: American Psychological Association, 1997, s. 13, 18.

[2] Tamże, s. 80.

[3] XXPorcelinaX, Skinner – Free Will, YouTube, 13.07.2012.

[4] Natasha Dow Schüll, Addiction by Design: Machine Gambling in Las Vegas, Princeton, NJ: Princeton University Press, 2014, s.108.

[5] Max Read, Donald Trump Won Because of Facebook, „New York”, 9.11.2016.

[6] Joshua Benton, The Forces That Drove This Election’s Media Failure Are Likely to Get Worse, „Nieman Lab”, 9.11.2016.

[7] Nazwą Levittown określane są amerykańskie osiedla miejskie wybudowane po II wojnie światowej przez spółkę Levitt & Sons. Złą sławą okryły się z powodu rasistowskiej polityki prowadzonej przez dewelopera: prawa do kupna i wynajmowania domów na ich terenie odmawiano przedstawicielom mniejszości narodowych. Przypadek osiedli Levittown nie był odosobniony i zaliczany jest przez historyków do przejawów systemowego rasizmu w Stanach Zjednoczonych (przyp. tłum.).

[8] Tom Miles, U.N. Investigators Cite Facebook Role in Myanmar Crisis, Reuters, 12.03.2018.

[9] Amanda Taub, Max Fisher, Where Countries Are Tinderboxes and Facebook Is a Match, „New York Times”, 21.04.2018.

[10] Amy. B. Wang, Former Facebook VP Says Social Media Is Destroying Society with „Dopamine-Driven Feedback Loops”, „Washington Post”, 12.12.2017.

[11] Taub, Fisher, dz.cyt.

[12] Matthew Rosenbers, Cambridge Analytica, Trump-Tied Political Firm, Offered to Entrap Politicians, „New York Times”, 19.03.2018.

[13] Wywiady z Michałem Kosińskim, 25.04., 18.05., 7.07. i 4.12.2017.

[14] Michał Kosiński, David Stillwell, Thore Graepel, Private Traits and Attributes Are Predictable from Digital Records of Human Behavior, „Proceedings of the National Academy of Sciences”, t. 110, z. 15 (13.04.2013), s. 5802–5805.

[15] Sean Illing, Cambridge Analytica, the Shady Data Firm That Might Be a Key Trump-Russia link, Explained, „Vox”, 4.04.2018.

[16] Joshua Green, Sasha Issenberg, Inside the Trump Bunker, with Days to Go, „Bloomberg News”, 27.10.2016.

[17] Kendall Taggart, The Truth About the Trump Data Team That People Are Freaking Out About, „BuzzFeed News”, 16.02.2017.

[18] Sam Machkovech, Report: Facebook Helped Advertisers Target Teens Who Feel „Worthless”, „Ars Technica”, 1.05.2017.

Sprawdź inne artykuły z tego wydania tygodnika:

Nr 188 (32) / 2023

Przejdź do archiwum tekstów na temat:

# Nowe technologie # Polityka

Być może zainteresują Cię również: