Cyfrowa biomasa. Jak żerują na nas platformy internetowe?
Z Katarzyną Szymielewicz rozmawiamy o tym, jak nas mielą platformy internetowe i co zrobić, by nie stać się cyfrową biomasą.
(Wywiad jest zredagowaną i uzupełnioną wersją podcastu Czy masz świadomość? pt. Czy jesteś cyfrową biomasą? Google, smartfon i Twoje życie z 30 stycznia 2024 roku).
Rafał Górski: Co to znaczy, że jesteśmy mieleni na cyfrową biomasę?
Katarzyna Szymielewicz: To brutalne określenie, którego używam, żeby wybić konsumentów usług internetowych z poczucia komfortu – w mojej ocenie fałszywego, ponieważ nie mamy tam podmiotowości i nie kontrolujemy procesu, w który wciągają nas dostawcy usług internetowych. Celem tego procesu jest wyzyskanie i skomercjalizowanie naszej uwagi, a przy okazji zdobycie wiedzy, która pozwoli robić to jeszcze skuteczniej.
Platformy internetowe od początku nie traktowały nas jak klientów. Nigdy nie mogliśmy sterować logiką ich algorytmów ani kontrolować tego, co projektanci usług cyfrowych nazywają „doświadczeniem użytkownika”.
Platformy takie jak Google czy Facebook zwabiły nas obietnicą darmowej i dodatkowo spersonalizowanej usługi – „skrojonej na miarę”, jak mówił Mark Zuckerberg. W realnym świecie, kiedy zamawiamy coś, co jest krojone na miarę, na przykład buty, to płacimy więcej, nie mniej. A w tym przypadku dostaję spersonalizowaną usługę i nie płacę! W praktyce oczywiście płacę, i to być może więcej niż kiedykolwiek za jakąkolwiek usługę. To jest myśl, którą poddaje pod rozwagę Tristan Harris, były pracownik Google, założyciel jednej z najbardziej krytycznych wobec big-techów instytucji – Centre for Humane Technology. On właśnie powiedział przewrotnie, że nie było w historii ludzkości droższej dla nas usługi niż ta darmowa. Jako społeczeństwo płacimy za nią zdrowiem psychicznym, uzależnieniami, pieniędzmi wydanymi na nikomu niepotrzebne produkty czy błędnymi wyborami politycznymi.
Zdaniem Harrisa szkody wyrządzane nam przez model biznesowy platform internetowych można opisać jedną frazą: downgrading humanity, czyli degradowanie nas jako ludzkości. Dzieje się tak, ponieważ algorytmy żerują na naszych bazowych, pierwotnych potrzebach i podstawowych instynktach. Wzmacniają w nas próżność, egoizm i skłonność do obwiniania innych za nasze problemy. Wspierają naszą skłonność do polaryzacji, uciekania w bańki informacyjne i szukania ukojenia w teoriach spiskowych. Nakręcają hejt i personalne nagonki w internecie.
To wszystko jest skutkiem ubocznym modelu biznesowego wielkich platform, ale zupełnie nieprzypadkowym – te społeczne efekty są wpisane w działania systemów rekomendacyjnych, które mają jedno zadanie: zaangażować nas za wszelką cenę. Po to, żeby zysk z reklamy utrzymał się na wysokim poziomie, bo tylko zaangażowany, obecny użytkownik może zobaczyć i zareagować na reklamę. Zdaniem Harrisa obserwujemy swoisty „wyścig do dna” pomiędzy tego typu platformami, bo kto lepiej rozpracuje i wykorzysta nasze podstawowe instynkty, ten okaże się najbardziej skuteczny w angażowaniu, a tym samym osiągnie największe zyski z reklam.
To nie ludzie decydują o tym, co będzie im pokazywane w sieci i czego będą doświadczać, tylko firma za pomocą jej uczących się algorytmów.
Z jednej strony przetwarzają one nasze ślady cyfrowe na profile marketingowe, czyli próbują rozpracować wzorzec zachowania, cechy, potrzeby, do których potem można dopasować serwowane treści. Z drugiej strony, inne zestawy algorytmów zajmują się dobieraniem treści do doświadczenia w taki sposób, żebyśmy jako konsumenci, jako osoby poddane przetwarzaniu na biomasę cyfrową, utrzymali swoją uwagę i klikali jak najdłużej nawet wtedy, gdy poczujemy się zmęczeni, nasyceni, wkurzeni lub wystarczająco już zainspirowani tymi treściami.
Kluczem do trafnego przewidywania, w co klikniemy (co nas skutecznie zaangażuje), są dane wyinterpretowane z naszego zachowania. Przy czym najcenniejsze, z punktu widzenia platformy, nie są informacje, które świadomie przekazujemy, ale metadane i obserwacje behawioralne, których zupełnie nie kontrolujemy: lokalizacja telefonu, numery IP, z jakich się logujemy, linki, w które klikamy, posty, które wywołują nasze reakcje, osoby, z którymi wchodzimy w interakcje, jak również to, kiedy korzystamy z aplikacji, w jakiej pozycji trzymamy wówczas telefon, jak szybko piszemy, a nawet w jaki sposób ładujemy urządzenie.
Ten brutalny mechanizm zoptymalizowany jest na komercyjny zysk, a nie na wartość dla człowieka, nazywanego „użytkownikiem”, czyli kimś zależnym, poddanym obróbce, a nie klientem, który sam decyduje. Termin „cyfrowa biomasa” powstał w celu unaocznienia mechanizmu mielenia nas.
Co obywatel może zrobić, żeby nie być cyfrową biomasą?
Na to pytanie nie ma prostej odpowiedzi. Na pewno nie jest nią kontynuowanie korzystania z obecnego modelu, tak jakby był on dla nas neutralny, bo nie jest i powinniśmy go zmienić.
Firmy podsuwają nam ustawienia prywatności, ustawienia reklam. Możemy spędzić dużo czasu z „suwakami”, które są dostępne na platformach internetowych i próbować je dopasować. Nie jest to działanie pozbawione sensu, ponieważ do pewnego stopnia możemy ulepszyć nasze doświadczenie i ochronić się przed najbardziej toksycznymi czy agresywnymi formami tego, co na nas czeka w sieci. Możemy skalibrować filtr, przez który trafiają do nas takie, a nie inne informacje, możemy wyłączyć powiadomienia, do czego wszystkich zachęcam, możemy ustawić wyłączniki czasowe, żeby się samoograniczyć; możemy też usunąć zbędne aplikacje z telefonu lub korzystać z nich tylko wtedy, kiedy jest to konieczne.
Ustawienia prywatności dają nam złudzenie kontroli. W rzeczywistości wszystkie ścieżki UX prowadzą do miejsca, w którym jesteśmy śledzeni, a nasze dane z różnych źródeł są łączone w profile behawioralne. Powiadomienia, interfejs, algorytmy rekomendujące treści, a nawet samo urządzenie, z którego korzystamy (żywe kolory w smartfonie) – wszystko zaprojektowane jest tak, żeby wpływać na wydzielanie dopaminy i w dłuższym horyzoncie uzależniać. Dzięki mechanizmowi nieregularnych wzmocnień, znanemu z gier hazardowych, statystycznie sprawdzamy powiadomienia z aplikacji nawet 150 razy dziennie.
Platformy zatrudniają najlepszych naukowców i wydają miliardy dolarów po to, by jak najlepiej poznać i wykorzystać ewolucyjne uwarunkowania naszego mózgu. Dlatego to nie jest równa walka.
Na pewno nie jest tak, że jako obywatele nie możemy zrobić nic, ale są to zmiany w ramach paradygmatu, w którym mamy narzuconą asymetrię władzy – to nie my jesteśmy klientem, nie my płacimy za usługę i nie my decydujemy, jakie doświadczenie będzie nam serwowane, tylko reklamodawca. Możemy zacząć od zmiany modelu biznesowego, czyli tego, w jaki sposób generowany jest zysk. Możemy próbować jako konsumenci wejść w model amerykański, w którym ktoś trzeci – zaufany partner – negocjuje w naszym imieniu, co będzie działo się z naszymi danymi albo dostarcza swój algorytm, który koryguje ten działający na nas toksycznie i wciągający nas w spiralę konsumpcji treści. Takie nakładki na platformy internetowe są technologicznie możliwe, ale jest to wchodzenie w coraz bardziej wyrafinowane usługi i płacenie za nie realnymi pieniędzmi.
Druga ścieżka, którą w Fundacji Panoptykon uważamy za najbardziej realną w Europie, to ścieżka regulacyjna, czyli wprowadzenie pomiędzy nas i owe platformy komercjalizujące naszą uwagę, czas i dane kogoś, kto powie: „Stop! To, co robicie, ma negatywne skutki i dla jednostek, i dla społeczeństwa. Musimy Was powstrzymać, tak jak powstrzymaliśmy firmy produkujące niezdrową żywność, producentów papierosów, alkoholu czy innych trucicieli środowiska”.
Od kilku lat w Unii Europejskiej toczy się dyskusja dotycząca regulacji cyfrowych, w której Fundacja Panoptykon jest jednym z bardzo aktywnych graczy i na tej ścieżce widać pewien postęp. Uważam, że polityczne rozwiązanie systemowe jest jedynym, które doprowadzi nas do długotrwałej zmiany, nie powodując rozwarstwienia na biomasę, która nie płaci pieniędzmi, ale jest zużywana przez system platform internetowych, i płacących, świadomych konsumentów.
Możemy także wrócić do starych telefonów, które nie są podłączone do Internetu i służą wyłącznie do dzwonienia. To oczywiście rodzi szereg wyzwań, ale też rozwiązuje wiele problemów. Sam od blisko dwóch lat stosuję to rozwiązanie, po sześciu latach bycia przyspawanym do swojego smartfona.
Czego my, obywatele, powinniśmy domagać się dziś od polskiego rządu?
W mojej ocenie rolą polskiego rządu jest przełożenie na praktykę prawa, które tworzymy na poziomie Unii Europejskiej.
Aktem prawnym, który musi zostać wdrożony w Polsce, jest akt o usługach cyfrowych, czyli „DSA” od angielskiego Digital Services Act – sporo piszemy o nim na stronie Fundacji Panoptykon. Reguluje on procedurę odwołania się od arbitralnych, w odczuciu ludzi często niesłusznych decyzji moderacyjnych wielkich platform, a więc sytuacji, w których ktoś nam coś zablokował, a nie rozumiemy, dlaczego – lub gdy konto jest zawieszone bez wyjaśnienia.
W związku z tym pojawi się ścieżka odwoławcza, która wychodzi poza platformę, do sądu, działającego w tym aspekcie szybciej niż normalnie. Będzie też możliwe składanie przez obywateli skarg na działanie wielkich firm. Nie będą one rozpatrywane w naszym kraju, ale polski organ, który powinien zostać pilnie stworzony, będzie nas w takim postępowaniu reprezentował i wspierał.
Będziemy też mogli jako badacze i organizacje społeczne, takie jak Fundacja Panoptykon, domagać się dostępu do danych ukazujących zasady, sposoby i skutki działania wielkich platform internetowych. Będziemy mogli zadawać pytania o zdiagnozowane problemy, np. czy interfejs konkretnego serwisu uzależnia, jaki ma wpływ na dzieci i dorosłych, a także do jakiego stopnia algorytm firmy wspiera rekomendowanie informacji sensacyjnych lub niesprawdzonych czy mowy nienawiści. Dzięki dostępowi do takich danych będziemy mogli już nie tylko spekulować na ich temat, ale te zjawiska zbadać.
Dla mnie rolą rządu jest przede wszystkim bycie mediatorem pomiędzy Polską a Unią Europejską, która posiada właściwe mechanizmy egzekwowania nowego prawa. Z uwagi na to, jak ponadnarodowe są to problemy, rząd nie powinien próbować rozwiązywać ich sam, bo może się to skończyć byciem rozgrywanym przez gigantyczne firmy, których budżety lobbingowe są ogromne.
Rozumiem, że rozwiązania techniczne są dostępne, natomiast w tej chwili nie ma woli politycznej?
Do tej pory rzeczywiście po stronie platform internetowych nie było woli, żeby się zmieniać, ponieważ model biznesowy, który rozwinęły, a który tak krytycznie opisuje Shoshana Zuboff czy Tristan Harris – człowiek znający go od środka – wyewoluował w formę, która jest dla nich optymalna ekonomicznie.
Ten model nie zmieni się, jeżeli nie dołożymy wielkim firmom motywacji innego typu. I to nie może być motywacja w postaci sankcji, ponieważ te nakładaliśmy na nich już przez ostatnie parę dekad i wiemy, że ich wpływ jest ograniczony.
Musi to być dialog silnego regulatora, którym będzie Komisja Europejska, z platformą internetową, na końcu którego może być nawet decyzja o zawieszeniu prawa działania platformy na terenie Unii Europejskiej. I to już byłoby realną sankcją, ponieważ jest to nadal rynek wielu bogatych ludzi i trudno byłoby wielkim platformom z niego zrezygnować. Choć Elon Musk czy Mark Zuckerberg grozili rezygnacją z rynku europejskiego, to nikt tego jeszcze nie zrobił. Myślę, że jako kontynent mamy w tym przypadku siłę negocjacyjną.
W kontekście tego, co jest możliwe technologicznie, nie ma ograniczeń, ponieważ o technologii możemy myśleć jak o każdej materii, którą można dowolnie kształtować. To, czego się domagamy, to zmiana logiki działania algorytmów i postawienie im innego celu niż komercyjny. Tym celem mogłoby być angażowanie algorytmów w poszukiwanie dla konsumenta tego, co jest dla niego najtrafniejsze, co go nakarmi, co ma najwyższą jakość w ramach tego, czego człowiek poszukuje, co najlepiej pasuje do nastroju, który wyraził. Mogą to być różne cele i je wszystkie da się wyrazić w języku matematyki i statystyki, który rozumieją algorytmy i maszyny serwujące nam treści. Nie jest to bardzo trudne, jest to kwestia motywacji biznesowej po stronie platform czy motywacji politycznej po stronie Unii Europejskiej.
Ta motywacja, w mojej ocenie, już jest, ale jest to proces, który zachodzi bardzo powoli. Widać to w Stanach Zjednoczonych – tam debata dotycząca działania platform internetowych wybuchła kilka lat temu i wtedy pojawiło się wiele pytań. Jak to się stało, że straciliśmy kontrolę nad tym ekosystemem, że nasza demokracja jest w erozji, że mamy problem z dezinformacją? Kiedy to się stało? To się działo przez ostatnie dwadzieścia lat i nikt nie reagował. Teraz ta reakcja jest nadmiarowa, ale mnie to cieszy, bo daje szansę na zmiany. Ciekawym jest, że w Europie dość powoli, ale konsekwentnie dojrzewaliśmy do tego, żeby coraz mocniej regulować biznes cyfrowy, a w Ameryce Północnej to jest nagłe przebudzenie. Ale będzie z tego coś dobrego.
„Zwracamy się do Pana Ministra z apelem o wprowadzenie odgórnego zakazu używania przez dzieci telefonów komórkowych w szkołach. Uzasadnieniem są liczne badania wskazujące na szkodliwy wpływ smartfonów na zdrowie, wyniki w nauce i sukcesy w życiu dzieci”. To fragment listu otwartego, który Instytut Spraw Obywatelskich wysłał do Ministra Edukacji i Nauki, prof. Przemysława Czarnka, w zeszłym roku. Czy w Polsce – na wzór Holandii, Francji, Włoch czy Chin – powinien zostać wprowadzony odgórny zakaz używania telefonów w szkołach?
Nie jestem przekonana, że taki zakaz wywołałby pożądane skutki tu i teraz. Byłoby wspaniale, gdyby szkoła była analogowa tak długo, jak się da i gdyby nikt nie miał motywacji ani potrzeby wnosić do niej urządzeń elektronicznych.
Nauczyciele, którzy są „obdarowywani” kolejnymi tablicami interaktywnymi, tabletami, czytnikami, robotami, okularami VR itp., nie dostają wsparcia w korzystaniu z tych urządzeń, a uczniowie wchodzą z telefonami dlatego, że w szkole jest im źle i potrzebują ich albo jako środka na nudę, albo jako środka do komunikacji ze światem poza szkołą. Na tak postawiony problem odpowiedzią nie jest twardy zakaz używania telefonów, tylko przemyślana, stopniowa reforma, w ramach której przedstawimy problem, którym jest brak podmiotowości ucznia i nauczyciela. Obie strony tego konfliktu cierpią i są uwikłane w system, dlatego musimy zająć się kryzysem psychicznym istniejącym po obu stronach szkolnej barykady.
Kryzys zdrowia psychicznego dzieci jest ściśle związany z ich sposobem konsumowania treści i korzystania ze smartfonów.
Szkoła jako instytucja nie może uznać, że korzystanie z technologii przez dzieci to problem rodziców, bo szkoła i dom są naczyniami połączonymi. To w szkole dzieci powinny dostawać pomoc psychologiczną i to w niej powinny szukać wsparcia, którego nie mają w domu. Z kolei często nie mają go w domu, bo dorośli także są uzależnieni od technologii, pozostając w niezdrowych relacjach ze swoimi urządzeniami i aplikacjami. Żeby to wszystko rozplątać, potrzebujemy dużo więcej niż zakazu używania telefonów.
Myślę, że zakaz powinien być ostatnim etapem zmiany, kiedy już będziemy systemowo gotowi do jakościowego udźwignięcia tego, czym będzie szkoła analogowa lub szkoła korzystająca z urządzeń w sposób świadomy i celowy. Dziś wygląda to tak, że do starej szkoły o często opresyjnym systemie wychowania, dokłada się nowe technologie – i to wszystko razem wybucha.
„Nie czyń zła” – to legendarny pierwszy wers oryginalnego kodeksu postępowania przyjętego przez korporację Google. Pamiętam wywiad z profesorem Andrzejem Zybertowiczem w Tygodniku Spraw Obywatelskich, w którym profesor powiedział mi, że podczas rozmowy z jednym z polityków usłyszał, że ów polityk nie będzie zajmował się kwestiami, o których dzisiaj rozmawiamy, ponieważ może się to skończyć tym, że jego nazwisko będzie później źle wyszukiwane w wyszukiwarce Google, a odpowiednie pozycjonowanie jest mu potrzebne do wygrania wyborów. Czy w Polsce ludzie boją się Google?
W mojej ocenie – nie. Google ma nadal twarz przyjaznej korporacji, mimo całej wiedzy, jaką zyskujemy o modelu działania tej i innych platform. Jeżeli któraś z tych korporacji ma wykrzywioną twarz satyra, z której żartujemy albo której trochę się obawiamy, to bardziej jest to Twitter, Facebook albo Tik-Tok – dlatego, że jest dla Europejczyków trochę egzotyczny.
Google, a właściwie Alphabet, bo tak brzmi nazwa całej korporacji, jest najbardziej cywilizowaną ze wszystkich korporacji cyfrowych. Nawet w bańce organizacji krytycznie nastawionych do firm technologicznych i zorientowanych na ich regulację jest tym graczem, wobec którego zawsze zachowujemy respekt i przyglądamy się z uwagą ich planom.
Nie sądzę, żeby strach wobec tej platformy był rozpowszechniony, nadal jest to „dobry wujek Google”. Nie musimy zohydzać ludziom usług internetowych ani ich nimi straszyć. Musimy je dobrze uregulować, naprawić i zaoferować konsumentom uczciwą usługę, za którą będą płacić realnymi pieniędzmi, a nie swoją uwagą i danymi. Wtedy będzie pięknie. Używam tu ironii, bo sama nie wierzę w taki scenariusz, ale myślę, że walka z korporacjami poprzez straszenie czy pokazywanie, jak bardzo ich usługi bywają dla nas szkodliwe czy toksyczne, nie jest ofertą masową i w Polsce takie myślenie raczej się nie przyjmie.
W tekście opublikowanym w „New York Times” prof. Barry Lynn pisze: „Google bardzo agresywnie sypie groszem w Waszyngtonie i Brukseli, a następnie pociąga za sznurki. (…) Ludzie bardzo boją się dzisiaj Google”. Czy w Polsce nie wygląda to podobnie? Przecież także w naszym kraju Google przeznacza spore kwoty na różnego rodzaju projekty społeczne. Mamy w Polsce Instytut Pamięci Narodowej, dużo dyskutujemy o przeszłości, co jest ważne i cenne, ale czy nie potrzebujemy także Instytutu Przyszłości Narodowej? Instytucji, która ponad podziałami partyjnymi zajmowałaby się myśleniem o przyszłości naszego państwa i jego obywateli?
To pytanie otwiera puszkę Pandory, znajduje się w nim mnóstwo mniejszych pytań, takich jak: „Czy myślimy o sobie w kategoriach narodu, który ma wspólny interes i wspólną przyszłość, o którą trzeba zadbać?”, „Czy naród to dla nas istotna kategoria?”.
W tej kwestii przekonuje mnie argumentacja Jacka Dukaja, z którym przeprowadziłam rozmowę w podcaście „Panoptykon 4.0”. Dwa lata temu publikował on w „Gazecie Wyborczej” prowokacyjne eseje o końcu demokracji i braku możliwości odwrotu od „paranarodowości”. Nie dlatego, że dla nas naród nie jest istotny jako kategoria, ale dlatego, że funkcjonujemy już w obiegu informacyjnym, który jest globalny i kształtowany jest przez algorytmy, których jeszcze nie odzyskaliśmy dla naszych interesów.
Myślenie o wspólnej przyszłości nas jako narodu przestaje się bronić. Funkcjonujemy w pojęciowej fikcji – nie mamy już wspólnej bazy pojęciowej i informacyjnej. Już nie spotykamy się jako „naród” – ta kategoria jest nieadekwatna wobec tego, z czym mierzymy się w świecie platform internetowych. Tam obecne są zupełnie inne wspólnoty, inaczej kształtowane sieci społecznościowe, a przez zgiełk informacyjny, którego aktorzy często nie są aktorami demokratycznymi, debata nie toczy się między nami jako członkami narodu. Tym, kto dzisiaj kształtuje dyskurs, nie jest autorytet, lokalny działacz, a influencerzy, chwilowi celebryci czy wręcz boty.
Jeżeli pytasz mnie, czy powinniśmy rozważać przyszłość naszego narodu w kontekście rozwoju technologii cyfrowych, to odpowiadam twierdząco – powinniśmy prowadzić taki namysł. Mamy w Polsce kilka think-tanków, być może któryś z nich mógłby uruchomić taki projekt. Przy czym to nie jest projekt na cztery lata, a na czterdzieści lat. Suwerenność technologiczna, niezależność państwa od dostawców usług, budowanie odporności na takie kryzysy jak COVID, kształtowanie edukacji w sposób niezależny – w tych aspektach państwo ma rolę do odegrania. Chciałabym, żeby rząd po prostu dobrze robił to, co powinien robić, czyli budować świadomą, długofalową politykę technologiczną, która nie będzie pisana pod interes żadnej partii, lecz będzie konsekwentnie budowaną strategią z elementami edukacji medialnej i kształtowania krytycznej, świadomej postawy w korzystaniu z technologii przez młodych ludzi.
Tym właśnie jest polityka technologiczna – i ze strony organizacji obywatelskich m.in. Ty mógłbyś prowadzić w tym obszarze dialog z komitetem z ramienia rządu, który by się nią zajmował. Taka forma współpracy bardzo by mi się podobała.
Jakiego ważnego pytania dotyczącego problematyki, którą poruszamy w dzisiejszej rozmowie, nikt Ci dotychczas nie zadał – i jak brzmiałaby na nie odpowiedź?
Jednym z takich pytań mogłoby być pytanie o to, dlaczego otoczenie biznesowe wielkich platform toleruje wypromowany przez Big Tech model generowania zysku, skoro korzystają na nim platformy internetowe, a nie ich klienci?
Myślę o wydawcach mediów elektronicznych, a także o reklamodawcach, którzy umieszczają swoje reklamy w tym systemie i czekają na zwrot, który nie zawsze jest taki, jakiego reklamodawcy by oczekiwali. Inwestowane są w tę branżę gigantyczne środki, a ogrom zysku trafia do owych monopolistów, którzy w pełni kontrolują rynek reklamy. Mówi się, że około 80% globalnego rynku reklamy kontrolują Google i Facebook.
Reklamodawcy i media są zakładnikami tego modelu – obie strony zakładają, że nic nie mogą zrobić, więc próbują się polubić i porozumieć, umawiając się na udział w zysku, ale nie próbując zmieniać systemu. Jako organizacja społeczna walcząca o regulację rynku technologicznego obserwujemy to od lat.
Gdy szukamy sojuszników w sektorze mediów premium za granicą, dialog z wydawcami jeszcze da się nawiązać, natomiast w Polsce rozmowy z wydawcami bywają… osobliwe. Gdy spotykamy się z największymi wydawcami, żeby rozmawiać o wyszukiwarkach i algorytmach, wówczas oni odpowiadają: „Ciekawe, ciekawe… a wiecie coś o SEO? Powiecie nam, jak się lepiej pozycjonować?”. Ale my chcemy zmienić logikę systemu, aby także oni nie musieli walczyć o swój kawałek tortu i mogli pozyskiwać klientów w inny sposób.
Bardzo mnie zastanawia, dlaczego w tym systemie naczyń połączonych całe otoczenie biznesowe toleruje fakt, że gatekeeperem, czyli trzymającym dostęp do zasobów, są dziś korporacje technologiczne.
To one mają dostęp do społeczności, infrastrukturę do hostowania treści, algorytmy, reklamy. Środowisko biznesowe wpasowuje się w to i biernie czeka, aż ktoś ich wybawi, albo i nie. Dopiero Unia Europejska ze swoim projektem reformy regulacji usług internetowych ma to ustabilizować. Chętnie bym poznała odpowiedź na to pytanie, może pojawi się w Twoim kolejnym podcaście.
Bardzo dziękuję Ci za rozmowę.