Władza platform. Za fasadą Google, Facebooka i Spotify - Jan Kreft - ebook

Władza platform. Za fasadą Google, Facebooka i Spotify ebook

Kreft Jan

1,0

Opis

To książka o władzy platform Facebooka i Google, o kontrolowaniu człowieka, grup społecznych, a nawet państw. O „magii” uzależniania ludzi, celebracji osobliwych mitów, kulcie porażki, mirażach bogactwa, kreatywności i kariery. To książka o algorytmizacji codziennego życia, feudalnych stosunkach na platformach, ich niewolnikach i menedżerach pokutnikach. O zarządzaniu antykonkurencyjnymi platformami, o „strefach zabójstw” rynkowych rywali. To wreszcie książka o utowarowieniu wszystkiego – od miłości po nienawiść – o tyranii iluzji, o redefiniowaniu znaczeń w cyberprzestrzeni ludzkiej aktywności, o obsesji pomiarów każdego aspektu życia z nadrzędną misją i wiarą, że można naprawiać świat, tworząc jeszcze lepszy algorytm.


„Ponieważ profesor Kreft lubi przywoływać słowa Olgi Tokarczuk, skojarzyłem jego postawę z wędrowcem opisanym przez Olgę Tokarczuk w eseju Człowiek na krańcach świata, przypominającym rycinę niewiadomego autorstwa opublikowaną w 1888 r. przez francuskiego astronoma Camille’a Flammariona. Przedstawia ona wędrowca, który dotarł do granic świata i wystawiwszy głowę poza ziemską sferę, zachwyca się widokiem uporządkowanego i wielce harmonijnego kosmosu.
Chłodne oko »astronoma« Krefta dostrzega za fasadą społeczności biznesowy układ powiązań, wielkich i małych kół i kółeczek organizacji finansowych w cyfrowym wszechświecie. Niemniej fascynuje go »debunking«, czyli rozgryzanie, ale i obalanie mitów założycielskich firm GAFA z Doliny Krzemowej.
Profesor Kreft jest jednym z najważniejszych polskich eksplorerów tej kwestii, wnikającym – używając jego określenia – za fasadę nie tylko wskazanych w tytułach gigantów firm informatyczno-technicznych (BigTech), ale obejmując oglądem i analizą cały gwiazdozbiór cyfrowych firm sieci Web 2.0”.

Z recenzji prof. dr. hab. Tomasza Gobana-Klasa

Prof. dr hab. Jan Kreft (Politechnika Gdańska). Wieloletni dziennikarz i korespondent zagraniczny, autor ponad tysiąca publikacji w mediach polskich i zagranicznych, menedżer zarządzający firmami mediów i nowych technologii. Autor kilkunastu książek, w tym: Władza algorytmów – u źródeł potęgi Google i Facebooka, Za fasadą społeczności – zarządzanie nowymi mediami i Koniec dziennikarstwa, jakie znamy. Agregacja w mediach.


Ebooka przeczytasz w aplikacjach Legimi na:

Androidzie
iOS
czytnikach certyfikowanych
przez Legimi
czytnikach Kindle™
(dla wybranych pakietów)
Windows
10
Windows
Phone

Liczba stron: 555

Odsłuch ebooka (TTS) dostepny w abonamencie „ebooki+audiobooki bez limitu” w aplikacjach Legimi na:

Androidzie
iOS
Oceny
1,0 (1 ocena)
0
0
0
0
1
Więcej informacji
Więcej informacji
Legimi nie weryfikuje, czy opinie pochodzą od konsumentów, którzy nabyli lub czytali/słuchali daną pozycję, ale usuwa fałszywe opinie, jeśli je wykryje.

Popularność




Wstęp

Wielkie przełomy widać na horyzoncie. Pierwszy to „świt algorytmów” uczenia maszynowego, które – wco trudno może uwierzyć – będą równie kreatywne, co człowiek. Drugi przełom dotyczyć będzie wykorzystania głosu wpozyskiwaniu danych na globalną skalę iekspansji asystentów głosowych towarzyszącej internetowi rzeczy, które wywrą wielką presją na rozbudowę potencjału analitycznego.

Ponieważ wszystko wskazuje na to, że sprawcami ibeneficjentami tych przełomów będą te same wielkie cyfrowe korporacje platform, które od kilku dekad, azwłaszcza wdobie pandemii, ufundowały miliardom ludzi środowisko życia, pracy, rozrywki, komunikacji – ze wszystkimi tego stanu rzeczy konsekwencjami – warto krytycznie przyjrzeć się celom imisjom, jakie im przyświecają, oraz stosunkom, jakie one kształtują.

Czas ku temu jest szczególnie dogodny, ponieważ na tym samym horyzoncie widać jeśli nie schyłek ich władzy, to rysy na wizerunku. Osiągnęły bowiem podczas pandemii klasyczne pyrrusowe zwycięstwo: zjednej strony uzyskały historycznie wielkie bogactwo, zdrugiej strony, za sprawą radykalnie wzmocnionych państw walczących zpandemią, zostały zepchnięte na drugi plan. Przede wszystkim erozji uległ mit ich sprawczości. Nie tylko nie „uratowały świata przed zarazą”, ale jeszcze odegrały wjej zwalczaniu marginalną rolę. Ich technologie wminimalnym stopniu wsparły polityczne ispołeczne wysiłki, wwielkiej zaś mierze pozwoliły na pogłębienie nierówności rynkowych ieksploatacji społecznych przestrzeni. Im bardziej rosło ich bogactwo, tym bardziej malało ich strategiczne znaczenie. Jeszcze niedawno były partnerami państw, niezbędnymi oswojonymi liderami wnoosferze1, dziś – wdefensywie – są stawiane pod pręgierzem.

To książka ojanusowym obliczu władzy korporacji cyfrowych platform, ujmowanych wperspektywie nauki omediach ikomunikacji społecznej oraz zarządzania mediami. Platform niezwykłych, uwodzących oferowanymi możliwościami kreatywności, karier iwizjonerstwa, łatwością zanurzenia się ibuszowania wcyberprzestrzeni, spędzenia życia wświecie, którego granice zacierają się ze światem realnym. Przede wszystkim jednak platform „magii” społecznego oddziaływania, ekstrakcji wartości, informacji iwiedzy oraz celebrujących osobliwe mity. Uniwersum utkanym zrównie poruszających wyobraźnię, co magnetyzujących metafor (platform ichmur) oraz inwazji neologizmów (marketing 5.0, społeczeństwo algorytmiczne, inwigilacja…), niezwykłych umiejętności „deformowania rzeczywistości”, narzucania wiary, że „niemożliwe jest możliwe”. Platform obietnic, końca nauki iposthumanizmu.

To książka owładzy platform, zwłaszcza (Meta)Facebooka iGoogle, ujętej jako zdolność narzucania woli, zmuszania do określonego zachowania ikontrolowania poczynań człowieka, grup społecznych ipodmiotów gospodarczych, anawet państw. To władza kreowania zbiorowych wyobrażeń, kształtowania doświadczeń idecydowania okierunkach rozwoju. To także władza obsadzania retorycznie upodmiotowionego człowieka wroli konsumenta iprodusera oraz biernego odbiorcy, zawsze – jako współtwórcy wartości platformy idostarczyciela danych, współczesnego paliwa platformizacji.

Aby się zorientować, jak bardzo jest to władza różnorodna iwyrafinowana, wypada stanąć wobec mnogości perspektyw, które można przyjąć iktóre składają się na przykład na całe spektrum propozycji systemowych: kapitalizmu regulacji, danych, nadzoru, inwigilacji, kapitalizmu algorytmicznego, kreatywnego, kognitywnego, informacyjnego, chińskiego reglamentowanego kapitalizmu czy bezkofeinowego kapitalizmu. Kapitalizmu platform. Człowiek wżadnym znich nie występuje wroli podmiotowej, nie może bowiem „wejść na platformę” bez przejścia procedury uprzedmiotowienia (przekazania danych izrzeczenia się roszczeń ztego tytułu). Staje się więc zasobem danych, konsumentem iklientem, rzadko obywatelem, coraz częściej superprocesorem – kluczowym czynnikiem przetwarzania cyfrowych artefaktów, unikatowym „przedłużeniem” komputera.

Wcałym tym wielkim procesie komodyfikacji izawłaszczania nowych przestrzeni ludzkiej egzystencji otwarte pozostaje pytanie ointencje platform. Ideał bowiem nie sięgnął jeszcze bruku, nadal pobudza wyobraźnię iwydaje się krystaliczny, tak jak aktualna jest metaopowieść oświecenia opostępie iemancypacji nauki.

Przez kilka dekad zoświeceniowej narracji platformy czerpały niezwykłą witalność istarały się wykuć nową ideę sankcjonującą poświęcenia użytkowników. Niszczyły konkurencję iredefiniowały znaczenia całej cyberprzestrzeni ludzkiej aktywności wimię wyższych celów oraz wzgodzie zprzekonaniem, że nowy, lepszy świat ukaże się wpostleibnitzowskim uniwersum. Wszystko wzgodzie ztyranią kwantyfikowalności, obsesją na punkcie pomiarów każdego aspektu życia – od edukacji imedycyny po naukę ifilantropię, przyjaźń, miłość. Wiarą, że świat można naprawić, tworząc jeszcze lepszych algorytm.

Jednocześnie platformy okazały się światem wielkich paradoksów, czerpią bowiem swoją siłę zodległej od „policzalnego świata” mitologii utkanej znarracji onowych technologiach, „kulturze wielkich idei”, wizjonerskich liderach iprzełomowych innowacji rodem ztechnoutopii.

Książka ta oferuje zatem zbiór uwikłanych waporie obserwacji ozarządzaniu wyjątkowymi organizacjami medialno-technologicznymi. Żeby je poznać, przyjęto przede wszystkim perspektywę krytyczną, dzięki której jak wsoczewce widoczne stały się algorytmizacja iplatformizacja życia codziennego, osobliwy feudalizm platform, towarzyszący im kult sukcesu (jednorożców) iunikatowych kompetencji – wszystko na fali narracji orozwoju wsłużbie ludzkości.

1 T. Goban-Klas, Rwący nurt mediów. Mediocen – nowa fala mediatyzacji życia społecznego, Universitas, Kraków–Rzeszów 2020, s. 362–366.

Prolegomena

Akt I

Korporacje platform na ratunek

Gdy wlutowy piątek 2020roku prezydent Stanów Zjednoczonych Donald Trump ogłosił, że rząd otrzyma wkrótce wsparcie od Google, który podpowie Amerykanom, czy potrzebują testu na koronawirusa, ajeśli tak, to gdzie go mogą znaleźć, okazało się, że Google nic nie wiedział otakiej koncepcji. Owszem, spółka zależna Alphabetu, do którego należy Google, przygotowywała stronę internetową opodobnej funkcji, ale tylko dla pracowników służby zdrowia ijedynie wregionie San Francisco, poza tym prace nad nią były na wczesnym etapie.

Nie zanosiło się na to, że Google zaangażuje się w„ratowanie Ameryki”, choć prezydent ijego urzędnicy już zdążyli zachwalać stronę iprzedstawili sposób jej funkcjonowania wramach większego pakietu działań2. Na marginesie tego qui pro quo wybrzmiały pytania orealną iwyobrażoną rolę największej korporacji medialno-technologicznej.

Pomijając historię oszczędnego gospodarowania prawdą przez prezydenta Trumpa, zwracano także uwagę na skłonność do zwracania się opomoc wgodzinie próby do tych autorytetów, które wyrobiły sobie pozycję niezbędnych społecznie. Zważywszy na unikatowy status platform, reakcja prezydenta Trumpa mogła być zatem uznana za naturalną ioczywistą. Co więcej, niespełnione oczekiwania ze strony Google nie zmieniły status quo korporacji. Nie doznał więc uszczerbku mit (wtym wypadku omnipotencji) inadal dominuje we współczesnej dyskusji okonfrontacji wolności ibezpieczeństwa. Kwantowe komputery korporacji wnowym kampusie wSanta Barbara mają dokonać rewolucji wmedycynie, korygując ludzkie błędy iprzyspieszając obliczenia. Dzięki Google zbadanie serca będzie możliwe przez kamerę wtelefonie, amapyGoogle pokażą miejsca, gdzie można się zaszczepić podczas pandemii.

Dlaczego tak się stało, pośrednio tłumaczy Naomi Klein weseju na temat redefiniowania własnej roli przez korporacje platform. Oto wmaju 2020rokuGoogle zaangażował się wbudowę Nowego Ładu (New Deal), który jakoby miał się wyłonić pod wpływem pandemii. Na spotkaniu zburmistrzem Nowego Jorku zaanonsowano zakres partnerstwa publiczno-prywatnego odpowiadającego misyjnej roli korporacji: „włączenie technologii do każdego aspektu życia obywatelskiego”3. Aby nie było wątpliwości, że cele Erica Schmidta, byłego zarządzającego Google, były czysto dobroczynne, wtle nagrania wideo znalazła się – jak zauważa Naomi Klein – oprawiona para skrzydełek złotego anioła. Dzień wcześniej burmistrz Nowego Jorku ogłosił podobne partnerstwo zFundacją Billa iMelindy Gatesów wcelu opracowania „inteligentniejszego systemu edukacji”.

Jeszcze na początku 2020roku Schmidt podtrzymywał mit Doliny Krzemowej iprzypominał, że amerykańskie firmy iuniwersytety wprowadzają innowacje na niespotykaną wświecie skalę („jesteśmy start-upami garażowymi, przedsiębiorcami podejmującymi ryzyko inieustraszonymi naukowcami poszukującymi nowych osiągnięć wnauce itechnologii”). Skupiając się na roli państwa, przestrzegał jednak, że jeśli obecne tendencje się utrzymają, to inwestycje Chin wbadania irozwój przewyższą te wStanach Zjednoczonych wciągu dziesięciu lat. Wówczas Ameryka będzie konkurować zkrajem, który ma większą gospodarkę, więcej inwestycji wbadania irozwój, lepsze badania, szersze zastosowanie nowych technologii isilniejszą infrastrukturę komputerową.

Wkolejnych miesiącach doszło do korekty misji Doliny. Teraz wszystkie publiczne środki, które miały wesprzeć korporacje Big Tech wwalce Stanów Zjednoczonych oprymat zChinami, były prezentowane jako jedyna nadzieja na ochronę przed nowym wirusem, „który będzie znami przez wiele lat”, afirmy technologiczne, których rola wochronie zdrowia była marginalna, zmieniły się wczołowych obrońców zdrowia publicznego.

Tym sposobem – wnioskuje Klein – powstał New Deal wżywym laboratorium „bezkontaktowej dochodowej przyszłości”, wktórej maszyny nie stanowią zagrożenia dla ludzi, wprzeciwieństwie do innych ludzi4.

To przyszłość, wktórej domy już nigdy nie będą wyłącznie przestrzenią osobistą, lecz również, dzięki szybkiej łączności cyfrowej, naszymi szkołami, gabinetami lekarskimi, siłowniami, atakże, jeśli będzie to określone przez państwo, naszymi więzieniami. Oczywiście dla wielu znas te same domy już przed pandemią zamieniały się wnasze nigdy nieistniejące miejsca pracy inasze podstawowe miejsca rozrywki, awięzienie inwigilacyjne „wspołeczności” już kwitło. Ale wprzyszłości, która jest budowana wpośpiechu, wszystkie te tendencje przyspieszą5.

Pandemia zmieniła także klimat wokół społecznych konsekwencji nowych technologii. Oile wcześniej publiczna debata dotyczyła konieczności podziału zbyt wielkich korporacyjnych gigantów, otyle strach przed pandemia skłonił do wiary, że nowe technologie są bezdyskusyjnie niezbędne wzapewnieniu bezpieczeństwa, co było dość paradoksalne, ponieważ właśnie brak bezpieczeństwa – ale innego rodzaju – był jednym zgłównych zarzutów wobec ich ekspansji. Zmienił się zatem jedynie „czynnik strachu” (chińskie przywództwo technologiczne na „chiński COVID”), lecz mechanizm formowania celu isfinansowania jego osiągnięcia pozostaje ten sam – „bezprecedensowe partnerstwo między rządem aprzemysłem”.

Na czym miałoby ono polegać, wyłuszczył Schmidt na łamach „Wall Street Journal”: konieczne są szybkie, zakrojone na szeroką skalę eksperymenty, które przyspieszą rewolucję biotechnologiczną. Potrzeba ultraszybkiej infrastruktury, więc rząd musi dokonać ogromnych inwestycji – być może wramach pakietu stymulacyjnego – aby przekształcić krajową infrastrukturę cyfrową wplatformy oparte na chmurze ipołączyć je zsiecią 5G6.

Choć zwykło się przyjmować, że cyfrowe sieci uzupełniają przestrzeń publiczną, to dla wielu ludzi jest na odwrót – to ona staje się rozszerzeniem sieci izacierają się granice między rzeczywistością cyfrową arealnym światem. Gdy każdy aspekt ludzkiej egzystencji staje się komercjalizowany, gdy dane są wykorzystywane whiperspersonalizowanym marketingu ihandlu, „sprywatyzowane” staje się całe środowisko społeczne.

Proces ten ze swadą objaśnia Lucie Green, pisząc, że firmy zDoliny Krzemowej, wtym Alphabet, Amazon iFacebook, uzurpują sobie prawo do rządów jako kluczowi dostawcy przestrzeni iusług publicznych. Nie są jedynie podmiotami biznesowymi, ale konkurują z„powolnym inieseksownym” sektorem publicznym wzakresie świadczenia kluczowych usług ipozbawiają władze istotnych dochodów podatkowych7.

Co więcej, spoglądają na inne sektory regulowane przez państwowe ilokalne władze jak na kolejne obszary, które należy „zakłócić” i„naprawić” według własnych standardów. Wkolejce są europejskie media publiczne, ochrona zdrowia (na świecie), planowanie przestrzenne, edukacja itransport, atakże bezpieczeństwo publiczne wkażdym zakątku globu, do którego mogą dotrzeć.

Podczas gdy etos rządu skupia się jednak na idei służenia całej populacji, prywatne podmioty są napędzane przez zysk iwówczas nowy wymiar będzie mogła zyskać zmodyfikowana zasada Pareto: usługi cyfrowe będą skierowane do większości, która może sobie na nie pozwolić, ale pominą tych, którzy ich potrzebują. Jest to powszechny problem tam, gdzie dotyczy usług nastawionych na zysk wypierających usługi publiczne, które może są mniej efektywne, ale za to służą wszystkim.

2 B. Barrett, L. Matsakis, Trump CaughtGoogleOff Guard With aBogus Coronavirus Site Announcement, Wired, 13 marca 2020roku, pobrano z: https://www.wired.com/story/coronavirus-donald-trump-google-website.

3 N. Klein, How big tech plans to profit from the pandemic, The Guardian, 13 maja 2020roku, pobrano z: https://www.theguardian.com/news/2020/may/13/naomi-klein-how-big-tech-plans-to-profit-from-coronavirus-pandemic.

4Ibidem.

5Ibidem.

6 E. Schmidt, AReal Digital Infrastructure at Last, 27 marca 2020roku, pobrano z: https://www.wsj.com/articles/a-real-digital-infrastructure-at-last-11585313825.

7 L. Greene, Silicon states: The power and politics of big tech and what it means for our future, Counterpoint Press, Berkeley 2018.

Prolegomena

Akt II

Jak platformy wdarły się do wnętrza Kapitolu

Obrazy wtargnięcia zwolenników prezydenta Donalda Trumpa na Kapitol na początku 2021roku są powszechnie znane – zwielokrotniony przekaz obrósł komentarzami isymboliką. Gdy tłumy dostały się do budynku, wDolinie Krzemowej trwały gorączkowe rozważania, co począć zkolejnymi przekazami prezydenta. Rezygnując ztradycyjnego pośrednictwa dziennikarzy, przez całą kadencję Trump mimowolnie uzależnił się od cyfrowych kanałów, które nagle mogły być niedostępne.

Najpierw ulubiony przez prezydenta Twitter nałożył na jego nagranie ograniczenia – Trump powtórzył wnim, że: „Mieliśmy wybory, które nam ukradziono”. Wreakcji na treść kolejnego tweeta skierowanego do okupujących Kapitol: „Jesteście wielkimi patriotami, którzy byli źle iniesprawiedliwie traktowani przez tak długi czas”, Twitter usunął całkowicie przekaz iogłosił, że konto prezydenta pozostanie zablokowane przez co najmniej dwanaście godzin.

Cicha wojna między Twitterem iprezydentem trwała od siedmiu miesięcy. Gdy Twitter uznał dwa tweety Trumpa za „potencjalnie wprowadzające wbłąd”, ten oskarżył serwis o„mieszanie się wwybory prezydenckie”. Wreakcji na blokadę kont – śledziło je 88milionów osób – Trump na koncie rządowym napisał: „Nie zostaniemy uciszeni!”. Wówczas Twitter prewencyjnie zablokował także oficjalny prezydencki profil, aprzy okazji również konta kampanii (@TeamTrump) inajbliższych doradców oraz usunął całą serię tweetów, które Trump zamieścił na koncie prezydenckim.

Tym sposobem Twitter, kierując się stworzonymi przez siebie zasadami, zadecydował, co jego użytkownicy mogą, aczego nie mogą się dowiedzieć od urzędującego prezydenta. Naraził się przy okazji na zarzut oodwet za to, że Trump forsował pod koniec prezydentury wprowadzenie przepisów ułatwiających pozywanie serwisów społecznościowych za moderację umieszczanych wnich treści (sekcja 230 tzw. ustawy oprzyzwoitości komunikacyjnej).

Twitter nie był jedyny. Wcześniej decyzję ousunięciu nagrania Trumpa podjęły czołowe korporacyjne cyfrowe platformy – Facebook, Instagram oraz należący do grupy Alphabetu YouTube – iprezydent został skutecznie odcięty od głównych mediów społecznościowych. Gdy przeniósł się na konkurencyjny dla Twittera Parler, ten został natychmiast zablokowany przez Google iApple, które tłumaczyły swoją decyzję pojawianiem się postów „wzywających do przemocy”.

Tłumaczący decyzję Facebooka Guy Rosen, wiceprezes do spraw rzetelności, ogłosił, że została ona podjęta wzwiązku z„sytuacją kryzysową”, dodając: „[…] usunęliśmy ją, ponieważ uważamy, że zwiększa ona raczej ryzyka trwałej przemocy, niż je zmniejsza”8. Następnie Facebook wydał oficjalne oświadczenie, wktórym wyjaśnił, że platforma aktywnie usuwa wszelkie treści pochwalające ipopierające wtargnięcie na Kapitol.

Gdy później wiele osób świętowało ogłoszenie przez Marka Zuckerberga zakazu umieszczania wiadomości przez Trumpa na Facebooku iInstagramie do końca jego kadencji – wmaju 2021roku okazało się, że zakaz ten potrwa dłużej – nieliczni, jak Edward Snowden, dostrzegli wtym akcie punkt zwrotny wwalce okontrolę nad komunikacją cyfrową. Owszem, Facebook iinne media społecznościowe są prywatnymi platformami – dowodził Snowden – ale właśnie obwieściły prawo uchwalania zakazów ibędą to robiły coraz częściej, bez względu na opinie państwowych regulatorów iużytkowników.

Edward Snowden nie był wtej opinii odosobniony. „Prawo do wolności poglądów ma fundamentalne znaczenie” – napisał Steffen Seiber, rzecznik ówczesnej kanclerz Niemiec Angeli Merkel, dodając, że podstawowe prawo może być naruszane, ale zgodnie zprawem iwramach określonych przez ustawodawców, anie na podstawie decyzji kierownictwa platform mediów społecznościowych. Wpodobnym duchu wypowiedział się Boris Johnson: „Czas na szczerą rozmowę ogranicach […] iroli tych firm wtym, co decydują się publikować, aczego nie”. Cédric O, minister do spraw technologii cyfrowych wrządzie prezydenta Francji, zauważył (naturalnie na Twitterze), że zakazy stawiają „podstawowe pytania”, iwezwał do „nowej formy demokratycznego nadzoru” nad firmami zsektora mediów społecznościowych9.

Wistocie wspólne decyzje platform, które chętnie widzą się wroli nowej agory i„dają głos każdemu obywatelowi”, były bezprecedensowym aktem sprawowania władzy nad dyskursem. Uznały, że – nawiązując do słów Zuckerberga – ryzyko pozwolenia prezydentowi na dalsze korzystanie zusług jest zbyt duże10. Innymi słowy: szef Facebooka iinni zarządzający wyszli zroli liderów neutralnych platform „łączących wszystkich ludzi na świecie”, ina chwilę wcałej okazałości ukazali, na czym polega zarządzanie widocznością wsieci11.

Wyjątkowy akt eksmisji Trumpa zpolitycznego spektaklu był ponadto uchyleniem zasłony na scenie społecznej selekcji oraz – co bodaj najważniejsze – aktem najważniejszej korporacyjnej władzy, mianowicie umożliwiania sprawowania władzy przez reprezentantów elit politycznych, gospodarczych, finansowych czy kulturalnych. Aprzy okazji – aktem pozwalającym na petryfikację plemiennych zachowań12. Debata nie dotyczy bowiem tego, co jest lub nie jest dopuszczalne do powiedzenia wmediach społecznościowych, ale tego, kto decyduje ijakie ma narzędzia sprawowania realnej władzy oraz jakie intencje nim kierują.

Strącając prezydenta wpubliczny niebyt wświecie, wktórym platformy są najważniejszym źródłem informacji iwiedzy dla miliardów ludzi, zarządzające nimi korporacje nie dokonały jednak wistocie niczego, co mogłoby zaskakiwać ich biznesowych konkurentów13. Przeciwnie.

Gdy Jack Dorsey, szef Twittera, refleksyjnie zatweetował, że „nie świętuje ani nie czuje dumy ztego, że musi zakazać @realDonaldTrump na Twitterze”, od razu dodał: „uważam, że to była dobra decyzja dla Twittera”. Nie prowokując prostych analogii – kilka dekad wcześniej, w1954roku, prezes koncernu General Motors, Charles Erwin Wilson, stwierdził, że „co jest dobre dla GM, jest dobre dla Stanów Zjednoczonych” – trudno pozbyć się wrażenia, że wyrugowanie prezydenta jest kolejnym logicznym aktem wkrótkiej, ale burzliwej historii determinizmu korporacyjnego iosobliwym aktem wiary we własną misję.

Takie działania platform prowokują do wyrażania radykalnych sądów. „Ekstremizm, dezinformacja, socjopaci zarządzający algorytmami nastawionymi na zysk – to wirusy, ato, czego byliśmy świadkami wokół Kapitolu, to epidemia – zauważa Scott Galloway, którego przyjdzie jeszcze kilka razy cytować. – Wobliczu słabości publicznych instytucji kapitał prywatny staje się »gabinetem cieni«, abałwochwalstwo innowatorów utożsamia bogactwo zcnotą, nic więc dziwnego, że dwadzieścia cztery godziny po nieudanym zamachu stanu głównym tematem na Twitterze nie był największy kryzys demokracji wStanach Zjednoczonych, tylko to, że Elon Musk został najbogatszym człowiekiem na świecie”14.

Wtakim „pozbawionym sterów środowisku, wktórym przepływ informacji nie jest dobrem publicznym, lecz strumieniem dochodów, wirusy należałoby monitorować – kontynuuje Galloway – tymczasem uderzająca arogancja amerykańskiej wyjątkowości pozwoliła zignorować wirusa idei skrajnych, napędzanych algorytmami izyskiem. Na razie jedynym powodem, dla którego Mark Zuckerberg zrobił cokolwiek, jest […] uświadomienie sobie, że podkomisje Izby iSenatu, które nadzorują Facebooka, wkrótce będą miały przewodniczących, »którzy mają dość socjopaty«”15.

Wcieniu tych wydarzeń trwa jednak spóźniona odziesięciolecia dyskusja nad kwestią uregulowania mediów społecznościowych. Spóźniona choćby dlatego, że przez lata platformy korzystały znadaktywności prezydenta wmediach publicznych, apod koniec jego kadencji wykorzystały okazję, by przywdziać szaty katonów publicznej odpowiedzialności. Nie bez powodu.

Oile wStanach Zjednoczonych, czyli tam, gdzie wnajbliższym czasie będzie się decydować okształcie organizacyjnym korporacji platform, dyskusja na ten temat przyspieszyła pod koniec 2020roku – szerzej kwestia ta jest poruszona wkontekście antykonkurencyjności platform – otyle wramach Unii Europejskiej konkretów nabiera reforma prawa dotyczącego usług cyfrowych (Digital Services Act) irynków cyfrowych (Digital Market Act), która ma się opierać na prostej zasadzie: to, co jest nielegalne offline, jest również nielegalne online. Oznacza to odpowiedzialność platform za publikowane na nich treści, przed czym platformy broniły się latami.

Istotnym elementem tej dyskusji, choć niedotyczącym problemu koncentracji władzy, jest opublikowany kilka miesięcy przed wydarzeniami wWaszyngtonie raport Forum on Information and Democracy, zawierający kluczowe koncepcje nowych regulacji, które miałyby zapobiec „chaosowi informacyjnemu, który stanowi istotne zagrożenie dla demokracji”16. Przede wszystkim chodzi oujawnienia badaczom szczegółów dotyczących ich algorytmów ipodstawowych funkcji wcelu weryfikacji tej technologii, aby zapobiec gwałtownemu rozprzestrzenianiu się dezinformacji. Proponowany jest także „statutory building code”, który opisuje obowiązkowe wymogi bezpieczeństwa ijakości dla platform cyfrowych.

Powód jest oczywisty: „Gdybym miał wyprodukować urządzenie kuchenne, musiałbym przeprowadzić więcej testów bezpieczeństwa iprzejść przez więcej procedur zgodności wcelu stworzenia tostera niż tworzenia Facebooka” – mówił BBC jeden zautorów raportu17. Serwisy społecznościowe powinny być zobowiązane do ważenia wszystkich potencjalnych szkód, które mogą być spowodowane przez ich projektowania idecyzje inżynieryjne.

Raport sugeruje, że platformy społecznościowe powinny wyświetlać korektę dla każdej osoby, która była narażona na błędne informacje. Inne rozwiązania dotyczą wprowadzenia „automatycznych wyłączników”, które tymczasowo uniemożliwią rozprzestrzenianie się nowych treści wirusowych podczas sprawdzania faktów. Rozważa się ponadto zmuszanie serwisów społecznościowych do ujawniania wkanałach informacyjnych, dlaczego treść została polecona użytkownikowi, ograniczenie mikrotargetowania reklam, niezgodne zprawem wykluczanie ludzi ztreści ze względu na rasę lub religię, na przykład ukrywanie przed kolorowymi ludźmi ogłoszenia owolnym pokoju, zakaz korzystania ztzw. ciemnych wzorców – interfejsów mających na celu dezorientację lub frustrację użytkownika, na przykład utrudniających usunięcie konta.

Bez względu na los iznaczenie tej iinnych inicjatyw korporacje platform zyskują tymczasem nowe miliony użytkowników, głównie wAfryce iAzji, awEuropie iStanach Zjednoczonych trwa finansjalizacja coraz nowszych form społecznej aktywności.

Dyskusja na ten temat jest dogodnym punktem wyjścia, aby ukazać unikatowość platform, którym przez lata udało się zmitologizować własne role społeczne, stać się symbolami wolności ikreatywności oraz przywdziać szaty narodowych czempionów (wStanach Zjednoczonych) iniezbędnych dla losów ludzkości liderów postępu (na całym świecie).

8 A. Ohlheiser, E. Guo, Twitter locked Trump’s account. Insiders say it needs to go further, MIT Technology Review, 2021, pobrano z: https://bit.ly/3J3Dr8z.

9A. Chrisafis,France’s digital minister says tax on big tech is just the start, The Guardian, 12 stycznia 2020roku, pobrano z: https://www.theguardian.com/world/2020/jan/12/frances-digital-minister-tax-on-tech-giants-just-the-start-cedric-o-gafa.

10 A. Palmer, Facebook will block Trump from posting at least for the remainder of his term, CNBC, 7 stycznia 2021roku, pobrano z: https://www.cnbc.com/2021/01/07/Facebook-will-block-trump-from-posting-for-the-remainder-of-his-term.html.

11 J. Kreft, Władza algorytmów, Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2019.

12 Z. Bauman, Retrotopia. Jak rządzi nami przeszłość, Wydawnictwo Naukowe PWN, Warszawa 2018, s. 118.

13 Szerzej na ten temat wrozdziale szóstym, dotyczącym „stref zabijania”.

14 S. Galloway, Stupid, No Mercy / No Malice, 8 stycznia 2021roku, pobrano z: https://www.profgalloway.com/stupid?utm_source=newsletter&utm_medium= email&utm_campaign=NMNM20210108.

15Ibidem.

16 Forum on Information and Democracy, pobrano z: https://informationdemocracy.org/working-groups/concrete-solutions-against-the-infodemic. Forum zostało ustanowione wcelu wydania niewiążących zaleceń dla trzydziestu ośmiu krajów. Należą do nich Australia, Kanada, Francja, Niemcy, Indie, Korea Południowa iWielka Brytania. Wśród autorów raportu znaleźli się między innymi sygnalista Cambridge Analytica Christopher Wylie oraz były inwestor Facebooka Roger McNamee – wieloletni krytyk sieci społecznościowej.

17 Ch. Fox, Social media: How might it be regulated?, BBC News, 12 listopada 2020roku, pobrano z: https://www.bbc.com/news/technology-54901083.

I. Potęga platform

1. Dlaczego Google, Facebook, Apple i Amazon oraz Microsoft są tak potężne?

Odpowiedź na to pytanie nie jest łatwa. Wwersji lakonicznej potęgę platform kształtują przede wszystkim: potencjał narzucania interpretacji + misyjna retoryka + możliwości kształtowania otoczenia społecznego, politycznego igospodarczego + unikatowe kompetencje gromadzenia iwykorzystania zasobów, zwłaszcza niematerialnych.

Sięgając po terminologię zarządzania, na potęgę wielkich korporacji Big Tech zarządzających platformami składa się: zarządzanie konkurującym ze sobą albo współpracującym ekskluzywnym zestawem platform, które rządzą rdzeniem światowych cyfrowych systemów informacyjnych, korzystających ikształtujących bezprecedensowy gospodarczy, społeczny igeopolityczny system kontroli18.

Oile władza ipieniądze oraz wpływy (geo)polityczne są stosunkowo dobrze rozpoznane, otyle występujące na początku tego „pakietu” potencjał narzucania interpretacji roli platform oraz ich misyjna retoryka wydają się ciałami obcymi. Zanim jednak zostaną przedstawione jako charakterystyczne czynniki potęgi iniezwykłej ekspansji korporacji, trzeba podkreślić, że taka odpowiedź odnosi się do najpopularniejszej definicji platformy: programowalnej architektury cyfrowej zaprojektowanej do organizowania interakcji między użytkownikami – nie tylko użytkownikami indywidualnymi, ale także podmiotami korporacyjnymi iorganami publicznymi. Taka platforma jest ukierunkowana na systematyczne gromadzenie, przetwarzanie algorytmiczne, obieg imonetyzację danych użytkowników19.

Platforma jak kameleon

Definicja ta, szeroka iwielowymiarowa, wykazuje jednak tę ułomność, że platforma jest wniej obecna zperspektywy jej twórców. To prawda, że platformy nieustannie ewoluują pod wpływem otoczenia politycznego, prawnego czy społecznego oraz rozwoju wiedzy programistycznej (będzie otym jeszcze mowa), lecz dla dalszych rozważań znaczenie ma jeszcze jedna, fundamentalna cecha platform, amianowicie jej „performatywność interpretacyjna”, czyli zmienności tego, co użytkownicy imiliony firm widzą wplatformie wzależności od tego, które zjej rodzajów ról akurat wysuwa się na pierwszy plan.

To, jak platformy są odbierane ijaka akurat dominuje narracja, jest skutkiem „negocjacji” między narzucanymi przez nie same iforsowanymi autointerpretacjami ainterpretacjami konkurencyjnymi. Można je bowiem postrzegać nie tylko zperspektywy ich strategii ianaliz struktur, ale także zperspektywy języka izachowań organizacyjnych wzgodzie zparadygmatem interpretatywno-symbolicznym, skupiającym się na opisie współzależności wzłożonych strukturach społecznych iorganizacyjnych.

Taka płynna interpretacja platformy nawiązuje do definicji organizacji rodem zzarządzania humanistycznego autorstwa MaryJ. Hatch, według której jest to wspólny wytwór technologii, struktury społecznej ifizycznej oraz kultury zanurzonych wotoczeniu, które współkształtuje – jest siecią zbiorowych działań podejmowanych jako próba kształtowania świata iżycia ludzi20. Taka organizacja jest symboliczną ispołeczną konstrukcją dziejących się na bieżąco inakładających się na siebie wymian komunikacyjnych między jej uczestnikami.

Platforma cyfrowa jest zatem kameleonem przybierającym różne postaci wzależności od tego, jaki czynnik ekosystemu jest akurat najbardziej dla jej właścicieli izarządzających niebezpieczny, ajaki może jej zapewnić największy wpływ – presja polityczna, rynkowa czy społeczna – oraz który jest akurat poręczny czy może stanowi okazję rynkową. Jest to kameleon osobliwy, władny narzucać interpretacje tego, co sobą przedstawia, kameleon czerpiący swoją moc z„sił witalnych” dostarczanych przez użytkowników ipodmioty biznesowe iwpływający na codzienne praktyki życia politycznego, społecznego igospodarczego21. Ponadto – co tym bardziej nie ułatwia diagnozy – jest to podmiot tworzący własny ekosystem, stosujący unikatowy semantyczny kamuflaż.

Zanim ten kamuflaż zostanie przedstawiony, odpowiedzi wymaga jednak pytanie opotęgę platform.

2. Platforma astosunki władzy

Na wstępie wypada zastrzec, że ten złożony, wywodzący się zróżnych perspektyw badawczych problem trudno ująć wjedną spójną koncepcję. Odwagi wtych okolicznościach dodaje przekonanie, że nauka jest jedna inie sposób ukazać wielowymiarowej roli tak złożonych podmiotów bez wykroczenia poza sztuczne ramy przypisane tradycyjnie subdyscyplinie zarządzania mediami czy – szerzej – mediom ikomunikowaniu, bez odwołania się do dorobku zarządzania humanistycznego i„ekonomicznego”, ekonomii czy socjologii. Transdycyplinarne ujęcie platform pozwala uwzględnić perspektywę ihumanistyki cyfrowej, isoftware studies, na styku nauk humanistycznych, społecznych itechnicznych.

Owszem, za rogiem takiej „swawolnej fanaberii” mogą, jak zauważa profesor Jerzy Jastrzębski, kryć się różne kłopoty: niebezpieczeństwo „proteuszowej zmienności” przedmiotu badań, wynikającej zprzyspieszeni historii, „płynności” realiów, narastania chaosu oraz inflacji obserwowanych obiektów iprocesów. Wszystko to może powodować „rozmycie znaczeniowe”, utratę tożsamości i– jak zauważa przywoływany badacz – fraktalizację fenomenów. Jednak nagrodą za interdyscyplinarne ujęcie jest uwypuklenie złożoności wczasach redukcjonizmu inachalnej marektingizacji.

Wsukurs przychodzi bogata teoria sprawowania władzy, dostarczająca kilku ważnych ustaleń, zktórych prace Talcotta Parsonsa, Stevena Leukesa iPierre’a Bourdieu będą stanowiły szczególnie dogodne odniesienia.

Warto przypomnieć, że dla Parsonsa władza jest zdolnością osiągania celów przede wszystkim przez instytucje, przy czym niekoniecznie musi być ona działaniem uświadamianym izamierzonym przez jej gestorów. Na platformie taka władza polegałaby na zdolności mobilizowania zasobów społecznych wcelu osiągnięcia zbiorowych celów systemu, przy czym system ten materializuje się iprzejawia także wpostaci umożliwiania przez nią sprawowania władzy przez inne podsystemy22, władza według Parsonsa nie odnosi się bowiem jedynie do podsystemu politycznego, ale jest atrybutem wszelkich systemów społecznych. Co więcej, ponieważ parsonsowska władza jest swoistym środkiem wymiany wobrębie podsystemu polityki iwjego relacjach zinnymi podsystemami, można ją także wymieniać na pieniądze, dobra iusługi, zatem platformy, które są środowiskiem sprawowania władzy politycznej, uzyskują konkretne koncesje ztego tytułu.

Sprawowanie władzy przez platformy zperspektywy nurtu krytycznego odnosi się do szczególnie wartościowego dla zrozumienia roli platform ujęcia Stevena Leukesa, który podkreśla ważny jej wymiar, mianowicie zdolność kontrolowania przekonań ipreferencji23. Stosunek władzy zachodzi, gdy jeden podmiot wpływa na inny w„moralnie istotny” czy „nietrywialny” sposób, co oznacza, że podmioty sprawują tylko wówczas władzę nad innymi, gdy wywierają negatywny wpływ na interesy tych podmiotów.

Gdy występuje tzw. konflikt utajony, czyli sprzeczność między interesami sprawującego władzę – wtym wypadku platformy – arzeczywistymi czy zmiennymi „obiektywnymi interesami”24 tych, którzy są tej władzy pozbawieni, wówczas dochodzi do sprawowania władzy przez nietransparentną kontrolę iwytwarzanie mitów oraz budowę ideologii. Ofiary władzy wcale nie muszą bowiem dostrzegać zagrożenia swoich prawdziwych interesów iwkonsekwencji nie próbują ich nawet bronić. Jeśli zatem na platformach ma się urzeczywistniać – jak przekonują ich reprezentanci – zgóry założony ideał, jak choćby wspólnota autonomicznych jednostek, to wistocie następuje utrwalenie relacji władzy25.

Platformy uruchamiają także funkcjonujące wspołeczeństwie wartości, wierzenia, rytuały iprocedury instytucjonalne (zasady gry), broniąc dotychczasowego porządku istawiając go wuprzywilejowanej pozycji. Spełniają tym samym dyspozycję „władzy ukrytej”26.

Władza platform to także – nawiązując do myśli Pierre’a Bourdieu – władza symboliczna, najsubtelniejsza znich, polegająca na narzucaniu znaczenia, ukrywaniu układu sił iprzejawiająca się wkomunikacji opartej na racjonalności27. Jest to władza nieujawniana, zachodząca, gdy podporządkowani jej podlegają formom ischematom myślowym isami uczestniczą wjej konstruowaniu, nie dostrzegając podporządkowania, awręcz je umacniając. Przemoc władzy symbolicznej dokonuje się za pośrednictwem realizowania przez platformę własnych interesów, przedstawianych jako działania bezinteresowne albo winteresie obecnych na platformie wzgodzie zobiektywnym (ustanawianym iegzekwowanym przez algorytmy), sprawiedliwym zasadom28. Żeby się to zmieniło, obecni na platformach musieliby – dotyczy to zwłaszcza indywidualnych użytkowników – wyjść z„platońskiej pieczary”, albowiem uświadomienie sobie faktu, że podlega się władzy platform izasadom wniej obowiązującym, jest możliwe dopiero wówczas, gdy widzi się „pieczarę zzewnątrz”. Symboliczna władza dokonuje się zatem tam, gdzie się jej nie zauważa, igdy dominuje przekonanie, że „taki jest porządek rzeczy”. Cybernetyczny świat, wktórym użytkownicy są „zanurzeni”, jest bowiem tyle oczywisty, co naturalny.

Po tym wstępie można przyjąć, że władza platform cyfrowych jest zdolnością narzucania woli, zmuszania do określonego zachowania ikontrolowania poczynań człowieka (użytkownika), grup społecznych ipodmiotów gospodarczych. Człowiek, retorycznie upodmiotowiony, awistocie „utowarowiony” na platformie, występujący na niej wkilku zazębiających się rolach – jako konsument iproduser oraz bierny odbiorca, rzadko jako obywatel – wkażdej znich współtworzy wartość platformy, zawsze jako dostarczyciel danych, niekiedy jako współtwórca treści i(lub) konsument. Wroli wpełni podmiotowej na platformie nie występuje, nie może bowiem na nią wejść bez przejścia „procedury uprzedmiotowienia” (przekazania danych izrzeczenia się – nie wprost – roszczeń ztytułu tego przekazania). Wistocie zatem wejście na platformę (zgoda na jej warunki) jest, wzależności od perspektywy, aktem zrzeczenia się podmiotowości albo uprzedmiotowienia.

Platforma jako „game changer” zarządzania

Zpunktu widzenia relacji zindywidualnymi użytkownikami platformy mogą zmienić każdą interakcję wdane. To proces, ponieważ właśnie dzięki datafikacji platformy działające wcześniej na różnych rynkach zbiegają się wjeden jednolity rynek danych. Dla sektora mediów oznacza to na przykład, że jego granice stają się coraz bardziej rozmyte istopniowo łączą się zrosnąca branżą danych. Nietrudno więc wyobrazić sobie, że właśnie ta perspektywa, anie na przykład społeczna odpowiedzialność mediów, jest ważniejsza dla zarządzających platformami czy dla programistów. Datafikacja narzuca optykę rozumienia szeroko pojętego rozwoju, ito wróżnych wymiarach.

Ma również swoje fundamentalne konsekwencje. Gdy bowiem menedżerowie będą polegali na wiedzy algorytmicznej, wówczas platformy cyfrowych mediów dostarczą danych niezbędnych wtym procesie, aplatformy staną się centrum oceny iwyceny danych oraz jądrem procesów zarządczych.

Na marginesie można przywołać ciekawy paradoks: platformy stają się także czynnikiem blokującym siły rynkowe, nawet kosztem efektywności29, to bowiem nadal ludzie zarządzający platformami mają określać, co pozostaje automatycznie planowane, aco rynkowo stymulowane. Gdy korporacje zarządzające platformami stają wówczas na ostatniej linii obrony człowieka przed eksternalizacją procesów decyzyjnych, jest to przejaw ludzkiej sprawczości chroniącej rynek cyfrowy przed nim samym30.

Przechodząc zaś do szczególnych cech iróżnych ról platform, można je pokrótce ująć wnastępującym katalogu:

• retoryczna neutralność – moderowanie aktywności itreści na platformie odbywa się wzgodzie zlogiką biznesową31;

• programowalność – platformy można tak konfigurować, by pozwalały na stosowanie innowacji iumożliwiały opracowywanie aplikacji idodatków;

• generatywność – korzystanie zudziału użytkowników, tworzenia przez nich treści ipozostawiania cyfrowych śladów32;

• czerpanie wartości zsektorów, do których platformy wchodzą przez datafikację, utowarowienie iselekcję.

Zrynkowego punktu widzenia należy wplatformie widzieć przede wszystkim infrastrukturę cyfrową, która łączy producentów, konsumentów, usługodawców, reklamodawców iinne grupy winteraktywnym ekosystemie oraz umożliwia wymianę towarów, usług lub informacji. Strategicznym celem tak rozumianej platformy jest zdominowanie wszystkich relacji (społecznych ihybrydowych) między człowiekiem a„nie-ludzkimi aktorami” wramach „przestrzeni mikropłatności”, czyli czerpanie zysku zinterakcji między ludźmi, organizacjami irzeczami. Oznacza to, że na przykład „medium społecznościowe”, jakim wydaje się Facebook, jest osnutym „mgłą” społecznościowej retoryki podmiotem wymykającym się łatwym interpretacjom.

Platforma rozumiana jako miejsce spotkań sektora prywatnego isektora państwowego, zjego prerogatywami regulacyjnymi imonopolem na stosowanie siły, oferuje nową logikę rewolucyjnych zmian dla tradycyjnych sektorów gospodarki. Powstające na niej wartości są wielowymiarowe: platformy udostępniają infrastrukturę, mechanizmy transakcji itzw. systemów reputacji, tworzą zatem przede wszystkim wielką agorę interakcji itransakcji, łączenia ludzi, firm izasobów, adopiero wdalszej perspektywie agorę społecznego dobrostanu. Wkażdej ztych postaci ustanawiają jednak, na własnych zasadach, warunki sprawowania władzy iśrodowisko kulturowe.

Dla biznesu obecność na platformach jest nie tylko szansą – nie są przecież jedynie miejscem spotkań zpartnerami biznesowymi iklientami oraz „motorem innowacji” – ale także wymuszoną koniecznością, ponieważ stały się oczywistym ekosystemem biznesowym, co nie znaczy, że jednoznacznie korzystnym dla wszystkich uczestników.

Wkontekście konwergencji infrastruktury platforma tak zwanego medium społecznościowego występuje jako rodzaj infrastruktury pozwalającej na stosowanie pewnych praktyk, ajednocześnie zabraniającej innych, ma więc polityczny charakter jeśli chodzi oprzydział zasobów wtworzeniu kapitału istosowaniu przemocy.

Ta sama platforma zekonomicznej perspektywy to system zarabiający pieniądze przez umożliwianie stronom trzecim zarabiania pieniędzy. Platforma wyłoniła się bowiem jako nowy model biznesowy, zdolny nie tylko do kojarzenia różnych aktorów, ale także do wspomnianego wydobywania ikontrolowania ogromnych ilości danych.

Platforma występuje zatem jako typowy „game changer” – burzyciel dotychczasowych reguł iczynnik stanowienia nowych. Produkcja idystrybucja, usługi ikwestie społeczne wmediach – wszystkie zostały zmienione przez zasady funkcjonowania platformy. Logikę tę dobrze ilustruje przykład Ubera, firmy świadczącej usługi przewozu osób, która nie ma pojazdów. To bowiem dostęp, anie posiadanie jest wspólne dla platform. To samo można powiedzieć oFacebooku iGoogle (media), Alibabie (handel detaliczny) iAirbnb (hotele) – żadna ztych platform nie jest właścicielem dóbr, które umożliwiają korzystanie zjej usług, nie licząc może inwestycji wrozwój internetu wpostaci kabli podmorskich (Facebook, Google) oraz marginalnych prób tworzenia treści mediowych wramach na przykład Google News isprzedaży na firmowej platformie własnych produktów.

3. Algorytmy a platformy – iluzje racjonalności..., neutralności i obiektywności

Retoryczne upodmiotowienie iprzedstawiona dalej narracyjna siła platform nie miałyby racji bytu bez unikatowości „technologii władzy”, czyli algorytmów platform, zwłaszcza algorytmów społecznych – mających bezpośredni kontakt zczłowiekiem. Ci, jak proponował Bruno Latour, „nie-ludzcy aktorzy” – ztej interpretacji jeszcze nieraz przyjdzie skorzystać – dołączają do aktantów (nie tylko ludzi, ale także czynników oddziałujących na inne czynniki inabywających mocy wzwiązkach znimi) itworzą układ aktorów-sieci, przy czym są równie ważni, jak ludzie. Organizacja jawi się wtej perspektywie jako złożony układ relacji między użytkownikami, ich narzędziami komunikacji oraz algorytmami wskomplikowanym uniwersum materialno-semiotycznym33, ujętym wprofetycznych ramach „socjologii nie-ludzi”34.

Algorytm jawi się jednak także jako konstrukt narracyjny platform, utożsamiający i– metaforycznie ujmując – „ucieleśniający” obiektywność ineutralność oraz doskonałą wolność od etycznych niejednoznaczności. Jako byt doskonały, wolny od ludzkich irynkowych ułomności, symbolizujący pokonanie ludzkich ograniczeń, stanowi mcluhanowskie doskonałe „przedłużenie” człowieka. To wnim manifestuje się „pozarynkowy” charakter platform iich elastyczność, pozwalająca – jako kulturowy konstrukt – uwzględniać miejscowe zwyczaje, kulturę iwiedzę. Kiedykolwiek zatem algorytm pojawi się wdalszych rozważaniach, nie będzie konstruktem programowania, ale przede wszystkim konstruktem społecznym.

Współczesny stan badań nad algorytmami wnaukach humanistycznych osiągnął taki poziom dojrzałości, że można wskazać na kilka głównych krzyżujących się nurtów. Gdyby podjąć próbę ich systematyzacji, dostrzegłoby się dążenia do uchwycenia fenomenu algorytmicznego wkategoriach „ideologii algorytmicznej”35, „algorytmicznego nadzoru” czy „algorytmicznej tożsamości”36 oraz wysiłki wramach socjologii algorytmów.

Krytyczne studia algorytmiczne oferują zachowanie troski ospecyfikę, zwłaszcza wobliczu „dyskursywnego marketingowego przesłodzenia”. Ztej perspektywy kontestowane są wszystkie cechy przypisywane zazwyczaj algorytmom: obiektywizm, bezstronność iwiarygodność – wszystkie uznawane za starannie przygotowane fikcje37.

Nawet jeśli programiści starają się utrzymać wysoki poziom obiektywności, atym samym niezależność od lokalnych zwyczajów, kultury, wiedzy iuwarunkowań, to nie sposób od nich uciec wprocesie tłumaczenia zadania na język programu. Nie ma zatem obiektywnych algorytmów, mnożą się zaś nieudane iskazane na porażkę próby ich tworzenia. Tymczasem zakres działań jest dość pokaźny: wyszukują, zestawiają, sortują, kategoryzują, grupują, dopasowują, analizują, profilują, modelują, symulują, wizualizują iregulują postawy ludzi. Kształtują to, jak człowiek rozumie iprzedstawia świat – iwtym sensie są performatywne, sprawiając, że coś się zdarza.

Na przykład Facebook angażuje wiele wersji algorytmu, by poznać skutki ich działania, ato oznacza, że użytkownik po kilku sekundach korzystania ztej samej usługi może wchodzić winterakcje zinną jego wersją. Niektóre kody zkolei są tak napisane, żeby były reaktywne izmienne wstosunku do danych wejściowych – wten sposób ma działać EdgeRank Facebooka, określający, które posty iwjakiej kolejności są wprowadzane do osi czasu użytkownika. Algorytmy takie nie są statyczne iwspółdziałają zkażdym użytkownikiem inaczej, wzależności od tego, jak wchodzi on winterakcje zinnymi użytkownikami38.

Stopień zróżnicowania jest tak duży, że wwypadku Google może się nigdy nie udać prześledzenie dojścia do wyników działania algorytmu, jest wnim bowiem „wbudowana” losowość39. Trudno nawet oprzybliżone przewidzenie społecznych skutków jego działania. Oznacza to, że pojedyncze zdarzenie (czynniki) mogą wpływać na liczne wyniki uzyskiwane przez ten sam algorytm. Nie oznacza to, że zrozumienie algorytmu nie jest możliwe, ale przesądza odużej komplikacji tego procesu40.

Podsumowując, wobecnym stanie rzeczy nie rozumiemy, wjaki sposób na przykład platformowa infrastruktura Web 2.0 wpływa na życie indywidualnych użytkowników, wjaki sposób oprogramowanie ustala hierarchie, kształtuje dostęp do treści. Innymi słowy: zrozumienie partycypacji wymaga zrozumienia „performatywnej” infrastruktury, ta zaś wymyka się łatwym interpretacjom.

Algorytmy platform mają normatywny wpływ, wdrażają regulacje wiedzy41. Są używane do narzucania narracji, uwodzenia, wymuszania, dyscyplinowania, regulowania ikontrolowania – do przekształcania sposobu, wjaki ludzie i„nie-ludzcy aktorzy” wpływają na siebie, jak użytkownicy są beneficjentami i„ofiarami” autorytetu algorytmicznego42 oraz podmiotami iprzedmiotami algorytmicznego zarządzania.

Wspomniany „autorytet algorytmiczny” to większe zaufanie do wyników procesu algorytmicznego niż do wiedzy iintuicji człowieka, to uznanie za autorytatywny procesu pozyskiwania wartości zróżnych niewiarygodnych źródeł, bez udziału człowieka43, nawet jeśli polega on na czerpaniu informacji zwielu niesprawdzonych pod względem wiarygodności źródeł iłączenie ich wtaki sposób, że powstaje wynik, pod którym nie podpisałby się żaden ludzki autorytet44.

Takie algorytmy stały się wreszcie czymś wrodzaju nowoczesnego mitu: przypisano im wielkie możliwości, władzę imoce. Podczas gdy jedne są proste, opisywalne wjednym „zdaniu”, to inne, jak megaalgorytmy wyszukiwarki Google czy kanałów informacyjnych Facebooka, rekomendacji Netflixa iAmazona, aostatnio Apple+ iplatformy streamingowej Disneya, stały się tak skomplikowane, że aż trudno zrozumiałe.

Zarówno najbardziej skomplikowany, jak iprostszy algorytm społeczny może być interpretowany na kilku poziomach: jako czynnik ułatwiający dialog między ludźmi, jako kreator powszechnego dialogu oraz jako składnik cyfrowego ekosystemu zastępujący/uzupełniający działanie niedoskonałych ludzi składnikiem wyobrażonej doskonałości organizacji. Zawsze zatem pojawi się wkontekście społecznym ihumanistycznym, ale także jako czynnik zakłócający itransformujący – wodniesieniu ido sposobu działania organizacji, ido związanego znią obecnego oraz przyszłego rynku pracy. Ich rozwój sprzyja atrofii jednych sektorów ipowstawaniu nowych sektorów – wszystko wzgodzie zprymatem potencjału zakłócania.

Normatywne przejawy wpływu społecznego algorytmów cyfrowych platform to zatem:

• sortowanie iklasyfikowanie sieci społeczności, sygnalizowanie jakości wyszukiwania;

• organizowanie pseudospołeczności;

• pobudzanie działalności komercyjnej iprzepływu kapitału;

• organizowanie ludzi waudytoria, gdy automatycznie tworzą, rekomendują iczytają wiadomości45;

• optymalizacja międzynarodowych rynków pracy;

• tworzenie „cyborgicznych finansów”46, działających szybciej niż ludzkie zrozumienie.

Wszystko to oznacza, że algorytm nie jest społecznie obojętny inie jest jedynie matematyczną abstrakcją. Jest kształtowany przez społeczne, polityczne iestetyczne decyzje, przejawiające się wjego instrukcjach iprzeobrażeniach. Jego ontogenetyczna natura (znajduje się on zawsze wstanie stawania się) oznacza, że jest labilnym abstraktem kształtowanym przez bogactwo środowiskowych wpływów. Jest „zanurzony” wspołecznych praktykach, osadzony kulturowo, historycznie iinstytucjonalnie, ijako taki nie może być zrozumiany czy interpretowany jako technologiczny abstrakt wzgodzie zjego naturą izadaniami. Jest „technologią kultury”.

Takie ujęcie stoi wopozycji do wykorzystywanej przez platformy potocznej interpretacji, według której algorytmy pozostają przede wszystkim jądrem racjonalnego, matematycznie opisywalnego cyberśrodowiska – logiki, zgodnie zktórą świat można przedstawić za pomocą „zer” ijedynek” wsekwencjach kodu. To świat wielkich obietnic: przedstawienia życia biologicznego, awnajbliższej przyszłości – posthumanistycznego postępu, czyli pokonywania ludzkich ograniczeń dla ludzkiego dobra, ana obecnym etapie – przede wszystkim obietnica rozprawiania się zchaosem danych, nadmiaru informacji iinterpretacji. Wszystko wsłużbie użytkownika, anawet ludzkości.

Wmyśl tego stanowiska algorytmy Facebooka iwielu innych platform są neutralnymi narzędziami identyfikacji, selekcji idostarczania odpowiednich informacji poszczególnym użytkownikom czy grupom użytkowników. Wszystko to wzgodzie zmarketingową logiką „zaspokajania potrzeb” ibogactwa.

Algorytmy są zatem przedstawiane jako całkowicie autonomiczne, wolne od ludzkiej interwencji, azarządzający platformami sugerują, że są „wymyślone” jako logiczny ioczywisty kolejny krok nauki iszczytowe jej osiągnięcie, tak jakby były naturalnym przejawem praw natury, nieuniknionym owocem wiary wpostęp. Jako następstwo praw matematycznych mają być obiektywne ineutralne – dotyczy to zarówno obecnie wykorzystywanych, jak itych, które mają poradzić sobie zproblemami braku bezpieczeństwa, czyli na przykład koncepcji blockchainu. Wzgodzie ztą logiką algorytmom towarzyszy utopijna wizja wolności od błędów człowieka ijego stronniczości, wizja, wktórej człowiek nie decyduje już, jakie dane zbierać ijakie ustalać kryteria wyboru oraz jakie wskazywać cele47.

Wizerunek autonomii algorytmów ignoruje jednak decyzje iprace wymagane przy projektowaniu algorytmów oraz ograniczenia infrastrukturalne itechnologiczne. Algorytm staje się totemem przesłaniającym odpowiedzialność organizacji, która go stosuje, ma wzbudzić zaufanie nadszarpnięte etycznymi dezorientacjami zarządzających platformami. Programowanie staje się wtej narracji praktyką tajemną, godną szacunku iwolną od ingerencji zewnętrznych iwewnętrznych, składową większego mitu.

Mit algorytmu utkany zwierzeń wjego neutralność jest ważny nie dlatego, że odzwierciedla prawdę oplatformie, ale dlatego, że jest żywy. Algorytmizacja jawi się bowiem jako tajemniczy, niemal magiczny proces, często utożsamiany zistotą rozwoju izpowiększaniem zakresu wiedzy, ekspansją kognitywnego kapitalizmu. Jest oczekiwana, anawet pożądana, obiecuje uporządkowanie wobliczu poczucia chaosu, niepewności, bezradności inienadążania za zmianami, choć jednocześnie często pogłębia ten chaos, zwiększa różnice społeczne ijest nierozumiana co do zasady iskutków.

Tymczasem zachodzące na platformach procesy algorytmizacji wykazują następujące istotne cechy:

1. Najważniejsze algorytmy, onajwiększym wpływie społecznym, powstają wzamkniętych, niepodatnych na kontrolę ekosystemach medialno-technologicznych. Kodowanie odbywa się zazwyczaj wramach korporacji ina jej zasadach, asam algorytm jest pilnie strzeżonym, cennym zasobem strategicznym, decydującym opozycji konkurencyjnej organizacji.

2. Trudność wdekonstrukcji algorytmu wynika zjego systemowego charakteru, zależności od wielu innych algorytmów ipozostałych czynników. Ponadto systemy algorytmiczne mają zwykle wielu autorów pierwotnych rozwiązań iautorów korekt. Na ich relacyjny, heterogeniczny wpływ składają się niekiedy tysiące osób, protokoły, standardy iprawa. Ponieważ są one także chaotyczne, poznanie ich logiki iracjonalnych przesłanek nimi rządzących jest utrudnione, aostatecznie zrozumienie całego systemu budowanego przez różne zespoły wramach platform może okazać się niemożliwe.

3. Algorytmy platform są performatywne, nie są ustalone raz na zawsze, ucząc się niezależnie od swoich twórców. Algorytmy nie wykonują jedynie instrukcji programisty, lecz również porównują wartości, które wcześniej zostały wybrane, anastępnie sortowane – każde działanie algorytmu musi być (ijest) poprzedzone wcześniejszym działaniem (ludzi bądź nie-ludzi)48. Performatywność oznacza, że nie wiadomo, jakimi akurat kierują się przesłankami czy celami oraz jakie cele mają być osiągane przez testowane za ich pomocą modele.

Wszystkie te konsekwencje nie determinują jednak sposobu postrzegania algorytmów platform cyfrowych. Wtym kontekście mniej ważne jest to, czy są neutralne iperformatywne, decydujący jest zaś poziom zmitologizowania ich roli. Uderza wtym ujęciu brak publicznej dyskusji, ale także woli poznania algorytmicznego wymiaru władzy platform oraz tego, na czym ta władza wistocie polega.

Tymczasem wpraktyce społecznej irynkowej sygnalizowana już władza organizacji platform iich algorytmów przejawia się (wrozwiniętej postaci) następująco:

1. Determinacja doświadczenia użytkowników ifirm przez:

• nadawanie znaczenia – na przykład wyszukiwarki strukturyzują kategorie wodpowiedzi na zapytania użytkowników, mają zdolność tworzenia kategorii dla opisu rzeczywistości/świata; przez definiowanie, które informacje stają się dostępne dla każdego zapytania, wyszukiwarki kształtują stanowiska, koncepcje ipomysły49;

• retorykę algorytmu – retoryka wielkiej mocy decydowania otym, co jest wiedzą, prawdą imaterialną rzeczywistością wcodziennym ludzkim życiu globalnych społeczności XXIwieku. Wywieranie wpływu na to, co jest ważne lub prawdziwe wspołecznych, kulturowych, gospodarczych ipolitycznych relacjach50;

• selektywny dobór / ignorowanie zbiorów – bazy danych są dla zarządzających algorytmami zestawem możliwych do odszukania danych, anie zobowiązaniem do ich odszukania, zobowiązania społeczne ustępują celom rynkowym.

2. Korygowanie społecznych norm (definiowania prywatności). Władza przejawia się wpozbawianiu użytkowników wyboru tego, co zich życia pozostanie tajemnicą. Nadzór nie polega na osłabianiu prywatności – miejsce wielu ludzi mających pewne prawa do prywatności zajmuje koncentrowanie tych praw wramach algorytmicznego systemu nadzoru.

3. Selekcję społeczną:

• redukcja człowieka do profilu – złożoność iwyjątkowość ludzka jest sprowadzona do produktu, którego wartość weryfikuje rynek uwagi irynek reklamowy;

• zarządzanie widocznością użytkowników dla innych użytkowników – władza uwzględniania wwynikach wyszukiwania oraz nakłaniania do uczestnictwa wobec zagrożeniu „niewidocznością”;

• nadawanie statusu społecznego – rzadkim ipożądanym dobrem są popularność, status celebryty isława mierzone według kryteriów narzuconych przez organizacje medialno-technologiczne;

• separacja – wzgodzie zkoncepcją bańki filtrującej niewidzialne filtry algorytmów łączą treść ze zinterpretowanymi przez algorytm preferencjami użytkowników. Tak powstają bańki informacyjne, pułapki separowania użytkowników od treści niezgodnych zich poglądami, wcześniej zidentyfikowanymi wramach analiz big data. Praktyki takie wpisują się wpowszechność regulowania Web 2.0 przez sortowanie ifiltrowanie wykonywane przez algorytmy decydujące, co użytkownik napotyka winternecie;

• władza decydowania o„powrocie do plemion” – platformy tworzą izrywają więzi międzyludzkie oraz wytyczają graniczne linie oddzielające „nas” od „nich”. Taki świat oferuje niczym nieograniczone, przyjemne uczucie przewagi iwywierania wpływu na innych swoją władzą51.

4. Władzę umożliwiania doświadczania władzy – algorytmy platform zapewniają doświadczanie władzy nad innym (innymi).

Poszczególne elementy tego niepełnego katalogu będą uzupełnianie irozwijane wdalszych rozważaniach. Tymczasem, sięgając po pozaprogramistyczne interpretacje, należy wyjaśnić wielowymiarowość algorytmicznych narzędzi sprawowania władzy iich performatywną naturę.

(Kult)ura algorytmiczna

Jeśli programiści, inżynierowie inaukowcy nauk społecznych mówią oalgorytmie, to każdy ma zwykle na myśli co innego. Podczas gdy programiści widzą wnim zazwyczaj proste reguły, logiczną serię kroków organizowania idziałania na zbiorze danych wcelu szybkiego osiągnięcia pożądanego rezultatu, to dla szerokiej opinii publicznej algorytm jest niezrozumiałym konstruktem. Zkolei badacze społeczni ihumaniści dostrzegają znaczenia odległe od technologicznych oraz matematycznych iwidzą niezbadany artefakt onieuchwytnej iobjaśniającej mocy. Zazwyczaj łatwiej próbować objaśniać wpływ algorytmu, niż opisać, czym jest wkontekście społecznym. Kanonicznie ujmowany, rozumiany jest jako technologia52, ale to także aktor podejmujący decyzje53, wręcz „epistemologia sama wsobie”54.

Nic dziwnego, że różni ludzie wróżnych okolicznościach społecznych iwróżnym czasie odmiennie definiują algorytm iwskazują na jego różne cechy. Jak zauważa Nick Seavers, osoba pracująca wFacebooku w2017roku, matematyk uniwersytecki pracujący w1940roku albo lekarz ustalający procedury leczenia w1995roku – wszyscy oni mogą słusznie twierdzić, że pracują nad „algorytmami”, ale nie oznacza to, że będą mówili otym samym55.

Dodać wypada, że choć algorytmy mogą być zawsze reprezentowane wkategoriach numerycznych, to niekoniecznie działają na liczbach. Na przykład algorytm umieszczający listę słów wporządku alfabetycznym działa na obiektach (słowach), które nie są liczbami, zatem logika funkcji numerycznych jest obecna nie tylko jako funkcja poznawcza (jako matematyka), ale także jako język performatywny. Ogólnie jednak, większość procesów produkcyjnych, organizacja usług dla „obywatela” i„klienta” oraz niezliczone kliknięcia są inspirowane modelami algorytmicznymi, co oznacza wistocie hegemonię logiki algorytmicznej56.

Nic więc dziwnego, że interpretacjom takim towarzyszy niepewność metodologiczna, która nie ma jednak związku zpoczuciem niekompetencji technologicznej ze strony przedstawicieli nauk humanistycznych ispołecznych, wiele ją jednak łączy zprzekraczaniem granic dyscyplinarnej jurysdykcji, krytyczne badania nad algorytmami polegają bowiem właściwie na przekraczaniu dyscypliny. Można by zatem pozostać przy eksperckiej „technologicznej” definicji informatycznej algorytmu, anastępnie rozważyć, jak odnieść do niej inne obszary wiedzy. Taka kolejność ułatwiałaby dyskusję na temat jego wpływu57, ale byłoby to rozwiązanie ułomne, ponieważ granice pojęcia „algorytm” nie byłyby wyznaczane przez społeczne zaangażowanie.

Dlatego, powracając do wątku definicyjnego, wcelu uporządkowania wywodu, sformułować można definicję algorytmu jako rodzaju socjotechnologicznego związku, części rodziny autorytatywnych systemów tworzenia wiedzy lub podejmowania decyzji, wktórych ludzie inie-ludzcy aktorzy dostarczają dane isą umieszczani dzięki nim wsystematycznych/matematycznych relacjach, anastępnie otrzymują zasoby informacyjne na podstawie analizy danych wejściowych iich ocen58.

Definicja taka wymaga jednak istotnych komentarzy.

Algorytm jako platforma

Termin „algorytm” jest bowiem także używany wkontekście całej organizacji, na przykład platformy, iidentyfikowany znią na każdym etapie jej ewolucji. Mówimy „algorytm Facebooka” – itakie sformułowanie staje się formą przypisywania odpowiedzialności oraz redukuje dystans między organizacją azapisem cyfrowym. Mając na myśli „Facebook” czy „WeChat”, wistocie rozważamy także tajemniczy, niewidoczny (algorytmiczny) „zabieg”, dzięki któremu zyskujemy kontakt zludźmi iartefaktami, aprzy okazji identyfikujemy organizację, zktórą go kojarzymy.

Gdy zabieg ten działa dłużej, zczasem zaciera się różnica między algorytmem iorganizacją – myślimy wówczas „Facebook”, ale kojarzymy tablicę albo po prosto zapośredniczony kontakt ze znajomymi – przy okazji zaś zanikają granice między postrzeganą władzą organizacji ajej możliwościami iużytecznościami oraz obietnicą marki. Wówczas wspołecznej świadomości metafora „algorytmy rządzą światem” wydaje się całkiem dobrze oddawać relacje wśrodowisku platform matematycznych abstraktów iludzi.

Wwąskiej, technologicznej interpretacji współczesne algorytmy pozostają tymczasem dalekie od takiej omnipotencji irzadko są tak zaprojektowane, aby uzyskiwały pojedynczą jednoznaczną odpowiedź. Ich projektanci dążą do osiągnięcia pewnego progu zadowolenia operatora lub użytkownika, na przykład satysfakcjonującego odsetka prawidłowo dopasowanych kontaktów, reklam do profilu użytkownika czy zidentyfikowanych twarzy ludzkich59.

Aby osiągnąć aprobowany próg, algorytmy są „szkolone” na korpusie danych weryfikowanym przez projektantów lub przez dotychczasowe praktyki użytkowników – wten sposób potwierdza się, że konkretne zdjęcie jest zdjęciem ludzkiej twarzy, że dany wynik wyszukiwania został wybrany przez wielu użytkowników wodpowiedzi na to konkretne pytanie, aten nie. Taki algorytm ma „nauczyć się” parowania zapytań iwyników uznanych wprzeszłości za zadowalające. Wartości izałożenia, które wchodzą wzakres wyboru iprzygotowania tych danych dotyczących szkolenia, mogą mieć owiele większe znaczenie niż algorytm.

Wpracach zdziedziny informatyki główny nacisk kładzie się na to, jak zaprojektować iudowodnić optymalność zczysto technicznej perspektywy. Jeśli zatem istnieje dyskusja na temat pracy algorytmów, to koncentruje się ona na tym, jak algorytmy wykonują konkretne zadanie. Innymi słowy: algorytmy są rozumiane jako ściśle racjonalne, godzące wsobie pewność matematyki zobiektywnością technologii60 – jako esencja rozsądku61 woświeceniowym duchu empiryzmu.

Taka techniczna interpretacja rzadko jednak występuje wszerszym dyskursie publicznym. Gdy mowa oznaczeniuGoogleczy Instagrama, to „algorytm” jest skrótem myślowym: algorytmu, danych, modelu, celu, danych, aplikacji isprzętu. Sporadycznie dotyczy ludzi zaangażowanych na każdym etapie projektowania platformy, podobnie jak nieczęsto jest mowa owartościach zaszytych walgorytmach, o„mgle software’u”.

Dlatego warto porzucić wąskie, technologiczne interpretacje, przekroczyć umowne granice dyscyplin izyskać szerszy pogląd, osadzający cyfrowy konstrukt wkulturowym, społecznym, politycznym iekonomicznym środowisku. Oznacza to przy okazji, że badacz nie musi legitymować się fachową wiedzą informatyczną, choć staje wobliczu zagrożenia stosowaniem uproszczeń. Aby ich uniknąć, konieczna jest próba doprecyzowania tego, czym wistocie jest algorytm (awięc iplatforma).

Ku etnografii algorytmu platform

Pamiętając więc okanonicznej interpretacji technologicznej, należy zwrócić uwagę na wizję „algorytmów, które stają się kulturą”.

Wistocie algorytmy wolno przedstawiać jako „kulturę” – rozumianą jako coś, co ludzie czynią, jako wynik działań, anie jako zapis cyfrowy. Jeśli jednak przyjmie się tę interpretację, to miejsce ujednoliconej „kultury” zajmie szereg luźno skoordynowanych praktyk, które konkurują iwspółpracują ze sobą, czasami dla celów „kulturowych”, aczasami dla innych celów – na przykład „technicznych” czy ekonomicznych. Algorytm jest skutkiem wielu ludzkich inie-ludzkich działań. Dobrym przykładem jest algorytm Facebooka, który programiści korygują na potrzeby użytkowników ireklamodawców, ajednocześnie uczestnicy rynku reklamowego, zwłaszcza firmy marketingowe, starają się „grać znim”, przewidując jego korekty idostosowując się do nich. Zmiany te bywają dewastujące dla uczestników rynku, na przykład gazet „The Washington Post” i„The Guardian”, które zainwestowały znaczne środki, by paść ofiarą zmian pozbawiających je większego ruchu62.

Algorytm platform jest zatem „znatury” niestabilny, nigdy nie jest ukończonym projektem, jest procesem, nieskończonym produktem (nieskończoną kulturą). Jest nieustannie poprawiany iudostępniany, zawsze tymczasowy, „płynny znatury” co do rezultatów63.

Algorytmy nie są więc – posługując się metaforami Seavera – „skałami wpotoku kulturowym”, ale raczej większą „masą wody”64. Nie są również pojedynczymi obiektami technicznymi, które wchodzą wwiele różnych interakcji kulturowych, ale są raczej obiektami niestabilnymi, wprowadzanymi przez praktyki stosowane przez ludzi wcelu nawiązania znimi kontaktu.

Taka wizja algorytmów jako kultury różni się od pojęcia „kultury algorytmicznej” autorstwa Teda Striphasa, który zetnograficznej perspektywy organizacji określa je jako siłę transformacyjną, egzogeniczną dla kultury65. Wtym ujęciu na przykład film jest „kulturowy”, ponieważ kształtuje przepływy materiału kulturowego, anie dlatego, że jego algorytmiczna logika jest sama wsobie kulturowa. Wyjaśnić to można na przykładzie. Gdy użytkownik rekomenduje jakieś produkty kulturowe, które można zobaczyć (wysłuchać, kupić), to jego aktywności towarzyszy wykorzystywanie „mądrości tłumu”, wskazującego na Filmwebie, Netflixie albo na Spotify, co jest ważne/ciekawe wsieci. Podobny mechanizm dotyczy algorytmu PageRank Google, analizującego zachowania milionów użytkowników dostarczających dane.

„Kultura algorytmiczna” oznacza zatem, że każdy użytkownik ikażdy nie-ludzki aktor odgrywa własną rolę w„tworzeniu algorytmu”. Niesie to, jak podkreśla Striphas, ważne konsekwencje metodologiczne. Podczas gdy informatyk może zajmować się sprawami efektywności lub tym, jak algorytm współpracuje ze strukturami danych, to antropolog może przejmować się tym, jak taki „kulturowy” algorytm kształtuje wartości iznaczenia kulturowe66.

Etnograficzne interpretacje pozwalają więc dostrzec walgorytmach nie tylko racjonalne procedury, ale także instytucje iludzi. Różni się to od uznania algorytmów za matematyczne, obiecuje zaś – ato ważny czynnik przemawiający za jego uwzględnieniem – przynajmniej częściowe odsłonięcie tego, co istotne wśrodowisku nowych mediów, czyli kurtyny tajemnic algorytmicznych. Można się bowiem doszukiwać źródeł tajemniczości algorytmu wjego złożoności, jednak głównym czynnikiem ukrywania algorytmicznych mechanizmów iich wpływu jest jego traktowanie przez organizacje medialne jako cennego zasobu pozwalającego na uzyskiwanie przewagi konkurencyjnej, azatem takiego, który należy chronić przed wścibskim izazdrosnym wzrokiem konkurentów iużytkowników. Jeśli bowiem pozna się kulturę platformy, to można także wnioskować ojej kulturowych produktach.

Dzięki tajemnicy handlowej oraz klauzulom ozakazie konkurencji nikt nie ma się dowiedzieć, co – metaforycznie ujmując – jest „pod maską” wAmazonie, Google iinnych67. Ostateczna wartość tego, co współdecyduje otak rozumianej „kulturze algorytmicznej”, jest zatem definiowana przez zarządzanie organizacją.

Kontynuując myśl Striphasa, traktowanie algorytmu jako kultury pozwala „podnieść maskę”. Ułatwia także – zachowując sceptycyzm iświadomość ograniczeń dostępu do pola badań – okiełznanie determinizmu korporacyjnego, łatwego ekonomizmu ityranii racjonalizmu.

Nie należy przy tym zapominać, że zperspektywy antropologicznej algorytm jest częścią architektury językowej, przez którą programiści czy inżynierowie oprogramowania rozumieją świat iswoją pracę. Etnograficzna odpowiedzialność sugeruje ponadto używanie takich samych terminów, jakie stosują osoby, które zajmują się algorytmami wswojej pracy zawodowej68. Programista platformy, który twierdzi, że na przykład jego algorytm rozpoznawania twarzy nie ma „wbudowanego” kontekstu kulturowego organizacji, wktórej powstaje, czyli choćby uprzedzeń, musi zmierzyć się zwnioskami płynącymi ztakich badań. Poza tym „ludzie technologii” nie są jedynymi osobami zaangażowanymi wtworzenie galimatiasu „socjo-materiałów”, które nazywamy „algorytmami”. Zróżnicowane środowisko używające licznych technik izrozumień, wytwarza algorytm „zanurzony wkulturze” wluźno skoordynowanym środowisku. Niedostrzeganie tej złożoności byłoby szczególnie trudne do obrony wwypadku algorytmów, na których skupia się opinia publiczna: algorytmów wielkich korporacji medialno-technologicznych, skomplikowanych, nieustannie korygowanych, probabilistycznych69.

Algorytm opresji

Pamiętając zatem, wjak różnych miejscach iokresach powstają algorytmy, stwierdzić należy, że nie tylko nie ma jednej, ogólnej, stabilnej iprecyzyjnej definicji algorytmu, ale także nie możemy zgóry znać definicji, które powstaną wprzyszłości, iprzyjmować, że będą one takie jak współczesne. Może się ponadto okazać, że nie da się znaleźć pojedynczego sensu algorytmu, ten bowiem może mieć niejasne „nietechniczne” znaczenie70.

Wprzyjętej dalej interpretacji algorytmy są zatem kulturowe dlatego, że składają się ze zbiorowych praktyk ludzkich inie-ludzkich aktorów oraz są zróżnicowane – tak jak różna jest kultura, ponieważ same są kulturą. Nie istnieje również coś takiego, jak algorytmiczna decyzja – istnieją jedynie sposoby postrzegania decyzji jako algorytmiczne. Innymi słowy: algorytmy nie są autonomicznymi obiektami technicznymi, ale – jak wspomniano – złożonymi systemami socjotechnicznymi.

Codzienna praktyka największych korporacji platform dostarcza wielu informacji oniedoskonałości ich działania. Do znanych przykładów rasistowskiego wyniku funkcjonowania współczesnych systemów algorytmicznych należy – to nawiązanie do wspomnianej konieczności parowania zapytań itrafnych odpowiedzi – oznaczenie zdjęć czarnoskórych osób jako goryli. Ofiarą tej wysoce ambarasującej praktyki na Google Photos padł w2015roku afroamerykański programista Jacky Alcine. Po jego interwencji umenedżera Google bulwersująca etykieta zniknęła, ale problem nie został rozwiązany, ponieważ trzy lata później, gdy magazyn „Wired” przeprowadził test sztucznej inteligencji Google Photos, uznał, że serwis imponująco radzi sobie zodnalezieniem wielu stworzeń, wtym pand ipudli, ale nadal zgłaszał „brak wyników” dla wyszukiwania „goryla”, „szympansa” i„małpy”, co dobrze ilustruje problemy zrozwojem technologii rozpoznawania obrazów71.

Korzystanie zoprogramowania wymaga więc nie tylko dobrej woli, ale także większej kontroli tego, jakie wartości są wnim traktowane priorytetowo. Dyskryminacja przejawia się bowiem nie tylko wkodzie, lecz również wtechnologiach sztucznej inteligencji, która może wzmocnić wiele uprzedzeń występujących wspołeczeństwie.

Jednym zważnych wyzwań związanych z„algorytmicznym uciskiem” jest zrozumienie, że – co jeszcze raz warto wspomnieć – to ludzie formułują matematyczne metody automatycznych decyzji. Chociaż często myślimy oalgorytmach albo dużych zbiorach danych (big data) jako neutralnych iobiektywnych, to ich działania nie są pozbawione uprzedzeń iwolne od stygmatyzacji oraz stereotypizacji72.

Nie przeszkadza to jednak instytucjom publicznym, jak organizacje rządowe ipozarządowe, edukacyjne ireligijne czy na przykład uniwersytety, polegać na wiedzy algorytmicznej, tymczasem, jak sugeruje Safiya Noble, opresja algorytmiczna występuje tak często, że nie jest usterką wsystemie, ale raczej regułą mającą bezpośredni wpływ na użytkowników internetu ina życie offline. Nie oznacza to, że stronniczość algorytmiczna jest zzałożenia celowa, rzecz wtym, że potencjał stronniczości wynika ztego, że algorytmiczne wyniki są lustrzanym odbiciem nierówności oraz dyskryminacji społecznych między ludźmi, azatem wszyscy, którym brakuje „siły przebicia” społecznego ipolitycznego oraz ekonomicznego, wpadają w„ślepe zaułki” uprzedzeń73.

Stan ten prowokuje do refleksji, czym jest autonomia algorytmu. Winę za jej brak przypisuje się zwykle niezróżnicowaniu danych, na których algorytm został przeszkolony, izbyt małemu zróżnicowaniu wprogramowaniu itestowaniu zespołów, które dały taki wynik. Jednak bez trudu można wskazać, że postawy iuprzedzenia ludzi pracujących wsystemach algorytmicznych wpływają (przenoszą się) na te systemy, zatem różnorodność nie jest jedynie kwestią sprawiedliwej reprezentacji danych, ale konsekwencją przekonań twórców iadministratorów systemu74.

Algorytm jest więc kulturą zdobrymi ize złymi tej interpretacji konsekwencjami oraz nieco skrzywionym odbiciem zbioru ludzkich wyborów, praktyk ipostaw75, dlatego należy go traktować jako niestabilny obiekt – reprezentację różnych ludzkich praktyk.

18 J. van Dijck, Seeing the forest for the trees: Visualizing platformization and its governance, „New Media & Society” 2020, 23(9), s. 1–19.

19 J. van Dijck, T. Poell, M. De Waal, The platform society: Public values in aconnective world, Oxford University Press, Oxford 2018.

20 B. Czarniawska-Joerges, Culture is the Medium of Life, [w:] A. Sjögren, L. Janson (red.), Culture and Management in the Field of Ethnology and Business Administration, Invandrarministeriet, Stockholm 1992, s. 15–29.

21 J. van Dijck, T. Poell, M. De Waal, The platform…, s. 4.

22 T. Parsons, N.J. Smelser, Funkcjonalne zróżnicowanie społeczeństwa, [w:] A. Jasińska-Kania, L.M. Nijanowski, J. Szacki, M. Ziółkowski (red.), Współczesne teorie socjologiczne, Wydawnictwo Naukowe Scholar, Warszawa 2006.

23 S. Leukes, Power: Aradical view, Macmillan International Higher Education, London 2004 s. 25.

24 Koncepcja „obiektywnego interesu” jest przedmiotem wielu analiz, także krytycznych.

25 Choć argumenty te nie należą do głównego wątku, to za Michelem Foucaultem można dodać, że nie sposób uwolnić się od władzy współczesnego człowieka. Można jej uniknąć, wchodząc wrolę tzw. konkretnego intelektualisty, działającego wkonkretnych dziedzinach imiejscach, ponieważ tylko wkonkretnych sytuacjach człowiek może być świadom zagrożeń iwłasnych interesów. Zob. M. Foucault, Nadzorować ikarać. Narodziny więzienia, przeł. T. Komendant, Fundacja Aletheia, Warszawa 1993.

26 P. Bachrach, M. Baratz, Power and Powerty. Theory and Practice, Oxford University Press, Oxford 1970.

27 P. Bourdieu, Medytacje pascaliańskie, przeł. K. Wakar, Oficyna Naukowa, Warszawa 2006.

28 P. Bourdieu, J.L. Wacquant, Zaproszenie do socjologii refleksyjnej, przeł. A. Sawisz, Oficyna Naukowa, Warszawa 2001.

29 E. Brynjolfsson, A. McAfee, Drugi wiek maszyny. Praca, postęp idobrobyt wczasach genialnych technologii, MT Biznes, Warszawa 2015.

30Ibidem.

31 T. Gillespie, Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media, Yale University Press, New Haven 2018.

32 G. Elmer, G. Langlois, Networked campaigns: Traffic tags and cross platform analysis on the web, „Information Polity” 2013, 18(1), s. 43–56.

33 K. Abriszewski, Poznanie, zbiorowość, polityka. Analiza teorii aktora-sieci Bruno Latoura, Universitas, Kraków 2008.

34 K. Krzysztofek, Wstronę maszyn społecznych. Jaka będzie socjologia, której nie znamy?, „Studia Socjologiczne” 2011, 2, s. 123–145.

35 A. Mager, Algorithmic Ideology: How Capitalist Society Shapes Search Engines, „Information, Communication & Society” 2012, 15(5), s. 769–787.

36 J. Cheney-Lippold, ANew Algorithmic Identity: Soft Biopolitics and the Modulation of Control, „Theory, Culture & Society” 2011, 28(6), s. 164–181.

37 T. Gillespie, The relevance of algorithms, [w:] T. Gillespie, P.J. Boczkowski, K.A. Foot (red.), Media technologies: Essays on communication, materiality, and society, MIT Press, Cambridge 2014, s. 167–193.

38 T. Bucher,