Uzyskaj dostęp do tej i ponad 250000 książek od 14,99 zł miesięcznie
Celem książki jest przeanalizowanie relacji władzy w badaniach i rozwoju sztucznej inteligencji (AI). Uwaga autora koncentruje się w szczególności na wpływie modeli podstawowych AI, zwanych także modelami ogólnego przeznaczenia, na władzę rynkową big techów, platformizację w gospodarce cyfrowej, regulację i konkurencję, a także na nowe wyzwaniach dla zarządzania. Wymaga to nowego spojrzenia, reinterpretacji instrumentarium polityki i prawa konkurencji, renesansu koncepcji optymalnej intensywności konkurencji w obszarze „szerokich oligopoli”, syntezy pewnych cech monopoli i oligopoli. Przedstawiona tu hipoteza „moligopolu” zakłada, że big techy współistnieją zarówno jako monopole, jak i firmy oligopolowe, które konkurują ze sobą w środowisku znacznej niepewności i dynamiki gospodarczej, technologii uzupełniających (start-upy) napędzających kooperację z big techami itp.
Big techy wykorzystują swój zbiorowy monopol na moc obliczeniową, dane i wiedzę techniczną, a także na chmury obliczeniowe, wyszukiwarki czy przeglądarki, aby zyskać przewagę w zakresie modeli podstawowych AI. Modele te (rynek upstream) są następnie dostrajane do różnych zastosowań (rynek downstream), co nasila zagrożenia kartelizacją lub koncentracją pionową (wertykalną) i sprzyja platformizacji.
Kluczowe są w szczególności dwa obszary: egzekwowanie polityki konkurencji i dodatkowe obowiązki regulacyjne nałożone w DMA i DSA na dominujących „strażników dostępu”, a w AI Act – na dostawców modeli podstawowych AI.
Ze względu na interdyscyplinarny charakter monografia może zwrócić uwagę szerokiego grona czytelników, choć przede wszystkim jest adresowana do osób zainteresowanych problemami regulacji sztucznej inteligencji.
Ebooka przeczytasz w aplikacjach Legimi na:
Liczba stron: 330
Rok wydania: 2025
Odsłuch ebooka (TTS) dostepny w abonamencie „ebooki+audiobooki bez limitu” w aplikacjach Legimi na:
Recenzent
prof. dr hab. Witold Chmielarz, Katedra Informatycznych Systemów Zarządzania, Wydział Zarządzania, Uniwersytet Warszawski
Redakcja
Jadwiga Witecka
Projekt okładki
Amadeusz Targoński, targonski.pl
Opracowanie e-wydania
Karolina Kaiser,
Grafika na okładce
© shutterstock.com
Skład
Marian Bąk
Copyright © 2025 by Poltext Sp. z o.o.
All rights reserved.
Warszawa 2025
Wydanie I
Publikacja dofinansowana ze środków Szkoły Głównej Handlowej z Warszawie.
Książka, którą nabyłeś, jest dziełem twórcy i wydawcy. Prosimy, abyś przestrzegał praw, jakie im przysługują. Jej zawartość możesz udostępnić nieodpłatnie osobom bliskim lub osobiście znanym. Ale nie publikuj jej w internecie. Jeśli cytujesz jej fragmenty, nie zmieniaj ich treści i koniecznie zaznacz, czyje to dzieło. A kopiując ją, rób to jedynie na użytek osobisty.
Szanujmy cudzą własność i prawo!
Polska Izba Książki
Więcej o prawie autorskim na www.legalnakultura.pl
Poltext Sp. z o.o.
www.poltext.pl
ISBN 978-83-8175-736-2 (druk)
e-ISBN 978-83-8175-737-9 (epub)
e-ISBN 978-83-8175-738-6 (mobi)
AI
–
Artificial Intelligence
(sztuczna inteligencja)
AI Act
–
Artificial Intelligence Act
(rozporządzenie unijne w sprawie sztucznej inteligencji)
AI Office
–
Urząd Unii Europejskiej ds. Sztucznej Inteligencji
API
–
application programming interface
(interfejs programowania aplikacji)
B2B
–
Business to Business
(relacje handlowe między dwiema firmami)
BKA
–
Bundeskartellamt (Niemiecki Urząd ds. Konkurencji)
CMA
–
Competition and Markets Authority (Urząd Nadzoru nad Konkurencją i Rynkiem)
CPS
–
Core Platform Services
(podstawowe usługi platformowe)
CRM
–
Customer Relationship Management
(zarządzanie relacjami z klientami)
DA
–
Data Act
(rozporządzenie unijne o danych)
DBE
–
Digital Business Ecosystem
(ekosystem biznesowy w środowisku cyfrowym)
DGA
–
Data Governance Act
(rozporządzenie unijne o zarządzaniu danymi)
DMA
–
Digital Markets Act
(rozporządzenie unijne o rynkach cyfrowych)
DMCC
–
Digital Markets, Competition and Consumers Act
(
ustawa o rynkach cyfrowych, konkurencji i konsumentach
w Wielkiej Brytanii)
DOJ
–
The United States Department of Justice
(
Departament Sprawiedliwości Stanów Zjednoczonych)
DPIA
–
Data Protection Impact Assessment
(ocena wpływu przetwarzania danych osobowych w ramach RODO)
DSA
–
Digital Services Act
(rozporządzenie unijne o usługach cyfrowych)
DSM
–
Digital Single Market Directive
(dyrektywa z 2019 r. o ochronie praw autorskich i pokrewnych na jednolitym rynku UE)
EDM
–
elimination of double marginalization
(wyeliminowanie podwójnej marginalizacji)
EOG
–
Europejski Obszar Gospodarczy
ESG
–
Environmental, Social, Governance
(środowisko, społeczeństwo i ład korporacyjny)
fintech
–
Financial Technology
(technologia finansowa lub podmioty stosujące tę technologię)
FLOPS
–
Floating Point Operations Per Second
(jednostka mocy obliczeniowej komputerów)
FM
–
Foundation Model
(model podstawowy AI)
FMTI
–
Foundation Models Transparency Index
(indeks przejrzystości modeli podstawowych)
FRAND
–
Fair, Reasonable and Non-Discriminatory
(licencjonowanie na warunkach uczciwych, rozsądnych i niedyskryminacyjnych)
FTC
–
Federal Trade Commission (Federalna Komisja Handlu w USA)
GDPR
–
General Data Protection Regulation
(rozporządzenie unijne o ochronie danych osobowych)
GenAI
–
Generative Artificial Intelligence
(generatywna sztuczna inteligencja)
GPAI
–
General Purpose Artificial Intelligence (sztuczna inteligencja ogólnego przeznaczenia)
GPM
–
General Purpose Model
(model ogólnego przeznaczenia)
GPU
–
Graphics Processing Units
(jednostka obliczeniowa w kartach graficznych)
HHI
–
Herfindahl-Hirschman Index
(indeks Herfindahla–Hirschmana)
ICT
–
Information and Communication Technology
(technologia informacyjno-komunikacyjna )
IoT
–
Internet of Things
(internet rzeczy)
KRiBSI
–
Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (Polska)
LLM
–
Large Language Models
(duży model językowy)
LPU
–
Language Processing Unit
(układ zoptymalizowany pod kątem przetwarzania języka naturalnego – NLP i pracy z dużymi modelami językowymi – LLM)
MaaS
–
Model-as-a-Service
(model jako usługa)
MDR
–
Medical Device Regulation
(rozporządzenie unijne w sprawie wyrobów medycznych)
ML
–
Machine Learning
(uczenie maszynowe)
MoE
–
mixture of experts
(technika uczenia maszynowego, w której używa się wielu sieci ekspertów do podziału przestrzeni problemu na jednorodne regiony)
NIST
–
National Institute of Standards and Technology (Narodowy Instytut Standaryzacji i Technologii w USA)
NLP
–
Natural Language Processing
(przetwarzanie języka naturalnego)
P2P
–
peer to peer
(model komunikacji w sieci komputerowej zapewniający wszystkim hostom te same uprawnienia, w odróżnieniu od architektury klient–serwer)
RAG
–
Retrieval-Augmented Generation
(generowanie wspomagane wyszukiwaniem)
regtech
–
regulation technology
(technologia regulacyjna)
RLHF
–
reinforcement learning from human feedback
(uczenie maszynowe korzystające ze sprzężenia zwrotnego od człowieka – technika pozwalająca na dostosowanie inteligentnego agenta do ludzkich preferencji)
RODO
–
rozporządzenie unijne o ochronie danych osobowych
RPM
–
resale price maintenance
(utrzymywanie ceny odsprzedaży – pionowe ograniczenie stosowane przez dostawcę z górnego łańcucha dostaw, które ogranicza ceny odsprzedaży sprzedawców z dolnego łańcucha dostaw)
SCP
–
market structure – conduct – performace
(struktura rynku – zachowanie rynkowe – rezultat rynkowy)
suptech
–
supervision technology
(technologia nadzorcza)
TDM
–
text and data mining
(eksploracja tekstu i danych)
TFUE
–
Traktat o funkcjonowaniu Unii Europejskiej
TPU
–
Tensor Processing Unit
(specjalistyczna jednostka obliczeniowa przystosowana do obliczeń uczenia maszynowego)
TSUE
–
Trybunał Sprawiedliwości Unii Europejskiej
UE
–
Unia Europejska
UKE
–
Urząd Komunikacji Elektronicznej
UODO
–
Urząd Ochrony Danych Osobowych
VC
–
venture capital
(
kapitał wysokiego ryzyka
)
VLOP
–
Very Large Online Platforms
(bardzo duże platformy cyfrowe w terminologii DSA)
VLOSE
–
Very Large Online Search Engines
(bardzo duże wyszukiwarki sieciowe w terminologii DSA)
Celem książki jest zbadanie relacji władzy w badaniach i rozwoju sztucznej inteligencji (Artificial Intelligence – AI), a w szczególności wpływu modeli podstawowych AI (Foundation Models – FM), zwanych także modelami ogólnego przeznaczenia (General Purpose Models – GPM), na władzę rynkową bigtechów, platformizację w gospodarce cyfrowej, regulację i konkurencję oraz nowe wyzwania w zakresie zarządzania. Metodologia obejmuje interdyscyplinarne studia literaturowe (ekonomia, prawo, zarządzanie), regulację i orzecznictwo, ekonomiczną analizę prawa i ocenę skutków regulacji. Luka badawcza dotyczy wpływu badań i rozwoju modeli podstawowych AI na pozycję konkurencyjną i władzę rynkową bigtechów oraz platformizację w gospodarce cyfrowej. Wymaga to nowego spojrzenia, reinterpretacji instrumentarium polityki i prawa konkurencji, renesansu koncepcji optymalnej intensywności konkurencji w obszarze „szerokich oligopoli” (triada SCP – market structure – conduct – performace), syntezy pewnych cech monopoli i oligopoli (koncepcja „moligopolu”).
Bigtechy wykorzystują swój zbiorowy monopol na moc obliczeniową, dane i wiedzę techniczną, a także potencjał chmur obliczeniowych, wyszukiwarek czy przeglądarek, aby zyskać przewagę w zakresie wielkoskalowych podstawowych modeli AI. Modele podstawowe (rynek upstream) są następnie dopasowywane do różnych zastosowań (rynek downstream), co nasila zagrożenia kartelizacją lub koncentracją pionową (wertykalną) i sprzyja platformizacji. Mniejsze firmy, niemające dostępu do tych ograniczonych zasobów, w celu jego uzyskania podpisują umowy z większymi graczami (lub są przez nich przejmowane). Buduje się hipotezę „moligopolu ”, zakładającą, że bigtechy współistnieją zarówno jako monopole, jak i firmy oligopolowe, które konkurują ze sobą w środowisku znacznej niepewności i dynamiki gospodarczej, technologii uzupełniających (start-upy) napędzających kooperację z bigtechami itp.
Kluczowe są w szczególności dwa obszary: egzekwowanie polityki konkurencji i dodatkowe obowiązki regulacyjne nałożone w DMA i DSA na dominujących „strażników dostępu”, a w AI Act – na dostawców modeli podstawowych sztucznej inteligencji. Należy sądzić, że bez znaczącej interwencji publicznej rynek AI będzie umacniał jedynie bigtechy, a nadmierna koncentracja na rynku modeli podstawowych AI tworzy pojedyncze punkty awarii, co stwarza realne zagrożenia bezpieczeństwa. Niewielka liczba modeli i aktorów u podstaw ekosystemu AI powoduje ryzyko systemowe. Dla władzy rynkowej bigtechów istnieje pewna przeciwwaga ze strony modeli open source. Są to modele AI, które nie są własnością jednego podmiotu oraz mogą być rozwijane i uzupełniane przez każdego. Należy jednak dodać, że nie jest to możliwe bez kooperacji z bigtechami. Ograniczeniem badań jest brak rozwiniętej regulacji i orzecznictwa, a także szeroki, rozwojowy kontekst prawny, wykraczający poza AI Act.
W rozdziale 1 scharakteryzowano dominującą rolę bigtechów w badaniach i rozwoju AI. Przedstawiono modele podstawowe AI (FM), ich charakterystykę i sposób implementacji. Przeprowadzono analizę kontekstu ryzyka systemowego stosowania modeli FM. Opisano trend do koncentracji rynku modeli podstawowych AI oraz zbadano problemy dotyczące szkolenia modeli FM. Zwrócono uwagę na niezwykle ważną cechę związaną z implementacją AI i wzmocnieniem pozycji rynkowej bigtechów: do celów szkolenia modeli FM niezbędne są ogromne ilości danych. Wolny dostęp do celów szkoleniowych w otwartej przestrzeni internetu jest natomiast coraz bardziej ograniczany. W rozdziale rozważono wstępnie kwestie konkurencyjności zastosowań modeli FM, problemy etyczne oraz ryzyko i bezpieczeństwo związane z wprowadzeniem technologii AI.
Należy podkreślić potrzebę systemowej, holistycznej analizy nowych technologii oraz ich potencjalnych zastosowań. W przypadku nowych technologii (takich jak blockchain, sztuczna inteligencja itp.) powstają pytania, np. czy regulować samą technologię czy raczej jej zastosowania (zafiksowanie określonej technologii może wywoływać konieczność częstych zmian, gdyż technologia szybko się rozwija). W jakiej mierze z uwagi na cechy technologii powinny to być regulacje krajowe, a w jakiej globalne, a co najmniej globalnie uzgadniane, oparte na wspólnej infrastrukturze krytycznej? Sprzeczne postulaty dotyczą także kwestii, kiedy regulować. Czy należy to czynić bardzo wcześnie, aby zapobiegać oszustwom i manipulacji, promować etykę i zaufanie, chronić konkurencję i konsumenta, czy dopiero wtedy, gdy technologia dojrzeje, aby nie hamować rozwoju rynku i innowacyjnych modeli biznesowych (Szpringer 2023, s. 9 i nast.) Powstaje także problem konkurencji regulacyjnej. Przykładowo w podejściu do mediów społecznościowych konkurencja regulacyjna może wynikać z różnych koncepcji wolności słowa i prawa do swobody wypowiedzi (UE–USA) (Huang 2025).
Oprócz zapewnienia bezprecedensowej autonomii finansowej kryptowaluty ujawniają również luki regulacyjne, które narażają zarówno konsumentów, jak i państwo na ryzyko eksploatacji. Pojawiają się problemy z zarządzaniem zdecentralizowaną sferą aktywów cyfrowych, co stwarza luki, które mogą zostać wykorzystane przez osoby o złych zamiarach (Subei 2024). Istnieje napięcie między ideą gospodarki niewymagającej zaufania i zdecentralizowanej, która jest sednem obietnicy blockchain, a rzeczywistością koncentracji władzy i asymetrii informacji. Jest to paradoks w ekosystemach blockchain. Mimo etosu decentralizacji i otwartego uczestnictwa struktury zarządzania głównych sieci blockchain wykazują znaczną centralizację, osłabiając narrację egalitarnej ewolucji napędzanej przez użytkownika (Gazi 2025). Dla blockchaina, sztucznej inteligencji i ekosystemów platform cyfrowych ważne są kwestie ekologiczne. Można to przedstawić na przykładzie platform streamingowych, chociaż zdigitalizowany przemysł streamingu muzycznego nie jest zdekarbonizowany. Badania sugerują, że przemysł ten odpowiada za 200–350 milionów kilogramów gazów cieplarnianych emitowanych co roku w USA. Emisje te pochodzą z zależności platform streamingowych od centrów danych, które zużywają ogromne ilości danych, a co za tym idzie – energii. Regulacje w USA zachęcają do inwestycji w czystą energię i technologię wychwytywania dwutlenku węgla zużywanego przez centra danych związanych z branżą streamingową (Hammons 2024).
W ostatnich latach pojawiły się wezwania do porzucenia ekonomicznej konstrukcji prawa konkurencji. W USA „strukturaliści” chcą przywrócić zasady per se przeciwko zachowaniom biznesowym lub transakcjom, które ograniczają liczbę firm zaangażowanych w konkurencję rynkową, niezależnie od skutków. W UE „ formaliści” chcą ograniczyć ekonomiczne badanie skutków zachowań biznesowych lub transakcji na konkurencję rynkową, odwołując się do domniemań władzy monopolistycznej lub zakazów zachowań per se. Reformatorzy po obu stronach Atlantyku wierzą, że społeczeństwa są w lepszej sytuacji przy prostszym i bardziej rygorystycznym egzekwowaniu prawa konkurencji. Cofnięcie ekonomicznej konstrukcji prawa konkurencji stanowiłoby jednak intelektualny regres. Pojawiają się bowiem wezwania do przywrócenia podejść takich jak domniemania strukturalne, w dużej mierze zdyskredytowanych przez historyczne dowody ekonomiczne. Lepszym podejściem jest stopniowe podnoszenie pewności prawnej, racjonalności i legitymizacji przez otwarcie się na nową wiedzę, jak zrobiło to prawo konkurencji, gdy przyswajało teorię cen, ekonomię kosztów transakcyjnych, teorię gier i ekonomię behawioralną. Tym razem naturalna progresja polega na importowaniu literatury z zakresu nauk zarządzania. Powinno to skutkować podejściem zakorzenionym w rzeczywistej konkurencji (Petit, Teece 2024).
Jak wyglądałaby polityka konkurencji, gdyby wyraźnie faworyzowała konkurencję schumpeterowską (dynamiczną) nad konkurencją neoklasyczną (statyczną)? Konkurencja dynamiczna to rodzaj konkurencji, która jest wywoływana przez innowacje produktowe i procesowe. Wykracza ona poza konkurencję cenową, ma tendencję do „wywracania” istniejącego porządku. „Neoschumpeterowskie” ramy analizy antymonopolowej, które faworyzują konkurencję dynamiczną, kładłyby mniejszy nacisk na udział w rynku i koncentrację w ocenie władzy rynkowej, a większy na ocenę potencjalnej konkurencji i innych możliwości na poziomie przedsiębiorstwa. Biorąc pod uwagę osiągnięcia w ekonomii rozwoju, teorii behawioralnej firmy i zarządzania strategicznego w analizie antymonopolowej, można opracować bardziej solidne ramy dla ekonomii antymonopolowej. Takie ramy prawdopodobnie złagodzą napięcia między prawem antymonopolowym a własnością intelektualną, zwłaszcza gdy w środowisku biznesowym następują szybkie zmiany technologiczne (Sidak, Teece 2009).
Aby zrozumieć różnicę między innowacją jako parametrem konkurencji a konkurencją innowacyjną, trzeba zbadać dwie różne wizje konkurencji. Dotychczas uważano, że konkurencja jest napędzana cenami: firmy konkurują, aby zaoferować najniższą cenę za podobne towary lub usługi. Dało to początek koncepcji konkurencji cenowej, zgodnie z którą innowacja była czynnikiem, który mógł pomóc firmom konkurować bardziej energicznie. Obecnie innowacja stała się dominującym narzędziem konkurencji, co spowodowało przejście od konkurencji cenowej do konkurencji innowacyjnej. Ten nowy sposób konkurencji obejmuje firmy konkurujące wykorzystaniem nowych pomysłów, technologii lub możliwości, które mogą na nowo zdefiniować rynki i doświadczenia konsumentów. Konkurencja innowacyjna podnosi zatem innowację z jednego z parametrów do głównego czynnika napędzającego konkurencję. Ta ewoluująca wizja konkurencji powoli przenika do pracy organów antymonopolowych i sądów (Groza 2024). Ekosystemowi finansowania innowacji w Europie brakuje skali, pluralizmu i apetytu na ryzyko. Problemy te można by rozwiązać za pomocą nowych i kreatywnych podejść i technologii finansowania dynamiki w gospodarce (fintech). Jednak te nowe podejścia mogą być hamowane przez regulacje, które koncentrują się na stabilności, unikaniu forum shoppingu i zapobieganiu oszustwom, z wykluczeniem innych ważnych interesów, w szczególności ignorując innowacje. Należy zatem przyjąć „zasadę innowacji” w ocenie skutków regulacji: nadając priorytet podejściom regulacyjnym, które służą promowaniu innowacji, bez uszczerbku dla innych celów regulacyjnych (Zigalvis 2025).
W szybko rozwijającej się gospodarce dynamiczne branże są kształtowane przez siły konkurencji i innowacji. Znalezienie sprawiedliwej równowagi między zachętą dla firm do inwestowania w innowacje a utrzymaniem uczciwych, równych warunków gry na rynku stało się wyzwaniem do egzekwowania prawa konkurencji. Warunki doktryny essential facility, opracowane w orzecznictwie TSUE w sprawie Bronner, są przestarzałe w dynamicznych branżach, ponieważ nie obejmują nowych typów ekosystemów, w których dominujące przedsiębiorstwo zapewnia otwartą infrastrukturę, nierozwijaną na potrzeby własnej działalności, ale do użytku przez osoby trzecie. Dlatego też w takich przypadkach należy opracować nowe warunki, a DMA może służyć jako źródło inspiracji w odniesieniu do praw dostępu do danych (Kokott, Serafimova 2025). Nowym narzędziem krajowego prawa konkurencji jest możliwość nakazania zastosowania środków zaradczych po przeprowadzeniu badania sektorowego (Franck, Peitz 2024).
Oprócz kategorii modeli podstawowych AI powstała węższa kategoria „innowacyjnej AI”, tj. modeli AI zdolnych do autonomicznego projektowania nowych produktów lub procesów. Innowacyjną AI można traktować jako jeden z jej typów, dla których zagwarantowanie szerokiego dostępu jest szczególnie ważne, ale trudne. Identyfikując innowacyjną AI jako kolejną technologię ogólnego przeznaczenia i czerpiąc z lekcji o regulacji przeszłych technologii ogólnego przeznaczenia, takich jak elektryczność i telekomunikacja, można podkreślić dwa twierdzenia. Po pierwsze, innowacyjna AI – w porównaniu z innymi typami zdolności sztucznej inteligencji – stwarza szczególne obawy dotyczące dostępu i uzasadnia interwencję regulacyjną. Brak rozszerzenia dostępu do innowacyjnej AI utrudniłby innowacje w wielu dziedzinach i umożliwiłby powstanie nowej klasy strażników dostępu – „strażników innowacji” (Fodouop 2024; Bex 2025).
Trwa debata związana z pozycją rynkową dużych platform cyfrowych (bigtechów), które pełnią funkcję strażników dostępu, kontrolując całe ekosystemy. Bigtechy niszczą lub przejmują potencjalnych konkurentów („drapieżne” innowacje, „zabójcze” przejęcia), wznoszą bariery wejścia dzięki swojej pozycji na rynku. Bigtechy są wprawdzie bardzo innowacyjne, mogą jednak działać na szkodę dobrobytu. Następuje rozwój ekosystemów biznesowych, które wykorzystują swoich komplementariuszy oraz klientów, stosując „wąskie gardła” w architekturach biznesowych. Powstają nowe asymetrie władzy, gdzie „pole” konkurencji nie jest właściwym rynkiem produktowym, jak to zwykle występuje w prawie konkurencji, ale ekosystemem różnych komplementarnych produktów i powiązanych firm. Technologie cyfrowe i modułowe metody produkcji doprowadziły do pojawienia się nowej generacji bigtechów, które ugruntowują swoją pozycję rynkową przez integrację ekosystemów, oferują im nowe sposoby tworzenia i przechwytywania wartości, przekraczają granice istniejących sektorów. Ich modele biznesowe, innowacyjne, oparte na wartościach niematerialnych, takich jak kod oprogramowania i dostęp do danych, wspierają ekspansję rynkową. Ponieważ rynki kapitałowe są chętne do inwestowania w rozwój tych firm, a organy regulacyjne nie są w stanie ich ograniczać, firmy te zgromadziły władzę i bogactwo, z głębokimi implikacjami dla gospodarki i społeczeństwa. Rodzi to nowe wyzwania dla prawa konkurencji, np. czy potrzebne są szczególne rozwiązania dla bigtechów (Szpringer 2020, s. 191 i nast.; Szpringer 2022, s. 23 i nast.).
Powstaje pytanie, jak mierzyć rynek bigtechów. Niektórzy twierdzą, że konwencjonalne podejścia do określania siły rynkowej są odpowiednie dla rynku sieciowego online. Można argumentować, że takie konwencjonalne podejścia są niewystarczające do oceny siły rynkowej na cyfrowych rynkach sieciowych. Tradycyjne metody od lat stosowane przez organy antymonopolowe sprowadzają się do badania efektów bezpośrednich: udziałów rynkowych. Bigtechy działają najczęściej na rynkach dwu- i wielostronnych, które wymagają innego podejścia, z uwzględnieniem barier wejścia (dostępu), np. w kwestii informacji, siły finansowej, kosztów zmian, własności intelektualnej i przemysłowej. Takie podejście jest lepiej dostosowane do oceny władzy rynkowej. Wiele rynków cyfrowych wykazuje pewne cechy, takie jak niskie koszty zmienne, wysokie koszty stałe i silne efekty sieciowe oraz korzyści pierwszeństwa, które skutkują wysokimi udziałami w rynku dla niewielkiej liczby firm. W niektórych przypadkach prowadzi to do dynamiki „konkurencji o rynek”, w której jedna firma przejmuje zdecydowaną większość sprzedaży. Firmy na tych skoncentrowanych rynkach mogą posiadać władzę rynkową, zdolność do jednostronnego i rentownego podnoszenia cen lub obniżania jakości poniżej poziomu, który dominowałby w warunkach konkurencji (Szpringer 2024, s. 35 i nast.).
Przywrócenie tradycyjnych zasad antymonopolowych w celu stworzenia domniemania drapieżności i zakazu integracji pionowej przez dominujące platformy mogłoby pomóc w utrzymaniu konkurencji na tych rynkach. Jeśli zamiast tego przyjmie się analogię dominujących bigtechów do naturalnych monopoli, wówczas zastosowanie elementów koncepcji użyteczności publicznej lub urządzeń kluczowych (essential facilities) utrzymałoby korzyści skali, ograniczając jednocześnie zdolność platform do nadużywania władzy rynkowej. Ciekawa wydaje się koncepcja „znaczącej nierównowagi”, która wykracza poza analizę udziału rynkowego i rynkowej pozycji dominującej, mając w polu widzenia kwestię realnego dostępu do platformy (koszt wykluczenia), a także nadużywania przewagi kontraktowej. Powstaje problem redefinicji rynku właściwego koniecznej dla polityki i praktyki prawa konkurencji. Nacisk kładzie się na pośredników, skupiających dwie (lub więcej) grupy użytkowników, których decyzje są współzależne i dlatego są oni powszechnie określani jako „platformy dwustronne”.
Umacnia się pogląd, że trzeba nałożyć obowiązki regulacyjne na dużych dostawców modeli podstawowych AI, zamiast polegać na samoregulacji i dobrej woli firm, których odpowiedzialność jest wysoce niepewna. Niedawny szczyt na temat bezpieczeństwa AI przekazał niejasny wspólny komunikat ostrzegający przed zagrożeniami wynikającymi z tzw. modeli podstawowych AI i wzywający do „inkluzywnego dialogu globalnego”, a także z dobrowolnych porozumień między rządami a bigtechami zajmującymi się sztuczną inteligencją w sprawie testu bezpieczeństwa. W UE odpowiedzią na rzekome słabości prawa konkurencji w odniesieniu do platform cyfrowych (bigtechów) jest regulacja rynków cyfrowych (DMA) i usług cyfrowych (DSA). Sytuacja na rynku AI, na którym obowiązujące prawo konkurencji nie w pełni się sprawdza, przypomina wcześniejsze przypadki występujące na rynkach informatycznych. Pojawienie się zintegrowanych systemów opartych na dużych bazach danych (Oracle, Informix) też początkowo generowało podobną sytuację, gdy duże firmy (np. Siemens) wykorzystywały swoją silną pozycję rynkową do narzucania nie tylko swoich standardów oprogramowania, ale i rozwiązań sprzętowych. Analogia może nie jest w pełni adekwatna z powodu znacznie bardziej skomplikowanego charakteru obecnych rozwiązań AI, ale skoro poradzono sobie z tym problemem, istnieje duża szansa na skuteczne rozwiązania problemów dotyczących koncentracji na rynku modeli FM.
Na świecie nie ma obecnie – poza AI Act w UE – kompleksowej regulacji AI. Można mówić nawet o pewnego rodzaju konkurencji regulacyjnej (Szpringer 2024; Zhang, Khanal, Taeihagh 2024; Engler 2023). Istnieją regulacje, które dotyczą pewnych aspektów AI, takich jak prywatność, bezpieczeństwo czy przeciwdziałanie dyskryminacji. W AI Act systemy AI są klasyfikowane zgodnie z ryzykiem, jakie stwarzają dla użytkowników. Różne poziomy ryzyka oznaczają mniej lub bardziej restrykcyjną regulację. Przepisy przewidują wprowadzenie szczególnego nadzoru nad systemami AI, które wchodzą w interakcję z człowiekiem lub powodują ryzyko systemowe (Garon 2024; Sunstein, Gaffe 2025). Można wskazać 4 podejścia do regulacji AI: odpowiednie stosowanie obowiązującego prawa (black letter law), cząstkowe regulowanie aspektów AI w różnych obszarach (emergent law), ograniczanie się do aspektów etycznych, chociaż także relewantnych prawnie (ethical law), oraz regulowanie oparte na ryzyku, podobnie jak w AI Act (risk regulation) (Petit, De Cooman 2020). Główne koncepcje stosowane w dyskursie prawnym w celu zrozumienia, zidentyfikowania i rozwiązania problemów w systemach AI to ryzyko i szkoda. Te paradygmaty grożą marginalizacją innych kwestii, a przede wszystkim systemowego, holistycznego i pragmatycznego ujęcia wyzwań stojących przed AI (Cocito, Marquenie, De Hert 2024). W różnych obszarach AI Act może wymagać uzupełnień. Przykładowo Medical Device Regulation (MDR) określa ramy bezpieczeństwa produktów mające zastosowanie AI w medycynie, istotne dla systemów sztucznej inteligencji klasyfikowanych z różnych powodów jako minimalne ryzyko na mocy AI Act (Palmieri 2024).
Artificial Intelligence Act stanowi kluczowy krok w kierunku wspierania odpowiedzialnej innowacji w zakresie sztucznej inteligencji w UE, mający na celu osiągnięcie odpowiedniej równowagi między promowaniem innowacyjności a zapewnieniem bezpieczeństwa i rozliczalności systemów AI (regtech/suptech) (Gasser, Mayer-Schönberger 2024; Kovacic 2024). Akty wykonawcze do AI Act określą zasady, rozwój i działanie piaskownicy regulacyjnej, w tym kryteria kwalifikowalności, procedury składania wniosków i warunki uczestnictwa. Chociaż piaskownice regulacyjne dotyczące AI nie pociągają za sobą wyłączenia odpowiedzialności za szkody wyrządzone osobom trzecim w okresie testowania, zgodność z wytycznymi wyklucza stosowanie kar administracyjnych. Ustanowiono przepisy dotyczące ochrony danych, które mają na celu zwiększenie pewności prawnej i współpracy między uczestnikami i organami. Dostawcy systemów AI obarczonych wysokim ryzykiem mogą skorzystać ze specjalnego systemu testowania tych systemów w warunkach rzeczywistych poza piaskownicami regulacyjnymi AI. AI Act priorytetowo traktuje i ułatwia dostęp start-upów do środowisk testowych w zakresie sztucznej inteligencji (CMS 2024).
W Polsce opracowano nowy projekt ustawy o systemach sztucznej inteligencji wdrażający AI Act. Określono skład krajowego organu kontroli i nadzoru AI: Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRiBSI). Wzorując się na postępowaniu prowadzonym przez prezesa Urzędu Ochrony Danych Osobowych (UODO) oraz prezesa Urzędu Komunikacji Elektronicznej (UKE) zakłada się, że postępowanie przed KRiBSI będzie jednoinstancyjne. Podmiot będący stroną postępowania będzie miał możliwość złożenia odwołania do Sądu Okręgowego w Warszawie – Sądu Ochrony Konkurencji i Konsumentów. Nie skorzystano z uniwersalnych rozwiązań, które obowiązują w prawie administracyjnym, co może pogorszyć sytuację skarżącego, w porównaniu ze skargą na gruncie prawa administracyjnego. Określono też ramy tworzenia tzw. piaskownic regulacyjnych (https://www.prawo.pl/biznes/ustawa-o-sztucznej-inteligencji-nowa-wersjsa-projektu,531445.html).
Po zatwierdzeniu przez Komisję Europejską Kodeks Dobrych Praktyk będzie odgrywał rolę uzupełniającą do AI Act. Podczas gdy przestrzeganie samego Kodeksu będzie opcjonalne, zgodność ze środkami w nim określonymi pozwoli dostawcom modeli FM wykazać zgodność z ich obowiązkami wynikającymi z AI Act do czasu opracowania zharmonizowanego standardu, co potrwa pewnie kilka lat (Cabrera 2024; AI Act 2024). Wymagania dotyczące przejrzystości raportowanej dla AI Office i dostawców downstream są skierowane we właściwym kierunku. Wystarczająco przejrzysta i szczegółowa dokumentacja, możliwość śledzenia i dokładne przedstawienie wydajności i ograniczeń modelu, w tym podstawowe informacje o ogólnej architekturze modelu i kosztach eksploatacji, składzie danych szkoleniowych i ocenie wydajności opartej na zasadach naukowych, a także powtarzalności oraz możliwości porównywania między systemami, są podstawą odpowiedzialnego i bezpiecznego wdrażania technologii. Deweloperzy oprogramowania powinni również określić politykę w zakresie praw autorskich oraz taksonomię ryzyka systemowego (Jernite, Kaffee 2024).
Komisja Europejska, Urząd ds. Konkurencji i Rynków w Wielkiej Brytanii (CMA), Departament Sprawiedliwości USA i Federalna Komisja Handlu USA opublikowały wspólne oświadczenie w sprawie konkurencji w modelach GenAI. Podkreśla się trzy szczególne zagrożenia dla konkurencji (Moir 2024).
Skoncentrowana kontrola kluczowych danych wejściowych
. Opracowywanie modeli podstawowych AI wymaga m.in. układów scalonych, znacznej mocy obliczeniowej, wielkiej liczby danych i wiedzy technicznej. Niewielka liczba firm może wykorzystać „wąskie gardła”, a tym samym mieć nieproporcjonalnie duży wpływ na przyszły rozwój tych narzędzi, w tym ograniczyć zakres lub kierunek innowacji kosztem konkurencji.
Ugruntowanie lub rozszerzenie siły rynkowej na rynkach związanych z AI
. Punkt zwrotny w technologii AI nadchodzi w czasie, gdy już bigtechy cieszą się znaczną siłą rynkową. Rola, jaką odgrywają one w rozwoju sztucznej inteligencji, może doprowadzić do umocnienia tej siły, np. przez podjęcie kroków w celu ochrony przed zakłóceniami spowodowanymi przez AI lub kontrolowanie kanałów dystrybucji usług z nią związanych.
Integracja z udziałem kluczowych graczy może zwiększać ryzyko
. Zwraca się uwagę na partnerstwa, przejęcia i inwestycje finansowe firm opracowujących modele AI. W niektórych przypadkach te partnerstwa i inwestycje mogą być wykorzystywane przez duże firmy do osłabiania lub przejmowania zagrożeń konkurencyjnych i sterowania wynikami rynkowymi na swoją korzyść kosztem społeczeństwa.
Przedstawiono również dalsze ryzyka związane z konkurencją i konsumentami sztucznej inteligencji. Obejmują one ryzyka, że algorytmy mogą pozwolić konkurentom na dzielenie się informacjami wrażliwymi dla konkurencji, ustalanie cen lub zmowy na innych warunkach lub strategiach biznesowych z naruszeniem prawa konkurencji. Istnieje również ryzyko, że algorytmy mogą umożliwić firmom osłabienie konkurencji przez nieuczciwą dyskryminację cenową lub wykluczenie. Jeśli chodzi o „ryzyko dla konsumentów”, zwrócono uwagę na możliwość, że sztuczna inteligencja może rozszerzyć oszukańcze i nieuczciwe praktyki szkodzące klientom a firmy, które w sposób oszukańczy lub nieuczciwy wykorzystują ich dane do trenowania swoich modeli, mogą podważyć prywatność, bezpieczeństwo i autonomię ludzi. Co więcej, jeśli dane klientów biznesowych są wykorzystywane do trenowania modeli, istnieje ryzyko, że modele mogą ujawnić informacje wrażliwe dla konkurencji. Należy podkreślić znaczenie tego, aby klienci byli informowani, w stosownych przypadkach, o tym kiedy i w jaki sposób aplikacja AI jest wykorzystywana w produktach i usługach, które kupują lub używają.
Przedstawiono również wiele wspólnych zasad, które będą stosowane przez organy ochrony konkurencji oraz umożliwią konkurencję i wspieranie innowacyjności. Należą do nich:
Uczciwe postępowanie
. Ekosystem AI będzie w tym lepszej sytuacji, im więcej firm będzie stosować uczciwe postępowanie.
Interoperacyjność
. Konkurencja i innowacyjność wokół sztucznej inteligencji prawdopodobnie będą większe, im bardziej produkty i usługi AI oraz ich dane wejściowe będą mogły ze sobą współdziałać. Wszelkie twierdzenia, że interoperacyjność wymaga poświęceń na rzecz prywatności i bezpieczeństwa będą dokładnie badane.
Wybór
. Przedsiębiorstwa i konsumenci będą mieli możliwość wyboru spośród różnych produktów i modeli biznesowych. Aby to zapewnić, odpowiednie organy nie tylko zbadają sposoby, w jakie firmy mogą próbować uniemożliwić użytkownikom dokonywanie sensownych wyborów (takich jak „mechanizmy blokady”), lecz także rozważą inwestycje i partnerstwa obecnych podmiotów w celu zapewnienia, że te umowy nie omijają egzekwowania fuzji lub nie przekazują obecnym podmiotom nienależnego wpływu lub kontroli w sposób, który podważa konkurencję.
Grupa G7 zwróciła uwagę na zachowania antykonkurencyjne na rynku AI, zwłaszcza na:
wszelkie próby zablokowania kluczowych danych wejściowych dla technologii i usług związanych ze sztuczną inteligencją, w tym układów scalonych, mocy obliczeniowej w chmurze i pamięci masowej, modeli FM. Obawy dotyczące rynków pracy i zasobów ludzkich stały się gorącym tematem w globalnym prawie konkurencji, wraz z rozprzestrzenianiem się przypadków dotyczących umów o zakazie przejmowania podmiotów i wymiany poufnych informacji konkurencyjnych. Ponadto obecnie władze badają potencjalnie antykonkurencyjne „przejęcia talentów” na podstawie przepisów dotyczących kontroli koncentracji (jeśli jest to równoznaczne z przejęciem przedsiębiorstwa i spełnione są odpowiednie progi) lub ewentualnie na podstawie ogólnych przepisów prawa konkurencji zakazujących porozumień antykonkurencyjnych i nadużywania pozycji dominującej;
wszelkiego rodzaju zmowy, nie tylko w ramach partnerstw, umów o współpracy i licencyjnych, lecz także przez wykorzystanie sztucznej inteligencji, uczenia maszynowego i algorytmów, co stanowi obszar ryzyka, którym szczególnie trudno zarządzać (Nortonrosefulbright 2024).
Rosnąca cyfryzacja społeczeństwa doprowadziła do szybkiego rozwoju dużych firm technologicznych (bigtechów), które zgromadziły ogromne bogactwa i wpływy dzięki posiadaniu infrastruktury i platform cyfrowych. Niedawne uruchomienie ChatGPT i szybka popularyzacja GenAI stanowią wydarzenie skupiające uwagę na dalszym przyspieszeniu koncentracji władzy w rękach bigtechów (Khanal, Zhang, Taeihagh 2024). Ze względu na skalę i ilość wymaganej pamięci, danych i sprzętu modele podstawowe AI są opracowywane głównie przez bigtechy, takie jak Google i Microsoft. Te niemal monopole w dziedzinie AI są wzmacniane przez warte miliardy dolarów partnerstwa ze start-upami, takie jak Amazon i Anthropic lub Microsoft i OpenAI (Vranken 2023). W miarę jak bigtechy zwiększają wydatki na sztuczną inteligencję, inwestorzy martwią się, czy koszty AI się zwrócą. Microsoft, Google, Meta i Amazon zwiększają na nią wydatki, podsycając obawy dotyczące rosnących kosztów (Buchanan 2024; Ryder 2024).
Rywalizacja bigtechów może być kluczem do konkurencji w dziedzinie sztucznej inteligencji. Organy ochrony konkurencji powinny zaakceptować to, że duże firmy technologiczne będą odgrywać kluczową rolę w AI. Muszą skupić się natomiast na zapewnieniu, że będą ze sobą konkurować – zamiast tylko współistnieć. W celu zmaksymalizowania korzyści płynących ze sztucznej inteligencji twórcy modeli FM – czyli modeli, które można wykorzystać do wielu różnych zadań – będą potrzebować presji konkurencyjnej, aby ich modele były jak najszerzej dostępne i przystępne. A nowe firmy AI będą potrzebować swobody i zachęt do dążenia do przełomowych innowacji, a nie tylko innowacji wzmacniających modele biznesowe obecnych graczy. Rozwój sztucznej inteligencji już pozwala zaliczyć producenta chipów Nvidia do nowej kategorii bigtechów, a wiele dzisiejszych start-upów AI ma potencjał, aby stać się potężnymi graczami. Jednak duże firmy technologiczne mogą mimo wszystko nadal odgrywać wiodącą rolę w tym sektorze (Meyers 2024; deAngelis 2024; Çavuş 2024).
Europejskie banki są coraz bardziej zaniepokojone rosnącą zależnością od dużych amerykańskich firm technologicznych o zintegrowanej sztucznej inteligencji w usługach finansowych. Sztuczna inteligencja wymaga znacznej mocy obliczeniowej, a wiele banków uważa, że samodzielne operowanie AI będzie dla nich trudne. Obawiają się przejścia w kierunku bigtechów i chmury, ze względu na wymagania dotyczące przyjęcia AI. Banki mogą stać się zbyt zależne od kilku dominujących dostawców technologii. Zakłada się, że banki uznałyby za niepraktyczne samodzielne rozwijanie tak dużej mocy obliczeniowej, wymaganej dla technologii AI. Duże uzależnienie od niewielkiej liczby dostawców technologii stwarzałoby znaczne ryzyko, szczególnie dla banków europejskich. Zakłada się ponadto, że banki te muszą zachować elastyczność w zakresie przełączania się między różnymi dostawcami technologii, aby zapobiec nadmiernej zależności od jednego dostawcy (Infoworld 2024).
Istnieje jednak ryzyko, że monopoliści na obecnych rynkach technologicznych – takich jak rynki dla półprzewodników, przetwarzania w chmurze i systemów operacyjnych – wykorzystają swoją władzę, aby zdominować rodzący się rynek usług AI. Jeśli tak się stanie, zwycięzcami rewolucji AI nie będą jej najbardziej innowacyjne firmy. Będą to raczej firmy, które już dominują na rynkach upstream i downstream, od których zależy AI (Slawson 2024). Grupa bigtechów wykorzystuje swój zbiorowy monopol na moc obliczeniową, dane i wiedzę techniczną, aby zyskać przewagę w zakresie wielkoskalowych podstawowych modeli AI. Mniejsze firmy, niemające dostępu do tych ograniczonych zasobów, w celu jego uzyskania podpisują jednostronne umowy z większymi graczami (lub są przez nich przejmowane). Przejęcie Deepmind przez firmę Google oraz partnerstwo OpenAI z Microsoftem to najbardziej znane przykłady, ale nie jedyne.
Amerykańska Federalna Komisja Handlu (FTC) analizuje inwestycje w GenAI i partnerstwa takich firm jak: Google, Amazon i Anthropic, a także Microsoft i OpenAI. FTC ogłosiła, że bada relacje między dużymi firmami technologicznymi a firmami zajmującymi się GenAI oraz ich wpływem na rynek. Powstaje bowiem pytanie, czy takie partnerstwa realizowane przez dominujące przedsiębiorstwa nasilają ryzyko zakłócenia innowacji i naruszania konkurencji. Historia pokazuje, że nowe technologie mogą stworzyć nowe rynki i konkurencję. Ponieważ firmy ścigają się, aby rozwijać AI i monetyzować ją, należy wystrzegać się praktyk, które wykluczają tę szansę (Holland 2024).
Bigtechy dominują także na wielu innych rynkach (w tym w wyszukiwarkach, przetwarzaniu w chmurze i przeglądarkach), które mogą wykorzystać, aby zablokować użytkowników we własnych modelach i usługach sztucznej inteligencji. W miarę jak coraz więcej osób dostarcza dane do kilku modeli i usług AI, efekty sieciowe i korzyści skali jeszcze bardziej zwiększą tę znaczną początkową przewagę. W żargonie ekonomistów jest to rynek podatny na przechyły. Skoncentrowany rynek modeli FM umożliwiłby garstce dominujących korporacji sterowanie kierunkiem i szybkością innowacji w zakresie AI oraz umożliwiłby im wykorzystywanie, wymuszanie i manipulowanie wieloma przedsiębiorstwami, twórcami, pracownikami i konsumentami zależnymi od ich usług i infrastruktury.
Krótko mówiąc, wczorajsi zwycięzcy technologii rozszerzają i wzmacniają swoją monopolistyczną pozycję dzięki sztucznej inteligencji. Być może organom antymonopolowym nie udało się w przeszłości zapobiec monopolizacji technologii cyfrowych, ale polityka konkurencji – jeśli będzie skutecznie egzekwowana – ma do odegrania główną rolę w walce z koncentracją w rozwoju AI. Organy ochrony konkurencji muszą wykorzystać swoje uprawnienia do kontrolowania karteli, fuzji i przejęć oraz nadużywania dominacji rynkowej (zachowań monopolistycznych), aby zapobiec nadużyciom garstki cyfrowych strażników dostępu w pogoni za coraz większymi zyskami. Wymaga to obecnie zbadania i, w razie potrzeby, zerwania antykonkurencyjnych porozumień między bigtechami a start-upami zajmującymi się AI oraz uniemożliwienia cyfrowym strażnikom dostępu wykorzystywania swojej kontroli nad dominującymi platformami, takimi jak wyszukiwanie i przetwarzanie w chmurze, w celu umocnienia swojej kontroli nad sztuczną inteligencją. Należy jednak również przyznać, że nawet na konkurencyjnym rynku liczba dostawców modeli podstawowych AI będzie ograniczona, biorąc pod uwagę zasoby wymagane do szkolenia i wdrażania takich modeli. W tym miejscu muszą wkroczyć regulacje, aby egzekwować odpowiedzialność dominantów.
Ponieważ sztuczna inteligencja zyskuje coraz większą rolę w podejmowaniu decyzji w społeczeństwie, bezpieczeństwo, niezawodność, uczciwość i odpowiedzialność mają kluczowe znaczenie. Systemy AI mogą powodować błędy na podstawie bazowych zbiorów danych lub szkoleń i generować wiarygodnie brzmiące, ale fałszywe reakcje zwane halucynacjami. Jeśli zostaną zastosowane przez osoby mające złe zamiary, mogą być również wykorzystywane do tworzenia przekonującej propagandy, szpiegowania pracowników oraz manipulacji lub dyskryminacji jednostek. Szkody te są szczególnie dotkliwe, gdy wynikają z modelu FM ze względu na kaskadowe skutki jego dalszego zastosowania. Dlatego uprzedzenia, błędy, dyskryminacja, manipulacje lub arbitralne decyzje stwarzają szczególne ryzyko na poziomie modeli podstawowych.