Pod prąd głównego nurtu ekonomii - Mateusz Machaj, Jan Lewiński, Jacek Kubisz, Alicja Kuropatwa, Stanisław Kwiatkowski, Przemysław Leszek, Łukasz Gajewski, Marcin Zieliński, Wojciech Paryna - ebook

Opis

Autorzy książki — młodzi ekonomiści z Wrocławia — zadedykowali ją swojemu mistrzowi profesorowi Witoldowi Kwaśnickiemu. Poszczególne rozdziały dotyczą różnych zagadnień ekonomicznych, a łączy je duch intelektualnej niezależności od kanonów myślenia obowiązujących w ekonomii głównego nurtu. Książkę zamyka esej na temat życia i twórczości Adama Heydla, znakomitego ekonomisty przedwojennego, który z polskim głównym nurtem polemizował prawie 100 lat temu.

Ebooka przeczytasz w aplikacjach Legimi na:

Androidzie
iOS
czytnikach certyfikowanych
przez Legimi
czytnikach Kindle™
(dla wybranych pakietów)
Windows
10
Windows
Phone

Liczba stron: 400

Odsłuch ebooka (TTS) dostepny w abonamencie „ebooki+audiobooki bez limitu” w aplikacjach Legimi na:

Androidzie
iOS
Oceny
1,0 (1 ocena)
0
0
0
0
1
Więcej informacji
Więcej informacji
Legimi nie weryfikuje, czy opinie pochodzą od konsumentów, którzy nabyli lub czytali/słuchali daną pozycję, ale usuwa fałszywe opinie, jeśli je wykryje.
Sortuj według:
tomaszhenrykdulak

Nie polecam

Kto co powiedział, na której stronie. Skład wycinków wypowiedzi innych do utworzenia ełasnego zdania na jakiś temat. Co za ..... ......
00

Popularność




MATEUSZ MACHAJ

PRZEDMOWA

O konsekwentny popperyzm

 

Philip Mirowski zauważył, że w ekonomii neoklasycyzm, który moglibyśmy określić jako ekonomię głównego nurtu, rozwinął się za sprawą „kohorty” ekonomistów, takich jak Jevons, Walras, Edgeworth, Fisher, czy Pareto. Metoda ekonomii neoklasycznej czerpała inspirację z matematycznych metafor, które z powodzeniem stosowano w fizyce. Zastosowanie w ekonomii aparatu znanego z fizyki wiązało się ze zmianą słownika pojęć. Zamiast „energii” wstawiono pojęcie „użyteczności”, która miała być maksymalizowana w warunkach „równowagi” (Mirowski 1991, s. 147). Ekonomia „pozazdrościła” fizyce i pożyczyła od niej narzędzia badawcze. Kontynuacją owej tradycji neoklasycznej, która opierała się na matematyzacji i rachunku marginalnym, jest dzisiejszy główny nurt ekonomii (Ekelund, Hébert 2002, s. 198).

Zapożyczenie przez ekonomię metod stosowanych w fizyce skazało ją na metodologiczny monizm. Ów monizm zawierał założenie implicite, że człowiek jako przedmiot badań ekonomii nie różni się istotnie od atomu i może być obiektem analizy korzystającej z takich samych metod, jakimi posługuje się fizyk badający oddziaływania między atomami. Takie pojęcia ekonomiczne jak dobrobyt, użyteczność, czynniki produkcji, można traktować w sposób uproszczony. Jak zauważa Ludwig Lachmann, w modelach, które budują przedstawiciele głównego nurtu, nie opisuje się działania, lecz reagowanie. Jednostkom przypisuje się spójne mapy preferencji, a wynik ich działań jest z góry określony za pomocą znanych funkcji. Taka analiza jest oderwana od obserwowanej na co dzień działalności gospodarczej (Lachmann 1996, s. 278). Trafność tej krytycznej charakterystyki metod ekonomii głównego nurtu potwierdza wypowiedź jednego z najważniejszych twórców neoklasycznej ortodoksji Gary’ego Beckera. Jego zdaniem „ekonomiczne podejście” wymaga konsekwentnego odwoływania się do optymalizacyjnych założeń dotyczących maksymalizacji funkcji, stabilnych preferencji i rynkowej równowagi (Becker 1976, s. 5).

Słabość obowiązującego dziś wzorca uprawiania ekonomii tkwi w jego formalizmie. To on powoduje, że decyzje ludzi oraz świat, w którym ludzie działają, sprowadza się do prostych i mierzalnych wielkości, traktowanych tak, jakby były wielkościami fizycznymi. W zderzeniu ze złożonymi zjawiskami gospodarczymi formalizm ów prowadzi do błędów, które można ująć w dwie kategorie. Po pierwsze są to błędy polegające na uproszczeniu skomplikowanych struktur i instytucji gospodarczych (za pomocą algebraicznych formuł stosowanych w ekonomii nie da się przedstawić istotnych jakościowych cech1). Po drugie są to błędy związane z założeniem, że w gospodarce istnieją „optymalne” rozwiązania, które można łatwo odkryć w wyniku analizy przyjętego modelu. Formalizm ten prowadzi zatem do wyeliminowania ze świata niepewności, spekulacji i przedsiębiorczego działania, które występują na co dzień w życiu gospodarczym.

Analiza jakościowa pozwalałaby na wierniejszy opis rzeczywistości, więc rodzi się pytanie, jakie argumenty przemawiają za stosowaniem w ekonomii nierealistycznych modeli operujących nadmiernymi uproszczeniami. Otóż za modelami przemawiają względy pragmatyczne. Na ich podstawie można formułować prognozy. Wybitni przedstawiciele głównego nurtu dobrze wiedzą, że taka ekonomia jest oderwana od realiów, dlatego podkreślają konieczność weryfikacji jej teorii na podstawie skuteczności prognoz, które można dzięki nim sformułować (Becker 1976, s. 5; Friedman 1953, s. 31). Ściślej mówiąc, nie chodzi tu właściwie o weryfikację teorii, lecz o poddanie jej wielokrotnym testom falsyfikacyjnym. Jeśli wyniki testów są zadowalające, teorię można uznać za użyteczną, mimo że jest z zasady nierealistyczna.

Metoda ta koncentruje się na selekcji teorii przez odrzucanie poglądów niepotwierdzonych empirycznie. Z tego powodu stanowisko Friedmana uważa się często za odmianę popperyzmu, gdyż to Popper podkreślał, że teorii nie sposób ostateczne zweryfikować; można ją tylko odrzucić lub pokazać, że nie ma podstaw do jej odrzucenia. Tymczasem staranniejsze przyjrzenie się metodologii Poppera prowadzi do wniosku, że metoda proponowana przez Friedmana ma z nią niewiele wspólnego.

Popper przede wszystkim rozumiał, że proces „falsyfikacji” nie polega na prostej konfrontacji „modelu” z „danymi”. Jak mówi teza Duhema–Quine’a, każda obserwacja empiryczna wymaga założenia jakiejś teorii. Na przykład pomiar temperatury w trakcie eksperymentu fizycznego nie polega wyłącznie na odczytaniu wskazania termometru, lecz ponadto wymaga akceptacji określonych teorii matematycznych i fizycznych dotyczących właściwości rtęci (Popper 2002, s. 69). Konieczność powiązania obserwacji z teorią ma istotne znaczenie w teoriach fizycznych. Jednak ze szczególną siłą uwidacznia się w naukach społecznych, w których takie pojęcia, jak „dobrobyt”, „podaż pieniądza”, a nawet „podatki”, nie są danymi, które można łatwo zmierzyć bez odwoływania się do teorii. Ponadto Popper wielokrotnie wyrażał sprzeciw wobec instrumentalizmu, jaki prezentował Friedman:

Jest pewna grupa filozofów [i ekonomistów – MM] (…) Wyznają bowiem pogląd, że tworząc nasze teorie naukowe, nie powinniśmy lub nie możemy dążyć do „czystej” wiedzy, czyli do prawdy; że teorie naukowe to tylko narzędzia – to znaczy narzędzia służące przewidywaniu i zastosowaniom praktycznym [Friedman, Becker etc. – MM] – i że łudzimy samych siebie, jeśli sądzimy, że teorie mogą nam dostarczyć wyjaśnień czy pozwolić na zrozumienie tego, co rzeczywiście zachodzi w świecie. (…)

Co my, antyinstrumentaliści, twierdzimy? Przyznajemy oczywiście, że teoria naukowa może być zastosowana do rozwiązywania wszelkiego rodzaju problemów praktycznych, bądź od razu gdy zostaje wynaleziona, bądź później. Nie mamy więc nic przeciw twierdzeniu, że wszystkie teorie naukowe są narzędziami – aktualnymi lub rzeczywistymi. Twierdzimy jednak, że są one nie tylko narzędziami. Twierdzimy bowiem, że od nauki możemy dowiedzieć się czegoś o strukturze naszego świata, że teorie naukowe mogą dostarczać autentycznie zadowalających wyjaśnień, które można zrozumieć, a więc wzbogacać nasze rozumienie świata (Popper 1997, s. 196).

W innym miejscu Popper podkreśla, że obiektywność naukowa wymaga, by żadnej teorii, czy założenia, nie uznawać za dogmat, gdyż „wszystkie teorie są próbne i otwarte zawsze na surową krytykę, na racjonalną, krytyczną dyskusję, zmierzającą do usuwania błędów” (ibidem, s. 179). Dotyczy to również wszelkich aksjomatów, które przyjmują systemy ekonomii neoklasycznej. Wbrew stanowisku Friedmana dyskusja nie powinna się ograniczać wyłącznie do zagadnienia wewnętrznej spójności modelu i pojedynczych prognoz. Krytyczny racjonalizm nie polega na „ratowaniu życia niedających się utrzymać systemów, lecz przeciwnie, na rzuceniu ich wszystkich w wir najzacieklejszej walki o przetrwanie” (Popper 2002, s. 41).

Dodajmy jeszcze, że Popper był metodologicznym dualistą, czyli uważał, że nauki społeczne różnią się co do charakteru od nauk ścisłych – Friedman (1953, s. 10) uważał inaczej. Według niego „metoda Newtonowska” nie ma szerszego zastosowania i proponuje zamiast niej „wyjaśnienie i zrozumienie zdarzeń w terminach ludzkich oraz instytucji społecznych” (Popper 1997, s. 187). Jeśli zgodzimy się ze stanowiskiem Poppera dotyczącym różnicy między ekonomią a fizyką, to w istocie zakwestionujemy tradycyjny pogląd neoklasycyzmu2.

Autorzy tej książki próbują podążać tropem sokratejskiego popperyzmu. Rzucają neoklasyczne założenia „w wir najzacieklejszej walki o przetrwanie”.

W rozdziale pierwszym Przemysław Leszek porusza problematykę szeroko rozumianej wiedzy w naukach społecznych. Zbyt schematyczne stanowisko w kwestii wiedzy, pomijanie ignorancji podmiotów gospodarczych i nieznajomości złożonych zjawisk ekonomicznych to podstawowe problemy teorii głównego nurtu, którymi zajmuje się autor.

Rozdział drugi, autorstwa Alicji Kuropatwy, dotyczy krytyki szczególnego aspektu teorii rywalizacji gospodarczej, znanego jako założenie o „konkurencji doskonałej”, które chociaż jest powszechnie uznawane za nierealistyczne, to jednak często bywa stosowane w analizie ekonomicznej (a także przyjmowane w kalkulacjach dotyczących polityki gospodarczej).

W rozdziale trzecim Jacek Kubisz przedstawia teoremat Ronalda Coase’a dotyczący ekonomii praw własności i konfliktu. Często uważa się, że teoria Coase’a i bogata literatura z nią związana wskazuje na to, że rynek jest mechanizmem alokacyjnym, który może automatycznie rozwiązywać problemy prawne. Autor tego rozdziału pokazuje, że tak nie jest, i udowadnia, iż możliwość dostosowań rynkowych nie oznacza, że systemem prawnym można swobodnie manipulować, osiągając praktycznie te same rezultaty. Sam teoremat zaś może być uzasadnieniem podważania praw własności.

Rozdział czwarty, autorstwa Łukasza Gajewskiego, podejmuje problematykę pomiaru w ekonomii, a ściślej, kwestię ograniczonych możliwości pomiaru innowacyjności. Jak wskazuje autor, ujmowanie zagadnienia innowacji w kategoriach statystycznych za pomocą makroekonomicznego podziału na dziedziny, czy określanie go za pomocą liczby patentów, prowadzi na manowce, gdyż pomija ukryty, indywidualny i zdecentralizowany charakter innowacji i udoskonaleń w produkcji. Oznacza to również, że można zakwestionować politykę gospodarczą, która próbuje stymulować innowacyjność gospodarki za pomocą „zwiększania nakładów finansowych”. Wynika to z faktu, że agregatowe podejście nie oddaje autentycznego charakteru innowacji gospodarczych, więc trudno wykazać, że „więcej pieniędzy” gwarantuje większą innowacyjność.

Autor piątego rozdziału Stanisław Kwiatkowski omawia mikroekonomiczne pojęcie „dóbr publicznych”, które stosowane jest w ekonomii sektora publicznego, i zastanawia się, czy przymusowe finansowanie podaży niektórych dóbr jest konieczne. Jak utrzymuje autor w ślad za innymi krytykami, nie da się wskazać w rzeczywistości przykładów czystych dóbr publicznych; wątpliwe jest też przyjmowane po cichu założenie, że takie dobra muszą i mogą być dostarczane przymusowo.

Rozdział szósty, mojego autorstwa, zamyka część mikroekonomiczną książki, podejmując dyskusję na temat teorii kapitału i stopy procentowej. Są to dwa zjawiska, które mają łączyć teorie makroekonomiczne z mikroekonomicznymi podstawami. Tymczasem, jak się okazuje, teoria stopy procentowej zawiera jedną z największych niespójności tych dwóch sfer ekonomii, ponieważ radykalnie inaczej się ją traktuje na poziomie mikroekonomicznym, gdzie jest ceną (elementem rynku), a inaczej na poziomie makro, gdzie jest narzędziem ingerencji w rynek.

W rozdziale siódmym Jan Lewiński systematyzuje pojęcie deflacji i omawia polityczne obawy przed jej wystąpieniem. Często zjawisko to prezentowane jest jako niebezpieczeństwo, któremu koniecznie należy zapobiec. Uporządkowanie tego pojęcia pozwala autorowi na wskazanie wielokrotnie pomijanych niewątpliwych walorów deflacji i jej pożądanych skutków, a także na przedstawienie politycznych pobudek, którymi kierują się ci, którzy przedstawiają ją jako zagrożenie.

W rozdziale ósmym, autorstwa Marcina Zielińskiego, omówiono alternatywne sposoby podejścia do polityki monetarnej. W makroekonomii głównego nurtu za narzędzie polityki monetarnej niemal zawsze uważa się instytucję korzystającą z aparatu przymusu (państwowa emisja waluty). Tymczasem istnieją różne sposoby traktowania tego zagadnienia, co wskazuje, że rozmaicie rozumiana polityka pieniężna nie musi się koniecznie opierać na przymusie.

Książkę zamyka prezentacja sylwetki Adama Heydla, jednego z najwybitniejszych polskich ekonomistów. W okresie międzywojennym przeciwstawiał się on intelektualnym prądom, które tworzyły podatny grunt dla koncepcji dziś określanych jako główny nurt w ekonomii. Autor tego rozdziału Wojciech Paryna dotarł do mało znanych źródeł, by przybliżyć czytelnikom życie oraz twórczość tego wielkiego człowieka i naukowca.

Mamy nadzieję, że książka ta stanie się inspiracją do dyskusji na temat różnych założeń i twierdzeń ekonomii teoretycznej.

 

Bibliografia

Becker Gary, 1976, Economic Approach to Human Behavior, Chicago, University of Chicago Press.

Ekelund Robert B. Jr., Hébert Robert F., 2002, Retrospectives: The Origins of Neoclassical Microeconomics, „The Journal of Economic Perspectives”, vol. 16, no. 3.

Friedman Milton, 1953, Methodology of Positive Economics, w: Friedman Milton, 1953, Essays in Positive Economics, Chicago, University of Chicago Press.

Lachmann Ludwig M., 1996, Expectations and the Meaning of Institutions. Essays in economics by Ludwig Lachmann, red. Lavoie Don, London–New York, Routledge.

Mirowski Philip, 1991, The When, the How and the Why of Mathematical Expression in the History of Economic Analysis, „Journal of Economic Perspectives”, vol. 5, no. 1.

Popper Karl R., 1997, Mit schematu pojęciowego. W obronie nauki i racjonalności, Warszawa, Książka i Wiedza.

Popper Karl R., 2002, Logika odkrycia naukowego, Warszawa, PWN.

Rothbard Murray N., 1985, Preface, w: Mises Ludwig von, 1985, Theory and History. An Interpretation of Social and Economic Evolution, Auburn, Al, Auburn University.

1 Na przykład nie da się wyrazić różnicy między podatkiem a ceną za pomocą wzorów stosowanych w ekonomii matematycznej.

2 Popper w swojej obronie specjalnego statusu nauk społecznych posługuje się przykładem skrzyżowania, które przekracza jeden człowiek. Aby dokładnie zbadać tę sytuację, nie rozważamy tylko aspektów fizycznych (przeszkody na drodze, grawitacja), ale uwzględniamy również inne czynniki o charakterze obiektywnym, np. instytucje społeczne (kodeks drogowy, sygnalizacja), i subiektywnym (cele, informacja) (Popper 1997, s. 188–189). Co ciekawe, dokładnie ten sam przykład stosował na swoich seminariach jego rodak Ludwig von Mises (Rothbard 1985). Zapewne wynikało to z tego, że obydwaj wywodzili się z tradycji wiedeńskiej, która w odróżnieniu od anglosaskiej nie postulowała traktowania ludzi niczym trybów w wielkiej maszynie. Przykład ten również dobrze pokazuje problemy z „pomiarem” w naukach społecznych i znajomością z góry znanych „danych”.

Przemysław Leszek jest doktorantem Instytutu Nauk Ekonomicznych Uniwersytetu Wrocławskiego. W 2007 roku obronił pracę magisterską Idea wiedzy rozproszonej Friedricha Augusta von Hayeka a idea wiedzy ukrytej Michaela Polanyi’ego napisaną pod kierunkiem prof. Kwaśnickiego.

 

 

 

Przemysław Leszek jest doktorantem Instytutu Nauk Ekonomicznych Uniwersytetu Wrocławskiego. W 2007 roku obronił pracę magisterską Idea wiedzy rozproszonej Friedricha Augusta von Hayeka a idea wiedzy ukrytej Michaela Polanyi’ego napisaną pod kierunkiem prof. Kwaśnickiego.

 

PRZEMYSŁAW LESZEK

PROBLEMATYKA WIEDZY W NAUKACH SPOŁECZNYCH: O JEDNYM Z POWODÓW ZAWODNOŚCI EKONOMII GŁÓWNEGO NURTU W WYJAŚNIANIU RZECZYWISTOŚCI GOSPODARCZEJ

 

Wprowadzenie

W rozdziale tym twierdzimy, że współczesna ekonomia głównego nurtu w wielu obszarach swoich naukowych dociekań systematycznie ignoruje bądź bagatelizuje problematykę wiedzy. Uważamy, że jest to jeden z ważniejszych powodów tego, iż wyjaśnienia podawane przez „ortodoksyjnych” teoretyków często nie odpowiadają rzeczywistości rynkowej, a nierzadko zaciemniają jej prawdziwy obraz.

Najpierw postaramy się wskazać przyczynę, która, naszym zdaniem, przesądziła o zepchnięciu problematyki wiedzy – pozyskiwanej i wykorzystywanej przez podmioty rynku we wszystkich podejmowanych przez nie decyzjach – do podrzędnej roli. Ową przyczynę nie przez przypadek określiliśmy mianem „uroku Newtona”.

Następnie przedstawiamy krytykę podejścia ortodoksyjnego – porównamy to, co wiemy na temat wiedzy i sposobów jej pozyskiwania i wykorzystywania przez ludzi, z tym, co postuluje teoria ekonomii głównego nurtu.

 

Wiedza w ekonomii

Chociaż temat wiedzy w kontekście rozważań nad funkcjonowaniem systemu społeczno-gospodarczego pojawił się stosunkowo wcześnie, na długo przedtem nim ekonomia wyodrębniła się jako osobna dyscyplina nauki1, to w owym czasie raczej nie był przedmiotem teoretycznej refleksji.

Nie istnieje jedna, ogólnie przyjęta definicja terminu „wiedza”, choć jest on powszechnie stosowany. Próby ustalenia, czym jest wiedza, podejmowane w literaturze naukowej i filozoficznej, odnoszą się zwykle do dziedzin związanych z obszarami zainteresowań poszczególnych badaczy. W obrębie tych dziedzin pojęciu „wiedzy” nadaje się specyficzne znaczenia, z czego wynika jego niejednoznaczność.

Ponieważ przedmiotem badań ekonomii są – mówiąc najogólniej – ludzkie działania i ze względu na to, że człowiek podejmuje decyzje na podstawie tego, co wie, w rozdziale tym opowiadamy się za stosunkowo szeroką i chyba najbardziej intuicyjną interpretacją pojęcia wiedzy. Zgodnie z nią wiedzę poszczególnych ludzi stanowi to, co wiedzą. Ujmując rzecz bardziej szczegółowo, na wiedzę człowieka składa się ogół będących w jego posiadaniu informacji, poglądów, przekonań, wierzeń i zdobytych doświadczeń. Części z nich nie można nawet zwerbalizować. Tak zdefiniowana wiedza jest pojęciem szerszym niż wiedza sprowadzana przez niektórych naukowców i filozofów do uporządkowanego zespołu informacji czy obiektywnie uzasadnionych przekonań. Uczestnicy rynku nie podejmują bowiem decyzji ekonomicznych, kierując się zbiorem „uzasadnionych przekonań”, lecz zgodnie z własnymi przekonaniami2.

Pierwszym ekonomistą, który podkreślał znaczenie wiedzy w działalności gospodarczej, był Richard Cantillon. W książce Essai Sur la Nature du Commerce en Général, napisanej w latach 1730–1734, po raz pierwszy zostało użyte słowo „przedsiębiorca” (Kwaśnicki 2001, s. 92), rozumiane jako synonim słowa arbiter, który robiąc użytek ze swojej wiedzy, dokonuje wyboru alternatywnych zastosowań różnych zasobów. Żyjący kilkadziesiąt lat później Jean-Baptiste Say uznał tak określoną przedsiębiorczość za czwarty czynnik produkcji. W okresie późniejszym w dziełach Johna Stuarta Milla, Carla Mengera i wielu innych autorów odnajdujemy nawiązania do kwestii wiedzy: dawała ona przewagę w interesach, a stojący za nimi motyw zysku gwarantował jej efektywne wykorzystanie (Kostro 2001, s. 119).

Przełom XIX i XX wieku przyniósł całkowicie odmienną perspektywę postrzegania wiedzy oraz jej roli w kontekście rozważań ekonomicznych. Druga połowa XIX wieku obfitowała w wynalazki, z których przynajmniej kilka miało fundamentalne znaczenie dla rozwoju gospodarki. Mamy tu na myśli silnik spalinowy oraz żarówkę, które uchodzą za symbole współczesnej cywilizacji (należy do nich także tranzystor wynaleziony w pierwszej połowie XX wieku). Oblicza gospodarek ulegały gwałtownym transformacjom. Szybkie i zasadnicze zmiany otoczenia rynkowego wiązały się w dużej mierze z rozwojem naukowo-technicznym, stąd też nie dziwi, że gdy pisano o wiedzy w ekonomii, coraz częściej miano na myśli wiedzę naukową, ujawniającą się pod postacią wynalazków oraz innowacji, nie zaś wiedzę osobistą, wykorzystywaną przez przedsiębiorcę działającego na rynku.

W opublikowanej w 1912 r. Teorii wzrostu gospodarczego Joseph Schumpeter wprowadził do analizy ekonomicznej specyficzną koncepcję przedsiębiorczości. Wiedza, ucieleśniona w owocach postępu technicznego i organizacyjnego (w wynalazkach, innowacjach, a także w nowych zastosowaniach już istniejących zasobów wiedzy i środków produkcji), była implementowana do gospodarki przez przedsiębiorców, co zwiększało ich zyski, ale także przeobrażało dotychczasowo funkcjonujący system produkcji dóbr i usług, powodując rewolucyjne zmiany w wielu sferach życia3 (Schumpeter 1960, s. 103–104 i passim).

Początki współczesnej teorii wzrostu gospodarczego wiążą się z modelem skonstruowanym pod koniec lat 50. przez Roberta Solowa (Solow 1956). Neoklasyczna funkcja produkcji została przez niego wzbogacona o parametr symbolizujący wiedzę (ściślej: postęp techniczny). Za kolejny etap na drodze do lepszego zrozumienia i wyjaśnienia zjawiska rozwoju gospodarczego możemy uznać próbę potraktowania wzrostu jako procesu endogenicznego. Dynamika jest tu określona wewnątrz modelu, a jej siłą napędową są efekty zewnętrzne związane z kumulacją wiedzy w formie technologii oraz kapitału ludzkiego (np. Mankiw i in. 1992; Romer 2000, s. 149–163; Romer 1990).

Rozwój wiedzy pod postacią „szoków technologicznych” odgrywa zasadniczą rolę w koncepcjach formułowanych przez przedstawicieli szkoły realnych cykli koniunkturalnych. W 1982 roku Erling Kydland i Edward Prescott zaprezentowali model makroekonomiczny, w którym za fluktuacje PKB odpowiadały częste losowe „wstrząsy technologiczne”4.

W połowie ubiegłego wieku ekonomiści ponownie zaczęli przywiązywać większą wagę do zachowań pojedynczych podmiotów rynku. Określona w sposób doskonały „wiedza niedoskonała” – wraz z odgórnie wyspecyfikowanymi i całkowicie sformalizowanymi schematami podejmowania decyzji w takim „niedoskonałym” otoczeniu informacyjnym5 – została szeroko opisana w literaturze. Takie podejście reprezentują koncepcje rozwijane w obrębie tzw. nowej ekonomii klasycznej (chodzi tu zwłaszcza o zasadę tworzenia prognoz ekonomicznych opartych na hipotezie racjonalnych oczekiwań, którą ostatecznie zaakceptowali również przedstawiciele szkół konkurencyjnych), nowy keynesizm (zwłaszcza ekonomika informacji), a także teoria gier.

Począwszy od lat 80. obserwujemy umacnianie się pozycji nowego keynesizmu, którego przedstawiciele – na czele z Josephem Stiglitzem oraz George’em Akerlofem, laureatami Nagrody Nobla – uczynili przewodnim motywem swoich badań poszukiwanie wiarygodnych mikropodstaw, tj. „prawdziwych” fundamentów, na których mogliby oprzeć tradycyjne, keynesistowskie postulaty dotyczące niedoskonałości rynku o charakterze makroekonomicznym6. Nowość ich ujęcia polegała przede wszystkim na wprowadzeniu do rozważań ekonomicznych wysoko sformalizowanych analiz sytuacji, w których jednostki zmagają się z asymetrią informacji oraz niedoborami informacyjnymi7 (np. Akerlof 1970; idem 2003; Stiglitz 2004; por. Wojtyna 2000).

Rozwój matematycznej teorii gier pociągnął za sobą niebywały rozkwit koncepcji ekonomicznych opisujących proces podejmowania decyzji przez podmioty, które pozostają względem siebie w stosunku interakcji i działają w warunkach wiedzy niedoskonałej. „Wiedza niedoskonała” stała się tutaj synonimem ryzyka lub częściej (całkowicie błędnie) niepewności8.

Podsumujmy: oto rozpoznaliśmy trzy cechy podejścia ortodoksyjnego do problemu będącego przedmiotem naszej analizy.

Po pierwsze, pojęcie wiedzy oraz jemu pochodne („wiedza doskonała”, „niedoskonała”) nie są precyzyjnie zdefiniowane, toteż posługiwanie się nim może stanowić przyczynę nieporozumień9.

Po drugie, ekonomiści mają skłonność do łączenia w swoich pracach pojęcia wiedzy z wynalazczością czy technologią, mówiąc ogólnie: z nauką oraz jej rozwojem. Wiedza występuje tu w pewnej zagregowanej formie, w roli jednego z czynników produkcji (obok kapitału oraz pracy), zwykle w kontekście badań makroekonomii nad dynamiką wzrostu gospodarczego.

Po trzecie, jeśli nawet rozważania prowadzone są na gruncie mikroekonomii, to temat wiedzy albo nie występuje (zakładamy najpierw, że wiedza jest „doskonała”, następnie koncentrujemy się na właściwościach zastosowanego aparatu matematycznego), albo sprowadza się do określenia „niedoskonałości” wiedzy w sposób doskonały (wprowadzamy do analizy kiepską imitację „niedoskonałości”, dalej postępujemy zgodnie z tą samą procedurą jak w przypadku wspomnianym wyżej).

Nie ulegając pokazanej tu swoistej logice myślenia części ortodoksyjnych teoretyków, twierdzimy, że temat wiedzy w ekonomii nadal jest ignorowany przez główny nurt i w związku z tym konieczny jest jego obszerniejszy opis. Zagadnienia, które się z tym tematem łączą, będziemy określać jako „problem” bądź „problematyka wiedzy”. „Wiedza”, jaką posługują się modelowe podmioty (tudzież centralny planista), ma niewiele wspólnego z wiedzą osobistą, na podstawie której jednostki układają swoje plany i podejmują decyzje. Wykażemy to w dalszej części rozdziału. Teraz jednak spróbujemy odpowiedzieć na ważne dla nas pytanie: dlaczego ekonomia tak zaciekle broni się przed wiedzą?

 

Urok Newtona. Problem wiedzy w naukach społecznych a urok Newtona

Począwszy od XVI wieku, kierunki zmian, jakie dokonały się w sposobie postrzegania świata oraz w systemach metodologicznych, wyznaczały rozwój nauk przyrodniczych. Szczególną rolę w tym względzie odegrała fizyka. Owe zmiany znacznie wykroczyły poza obszar badań należący do „królowej nauk”. W czasie jednego stulecia nowożytna fizyka odcisnęła piętno na większości dyscyplin przyrodniczych, społecznych10, a nawet na sztuce i literaturze11.

W okresie oświecenia silniej ugruntował się wyznawany już wcześniej pogląd, że „wiedzę” należy łączyć tylko ze sferą badań, rozwoju i przekonaniami naukowców:

w ciągu wieków większość filozofów „wiedzą” – a tym bardziej „nauką” – skłonna była nazywać jedynie takie poglądy, które byłyby nie tylko prawdziwe, ale o których wiedzielibyśmy, że takie są. Nie wystarczy prawda odgadnięta szczęśliwym trafem – nauka to zbiór twierdzeń dowiedzionych (Sady 2008, s. 5).

Wiedza została utożsamiona znaczeniowo z nauką; słowa „nauka” oraz „wiedza” często stosowano zamiennie. Zgodnie z Kartezjańskim racjonalizmem (później nieco złagodzonym przez Kanta i praktykę naukową) tradycja, obyczaj, skumulowane doświadczenie – jako słabo lub w ogóle nieuzasadnione rozumowo – tracą swój sens. Zasadność „wiedzy praktycznej” czy „osobistej” została zakwestionowana, ponieważ jej prawdziwości, a dokładniej, prawdziwości logicznych przesłanek działania, nie potrafiono udowodnić.

Co więcej, „wiek rozumu” przyniósł ważne rozstrzygnięcia w sferze filozofii nauki: od tej pory jedyne słuszne i akceptowane w środowisku naukowym odpowiedzi na pytania: „W jaki sposób należy poszukiwać takiej wiedzy?” oraz „Jak odróżnić prawdę od fałszu?” odnajdywano w systemie wypracowanym przez fizyków i matematyków. Coś, co w jakiś istotny sposób nie przypominało systemu Newtonowskiej mechaniki lub z niej nie wynikało, nie tylko nie zasługiwało na miano wiedzy lub nauki, ale w ogóle nie było przedmiotem uwagi:

(…) system mechaniki zyskał, w powszechnej opinii, status wzorcowej teorii naukowej: jeśli odtąd jakakolwiek teoria miała pretendować do miana naukowej, to musiała pod pewnymi istotnymi (choć nie zidentyfikowanymi wyraźnie) względami przypominać Newtonowską mechanikę (Sady 2008, s. 7).

To, że powszechnie i mocno wierzono w fizykę oraz w wypracowane przez fizyków narzędzia i metody poznawania rzeczywistości, nie wzięło się stąd, że owi reprezentanci nauk przyrodniczych byli wyjątkowo porywającymi osobowościami i mieli dar perswazyjnej retoryki, ani nie było rezultatem rzeczowej i spójnej pod względem logicznym argumentacji filozofów nauki oraz samych naukowców12.

Metody te stały się tak atrakcyjne, gdyż dowiodły swojej – wręcz niebywałej i bezprecedensowej w historii ludzkiego poznania – przydatności praktycznej w wyjaśnianiu rzeczywistości materialnej. W rezultacie ich stosowania naukowcy świętowali nieprzerwane pasmo sukcesów w objaśnianiu i prognozowaniu zjawisk przyrodniczych (określane niekiedy mianem „wielkiej rewolucji naukowej”). W przeciągu zaledwie jednego stulecia ukształtowało się oblicze nowożytnej nauki. O jej wyrazie zdecydowały wnikliwe obserwacje nieba prowadzone przez Tychona Brahe i Galileusza oraz nowatorskie, antyanimistyczne, fizyczne koncepcje Keplera, odkrycia Bernoulliego, Laplace’a, Huygensa, Boyle’a czy Hooke’a, a także najprawdopodobniej najważniejsze dokonanie – sformułowanie prawa ruchu i powszechnego ciążenia przez Newtona.

Nawet w dobie romantyzmu, który za sprawą literatury tamtego okresu kojarzy się raczej z porywami serca niż afirmacją nauki, jak przekonuje Kochanowska (1998):

Intelektualiście angielskiemu i niemieckiemu (…) nie wypadało pozostawać obojętnym na najnowsze osiągnięcia fizyki, biologii czy geografii. Nawet ci, którzy nie mogli się poszczycić odpowiednim dyplomem, czynili starania, by zaznajomić się bliżej z naukami matematyczno-przyrodniczymi.

Wielu z nich, np. Schlegel czy Goethe, słynęło z bardzo rozległych zainteresowań naukowych13.

Artystów romantycznych oczarowała nauka. Znalazłszy się pod wpływem jej oszałamiających sukcesów, uważali, że wykorzystując niektóre z nich, zdołają przeniknąć zagadkę życia czy zrozumieć przeznaczenie świata. O ile tę ich fascynację moglibyśmy uznać za „poetyckie mrzonki”, całkiem nieistotne dla toku naszego wywodu, o tyle podobne w swym charakterze (a niekiedy także co do treści) rozważania naukowców nie mogą ujść naszej uwagi.

Jak wspomniano, sukcesy mechanistycznego sposobu rozumowania doprowadziły uczonych i filozofów do przekonania, że mechanika klasyczna stanowi podstawę nie tylko fizyki, ale też nauki w ogóle. Co więcej, we wszechświecie poddanym prawom Newtona nie było miejsca na przypadek, a przynajmniej nie w takim sensie, w jakim za przypadek uznaje się wynik rzutu symetryczną monetą. Laplace twierdził z pełnym przekonaniem, że gdyby idealnemu rachmistrzowi dostarczyć parametry określające położenie wszystkich cząstek uniwersum, mógłby bezbłędnie przewidzieć jego przyszłość oraz poznać przeszłość. Liczne interpretacje oraz analizy doktryny Laplace’a czy też systemu Newtona (niekiedy zbyt daleko idące i nie zawsze zgodne z intencjami samych twórców)14 istotnie wsparły koncepcję „kompletności nauki”, stanowiącą wyraz wiary w to, że nauka zbliża się do rozwiązania swoich zadań i że wkrótce poznamy wszystkie odpowiedzi (Shattuck 1999, s. 63).

Artyści, przedstawiciele nauk przyrodniczych i społecznych – poza nielicznymi wyjątkami – ulegli urokowi Newtona. Kolejne dziedziny uzyskiwały status nauki: wystarczyło je upodobnić do dyscypliny twórców technicznego sukcesu.

Urok Newtona oznaczał zatem fascynację uczonych oraz intelektualistów systemem mechaniki. W świetle triumfu ludzkiej myśli nad przyrodą – fascynację naturalną i zrozumiałą. Często jednak dzieje się tak, jak to trafnie zaobserwował Hayek (2002b, s. 101):

Nigdy człowiek głębiej nie pogrąży się w błędzie niż wtedy, gdy dalej podąża drogą, która doprowadziła go do wielkiego sukcesu. Nigdy też duma z osiągnięć nauk przyrodniczych (…) nie mogła być bardziej uzasadniona niż na przełomie XVIII i XIX wieku.

W przeciągu stu lat urokowi Newtona ulegli również przedstawiciele nauk społecznych (w szczególności ekonomiści) i wstąpili na drogę wytyczoną przez fizyków, wierząc zapewne w to, że tym sposobem będą mieli choćby niewielki udział w sukcesie swoich kolegów przyrodników. W rezultacie zaczęto niemal bezkrytycznie stosować w analizie ludzkich działań „fizyczne” schematy oraz sposoby opisu przyrody.

Najważniejsze pytanie – z perspektywy poruszanych tu zagadnień – nadal jednak pozostaje bez odpowiedzi: Dlaczego, jak twierdzimy, fizykalistyczny sposób uprawiania ekonomii oznacza, de facto, odsunięcie problematyki wiedzy na dalszy plan? Podejmiemy teraz próbę rozstrzygnięcia tej kwestii.

Wydaje się, że dokładnie to, co stało za sukcesem fizyki i spektakularnymi osiągnięciami rewolucji naukowej, w sporej mierze przyczyniło się do zastoju w naukach społecznych, który – nie będzie to stwierdzenie szczególnie ryzykowne – trwa nadal. W tendencji do ignorowania problematyki wiedzy w ekonomii upatrujemy ważną przyczynę i jeden z syndromów tego zastoju.

Nie chodzi nam o to, że nauki społeczne zostały nagle przyćmione blaskiem fizyki i przestały cieszyć się zainteresowaniem oraz poważaniem naukowców, gdyż stało się dokładnie na odwrót: ów blask spłynął na ekonomię, dzięki czemu uzyskała ona status „prawdziwej nauki”. Nie mamy też na myśli spowolnienia pojawiania się nowych koncepcji ekonomicznych, przeciwnie – nastąpił wówczas ich prawdziwy wysyp. Nowe idee, czerpane wprost z fizyki i tworzone per analogiam doprowadziły do wybuchu „rewolucji marginalistycznej” i intensywnego rozwoju szkoły neoklasycznej (por. Kwaśnicki 2005), której piętno ekonomia – przynajmniej w swym głównym nurcie – nosi do dziś (por. Blaug 1994, s. 589; Leszek 2009b). Zastój w ekonomii należy rozumieć w tym sensie, że nasza wiedza o funkcjonowaniu systemu społeczno-gospodarczego nie powiększyła się istotnie od czasów Richarda Cantillona i Adama Smitha, a już na pewno nie tak, jak moglibyśmy tego oczekiwać, przyglądając się z zazdrością osiągnięciom przyrodników. Jak zauważył Mayer (1996, s. 12–15), z każdym rokiem badaniom ekonomicznym poświęcamy więcej godzin niż przez całe stulecie 1776–1876, a przy tym dysponujemy nieporównywalnie lepiej rozwiniętym aparatem matematycznym i większą ilością danych. „Czy nasza wiedza wzrosła współmiernie do tego?” – pyta Mayer, by natychmiast samemu sobie odpowiedzieć: „zapewne nie!” (Mayer 1996, s. 12).

Zanim fizyka odniosła swoje największe sukcesy i zanim, za sprawą tych osiągnięć, metody fizyki wyniesiono na epistemologiczny piedestał, naukowcy musieli odrzucić – co dokonywało się stopniowo – niektóre idee stanowiące istotną przeszkodę w jej rozwoju. Hayek twierdził, iż

Nauka15 musiała wywalczyć ten swój sposób myślenia w starciu z obrazem świata, zbudowanym w większości z pojęć powstałych na tle naszych stosunków z innymi ludźmi i w interpretacji ich działań (Hayek 2002b, s. 15).

Stąd też, mając na uwadze, że nauki społeczne – zgodnie z tym, co sugeruje ich nazwa – badają społeczeństwo, czyli właśnie sieć wzajemnych stosunków między ludźmi, w pełni zgadzamy się z Hayekiem, iż w walce, o której pisał,

nauka mogła się tak rozpędzić, iż wykroczyła poza początkowy cel, i powstała sytuacja, w której niebezpieczeństwo jest wprost przeciwne – dominacja scjentyzmu zagraża postępowi w rozumieniu społeczeństwa (Hayek 2002b, s. 15)16.

Do największych przeszkód, które badacze odrzucili – co bezpośrednio poprzedziło rewolucję naukową – należały:

a) zwyczaj kierowania większości wysiłków badawczych na analizę idei innych ludzi (zazwyczaj starożytnych filozofów), tak jak gdyby ich sądy i opinie od początku miały zawierać w sobie całą prawdę o rzeczywistości;

b) kultywowany od najdawniejszych czasów i wszechobecny w myśli ludzkiej antropomorfizm oraz animizm (anima mundi).

Pierwsza z powyższych kwestii nie wymaga obszerniejszych wyjaśnień, skoncentrujemy się więc na drugiej. Antropomorfizm stanowił integralną część ówczesnego światopoglądu, natomiast w kontekście epistemologii oznaczał, że człowiek rozpoczynał analizę zjawisk poprzez interpretację ich na swoje podobieństwo, tzn. jako ożywione przez jakiś umysł, z konieczności podobny do jego własnego umysłu17. Innymi słowy, tłumaczono zjawiska przyrodnicze, stosując analogię do funkcjonowania ludzkiego umysłu, co zwykle oznaczało, że dopatrywano się w nich skutków celowego działania jakiejś świadomości. Najbardziej oczywiste przykłady antropomorfizmu odnajdujemy w przednaukowych systemach kosmologicznych: od starożytności po późne średniowiecze ciałom niebieskim (bądź „poruszycielom” tych ciał) przypisywano świadomość, wolę, wiedzę, a nawet organy zmysłów. Dopiero w czasach Keplera i Kartezjusza dusza poruszająca, anima motrix, stopniowo poczęła przeradzać się w siłę poruszającą, vis motrix (por. Koestler 2002, s. 19–25, 255, 337–340; Hayek 2002b, s. 15–16). Jeżeli współczesnym niełatwo jest pojąć istotę „rozumnej materii”, to dzieje się tak właśnie dlatego, że już dawno odrzuciliśmy taki sposób postrzegania świata i przyjęliśmy całkiem odmienny, ten zaproponowany parę wieków temu przez nauki przyrodnicze. Zauważmy, że pionierzy nowożytnej fizyki musieli uporać się z niemal dokładnie tym samym problemem: z jego lustrzanym odbiciem. Samo wyobrażenie sobie stosunków fizycznych – w kategoriach pozbawionych celu, bezosobowych sił – dla nas tak oczywiste, dla nich było wielkim intelektualnym wyzwaniem. W jednym z listów napisanych przez Keplera odnajdujemy taką deklarację:

Za cel stawiam sobie pokazanie, że machina niebieska nie jest rodzajem boskiej, żywej istoty, lecz rodzajem mechanizmu zegarowego (a ten, kto wierzy, że zegar ma duszę, przypisuje dziełu chwałę twórcy), z tym, że niemal wszystkie spośród rozmaitych ruchów są spowodowane działaniem niezwykle prostej, magnetycznej i materialnej siły, tak samo jak ruchy zegara są spowodowane działaniem zwykłego ciężarka. Pokazuję również, w jaki sposób należy wyrazić te siły liczbowo i geometrycznie (list Keplera do Herwarta z lutego 1605, cyt. za: Koestler 2002, s. 337–338).

Zgadzamy się z Koestlerem (2002, s. 338), iż w powyższym fragmencie została wyrażona istota rewolucji naukowej.

Rozbrat umysłu z materią, wraz z jednoczesną negacją starożytnych idei jako nośników transcendentalnych i ponadczasowych prawd, oznaczał, po pierwsze, odrzucenie wszelkich koncepcji, które zawierały wyjaśnienie takiego a nie innego zachowania pewnych elementów rzeczywistości materialnej w kategoriach ich celowego działania, opartego na ludzkiej percepcji świata. Po drugie, wyznaczył on nowy cel nauce: badanie (obserwacja) „martwych” obiektów i bezosobowych relacji pomiędzy nimi przez poznawanie jedynie ich „zewnętrznych” przejawów, czyli „obiektywnych” właściwości fizycznych, a następnie ich klasyfikacja ze względu na te właściwości. Doprowadziło to do tego, czego już w XVI wieku domagał się Francis Bacon, a mianowicie do dalszej eliminacji z rozważań o przyrodzie „pierwiastka ludzkiego” i przezwyciężenia słabości ludzkiego umysłu, ulegającego różnym złudzeniom.

Mówiąc krótko, celem nauki stało się poznawanie rzeczywistości takiej, jaka ona jest, nie zaś takiej, jaka myślimy, że jest – a co więcej – nie takiej, jakiej ogląd pierwotnie dostarczają nam nasze zmysły w doświadczeniu. Jak zauważył Hayek:

świat, którym interesuje się Nauka, nie jest światem naszych ustalonych pojęć czy nawet wrażeń zmysłowych. Jej zadaniem jest wytworzenie nowej organizacji całego naszego doświadczenia świata zewnętrznego i w tym celu musi ona nie tylko przemodelować nasze pojęcia, lecz także odejść od jakości zmysłowych oraz zastąpić je odmienną klasyfikacją zdarzeń. Obraz świata, który człowiek sobie faktycznie ukształtował i którym się dość dobrze kieruje w codziennym życiu, oraz ludzkie postrzeżenia i pojęcia nie są dla Nauki przedmiotem badań, lecz niedoskonałym narzędziem, które trzeba poprawić (Hayek 2002b, s. 21)18.

Większość wysiłków podejmowanych przez naukowców przynajmniej od XVIII wieku podporządkowano osiągnięciu celu, o którym pisał Hayek. Podobnie rzecz się ma ze wszystkimi narzędziami, schematami myślowymi i koncepcjami, wykorzystywanymi przez badaczy przyrody z tak wielkim powodzeniem. Do ich sukcesu przyczyniło się to, że w toku rozwoju nauki zostały one odpowiednio dobrane (w sposób świadomy lub nie) pod kątem ich przydatności we wspieraniu owych wysiłków.

Skutki ich bezkrytycznego rozciągnięcia na nauki społeczne, zwłaszcza na ekonomię, są dzisiaj łatwo dostrzegalne. Podążanie ekonomii śladami fizyki oznacza, między innymi, prymat myślenia, „jak jest rzeczywiście”, i wynikających stąd konsekwencji nad tym, „jak myślimy, że jest”, i wniosków płynących z takiego ujęcia. Problem polega na tym, że w naukach zajmujących się badaniem elementów przyrody materialnej takie rozróżnienie nie istnieje – w tym sensie, iż ze względu na ustalony w czasie „rewolucji naukowej” charakter przedmiotu badań jest ono tak oczywiste i naturalne, że nikt się nawet nad nim nie zastanawia. Tymczasem w ekonomii, podobnie jak w fizyce, w zasadzie również ono nie istnieje, chociaż obiekt badań, jakim jest jednostka ludzka, istotnie różni się od planety czy atomu (por. Mises 2007, s. 1–60). Podstawowe różnice sprowadzają się do tego, że podmioty rynku posiadają umysły podobne do umysłu badacza oraz – co tutaj interesuje nas nawet bardziej – działają na podstawie swojej wiedzy i potrafią się uczyć. Wprawdzie nawet Kepler – jeden z ojców rewolucji naukowej – przypisywał planetom posiadanie wiedzy dotyczącej ich położenia w przestrzeni (Koestler 2002, s. 339), jednak od czasów Newtona taki pogląd uznawany jest za anachronizm19. Nowoczesne sposoby rozumowania po prostu nie biorą pod uwagę takiej ewentualności: badaniu podlega sam obiekt, taki, jakim jest, natomiast – co oczywiste – badaniu nie podlega wrażenie tego obiektu o sobie samym lub o innych obiektach. Fizycy mogą odkrywać prawa przyrody i formułować je według następującego schematu: „Jeżeli wystąpią takie czy inne obiektywne i obserwowalne fakty (okoliczności), badane zjawisko (lub obiekt) zachowa się w taki czy inny sposób”. W takim sensie układ faktów determinuje określone zjawisko. Jeśli badacz tylko rozpozna ten układ (odkryje te „obiektywne” fakty) oraz ich powiązanie z badanym zjawiskiem, będzie mógł, z ogromnym prawdopodobieństwem, przewidzieć jego rozwój.

Tymczasem w naukach społecznych badaczowi w celu wytłumaczenia określonego zachowania podmiotów rynku nie wystarczy znajomość „obiektywnych” czy „stylizowanych” faktów (typu: wielkość PKB, cena produktu, jakość produktu czy treść rozporządzenia ministra finansów itp.). Niekiedy takie „obiektywne” fakty nie wpływają na zachowanie jednostki na rynku. Jeżeli w ogóle możemy mówić o tym, że zachowanie człowieka jest jakoś „zdeterminowane”, to czynnikiem determinującym nie będą „obiektywne” fakty, ale to, co ten człowiek o nich wie i jak – zgodnie z tą wiedzą – je interpretuje. Zatem w naukach społecznych fakty, od których wychodzi badacz w swej analizie, obejmują (a raczej winny obejmować) także opinie i poglądy podmiotów rynku. Zasadniczo, ważniejsze są atrybuty, jakie ludzie przypisują danym obiektom i sytuacjom, niż „prawdziwe”, tj. „obiektywne”, cechy i właściwości tych obiektów i sytuacji (por.: Hayek 1998, s. 42–88; idem 2002b, s. 15–48).

Podsumujmy nasz dotychczasowy wywód. Jak wspomnieliśmy we wstępie, współczesna ekonomia głównego nurtu ignoruje bądź niepoprawnie określa problematykę wiedzy, co ma negatywny wpływ na jakość teorii formułowanych przez ekonomistów. Za przyczynę takiego stanu rzeczy uznaliśmy przede wszystkim specyficzne „fizykalistyczne” stanowisko epistemologiczne i metodologiczne badacza-ekonomisty. Sukcesy mechanistycznego sposobu wyjaśniania rzeczywistości materialnej doprowadziły uczonych do przekonania, że jest to jedyne słuszne podejście do problemu badawczego, i to bez względu na przedmiot badań. Ponadto wskazaliśmy źródło tendencji do „obiektywizowania” wiedzy, tj. utożsamiania jej z poglądami naukowców, co z kolei znalazło wyraz w różnych próbach „ucieleśnienia” wiedzy, na przykład pod postacią parametru opisującego postęp technologiczny w modelu wzrostu gospodarczego. Uważamy, że takie „makroekonomiczne” ujęcie może być bardzo przydatne20. Jest jednak możliwe, że tendencja, o której tu mowa, dodatkowo odwróciła uwagę ekonomistów od odmiennej w swym charakterze „wiedzy osobistej”, którą jednostki kierują się w swoich decyzjach.

Krótko mówiąc, w pierwszej części staraliśmy się zidentyfikować ułomność teorii ekonomicznej głównego nurtu na poziomie fundamentalnym, tj. na poziomie idei mówiącej o niemal bezgranicznych możliwościach stosowania schematów mechanistycznych w naukach społecznych. Gdy się przyjrzeć w tym świetle wysiłkom zmierzającym do usprawnienia teorii, które polegają na wprowadzaniu do fizykalistycznych modeli kosmetycznych zmian (np. ustanawiania zależności probabilistycznych w miejsce funkcyjnych czy dodawania parametrów określających „wiedzę niedoskonałą”), można mieć uzasadnione wątpliwości, czy są one właściwie ukierunkowane.

W drugiej części rozdziału polemizujemy z konkretnymi rozwiązaniami, jakie oferuje nam współczesna teoria ekonomii głównego nurtu.

 

Bunt przeciwko wiedzy doskonałej: wiedza rozproszona i niepewność

W rzeczywistym świecie dysponowanie pewnymi informacjami (lub ich brak) przesądza o ekonomicznych wyborach dokonywanych przez podmioty rynku (co w konsekwencji może określać sposób funkcjonowania całych rynków). Niezależnie od tego – jak by się mogło wydawać – banalnego spostrzeżenia kwestie związane z problematyką wiedzy nie stanowią ważnego przedmiotu rozważań teoretycznych. Od czasów tzw. rewolucji marginalistycznej w XIX wieku, kiedy ekonomia uległa wpływowi nauk przyrodniczych, były one zbywane założeniem o wiedzy doskonałej. W powszechnej interpretacji postulat ten oznacza, że badacz przyjmuje, iż ludzie podejmują decyzje ekonomiczne w taki sposób, jak gdyby znali wszystkie fakty, które w rzeczywistości mogłyby mieć wpływ na te decyzje21.

Dopiero w XX wieku Hayek – podczas zapoczątkowanej przez Misesa debaty nad sprawnością gospodarki socjalistycznej – poruszył problem wiedzy, nadając mu fundamentalne znaczenie (por. Kostro 2001, s. 117–163; Godłów-Legiędź 1992, s. 209–241).

„Debata kalkulacyjna” była jednym z najważniejszych epizodów w historii myśli ekonomicznej (por. Kirzner 1988). Ludwig von Mises rzucił w jej trakcie wyzwanie teoretykom socjalizmu: bez własności prywatnej nie ma rynku dóbr kapitałowych, bez rynku nie ma cen. Nie jest zatem możliwa kalkulacja ekonomiczna, która z kolei stanowi podstawę racjonalnej (efektywnej) alokacji kapitału (Mises 1990). Teoretycy socjalizmu, niejako w odpowiedzi na ten argument, adaptowali do własnych celów neoklasyczne narzędzie, pozwalające im imitować bodźce rynkowe: mechanistyczny model równowagi ogólnej. Zaczęło ono służyć do opisu funkcjonowania kolektywnej gospodarki planowej. Z jego pomocą można było ustalić ceny równoważące popyt i podaż w skali całego „rynku”, i to bez konieczności odwoływania się do określonych transakcji rynkowych. Uczestnikom debaty umknęła ważna sprawa, że pojęcia ceny w rozumieniu neoklasycznym oraz ceny rynkowej, poza samym określającym je terminem, nie mają ze sobą wiele wspólnego (por. Machaj 2009), co sprawiło, że szala zwycięstwa w sporze przechyliła się na korzyść socjalistów. Wykazali oni (przynajmniej w mniemaniu opinii publicznej, na gruncie „obowiązującego” wówczas, neoklasycznego paradygmatu), że jednak istnieje aparat teoretyczny umożliwiający optymalną alokację zasobów w gospodarce planowej.

W sukurs Misesowi przyszedł Hayek. Swoje stanowisko w debacie zawarł w kilku artykułach22, wskazując w nich na istnienie dotychczas pomijanego, a przy tym bardzo ważnego aspektu analizy ekonomicznej: problemu wiedzy. Nawet gdyby teoria neoklasyczna wskutek nadmiernego uproszczenia, nie fałszowała natury rynku, to i tak planista do skonstruowania modelu naśladującego gospodarkę musiałby dysponować wiedzą, której nie zdołałby posiąść. Musiałby mianowicie poznać wszystkie parametry określające poprawnie stan systemu społeczno-gospodarczego w określonym czasie. Podobnie jak fizycy nie są w stanie (przynajmniej dziś) pozyskać informacji dotyczących położenia wszystkich cząsteczek materii, nie jest też możliwe, by jakikolwiek człowiek (w tym planista) poznał całość współczynników charakteryzujących system społeczno-ekonomiczny. W szczególności nie będą dla niego dostępne takie parametry, które by wiernie pokazywały gusty, preferencje, wiedzę oraz działania poszczególnych ludzi. Nie będzie także mógł zgromadzić wielu innych informacji, które decydują na przykład o indywidualnym charakterze każdego urządzenia wykorzystywanego w produkcji dóbr (choćby o stopniu zużycia poszczególnych maszyn w gospodarce, por. Hayek 1998, s. 173–176). Wiedza jest bowiem rozproszona i nie poddaje się agregacji:

Suma wiedzy wszelkich jednostek nigdzie nie istnieje jako integralna całość. Wielki problem polega na tym, w jaki sposób możemy wszyscy korzystać z tej wiedzy, która występuje tylko w rozproszeniu jako oddzielne, cząstkowe i niekiedy sprzeczne przekonania wszystkich ludzi. (Hayek 2007, s. 38)

Nawet jeśli się przyjmie całkowicie nierealistyczne założenie, że wymagane dane zostałyby w jakiś sposób zgromadzone, jest to niewystarczające, aby móc skutecznie zarządzać gospodarką. Pozostawałyby jeszcze problemy związane z ich opracowaniem i podejmowaniem decyzji na podstawie tych danych. Z matematycznego punktu widzenia znalezienie warunków równowagi modelu równowagi ogólnej nie stanowiłoby żadnego problemu. W praktyce rozwiązanie układu liczącego miliardy lub nawet biliony równań byłoby barierą nie do pokonania. Hayek był zdania, że algorytmy, które wskazano jako rozwiązanie problemu alokacji, nie mają sensu, gdyż ich złożoność pozbawia je obliczalności praktycznej (Hayek 1998, s. 171, 175).

Teorie ekonomiczne oraz ilustrujące je modele są konstruowane na podstawie określonych zespołów danych. Hayek zwrócił uwagę na to, że słowo „dane” było nader często (choć zwykle nieświadomie) nadużywane przez ekonomistów. Dane to pewne elementarne, niekiedy szczątkowe sygnały, których znamienną cechą jest to, że są one dane, czyli dostępne i przedstawione w postaci umożliwiającej ich dalszą analizę. Hayek jako pierwszy zadał pytanie: „Komu te fakty mają być dane?” (Hayek 1998, s. 48). Zauważył ponadto, że kwestia ta zawsze budziła podświadomy niepokój ekonomistów. Świadczyć o tym może stosowanie przez nich pleonazmów typu given data, jako rodzaju zabezpieczenia przed trapiącymi ich wątpliwościami. Samo podkreślanie tego, że dane są dane, nie rozstrzyga przecież zasadniczej kwestii, o której pisaliśmy w pierwszej części rozdziału: czy są to „obiektywne” fakty dane ekonomiście obserwatorowi, czy może osobom, których działanie chce on wyjaśnić? Czy te same zespoły danych są znane wszystkim? Czy fakty składające się na wiedzę poszczególnych jednostek są zależne od percepcji tych osób, a wiec mają charakter subiektywny, czy też nie?

Samo przedstawienie problematyki wiedzy ekonomicznej z takiej perspektywy natychmiast demaskuje absurd idealizacyjnych założeń leżących u podstaw wielu współczesnych teorii ekonomicznych. Należy bowiem podkreślić, że choć nasza krytyka bezpośrednio wymierzona jest w mechanistyczną teorię neoklasyczną, to rykoszetem godzi w główny nurt współczesnej ekonomii. Jak zauważył M. Blaug (1994, s. 589):

Kiedy użalamy się nad formalizmem Walrasa, musimy również pamiętać, że cała prawie dzisiejsza teoria ekonomii jest teorią Walrasowską. Niewątpliwie, współczesne teorie pieniądza, handlu międzynarodowego, zatrudnienia i wzrostu są teoriami równowagi ogólnej w uproszczonej postaci (…) Na całą współczesną teorię mikro- i makroekonomiczną można patrzeć jako na rozmaite sposoby wyposażania analizy równowagi ogólnej w przydatność operacyjną (…).

Jak wspomniano, istnieje bardzo wiele przeszkód, jakie ekonomista musiałby pokonać na drodze do stworzenia takiego modelu rynku, który dawałaby mu możliwość poprawnej ilościowej predykcji zdarzeń (lub takiej jego imitacji, na której planista mógłby oprzeć swój plan). Trudność związana z koniecznością posiadania wiedzy niemożliwej do zdobycia to jedna z nich.

Wiedzy, którą posiłkują się jednostki w procesach rynkowych, nie da się bowiem połączyć w jeden zwarty zbiór. Posługując się terminami „wiedza społeczeństwa” czy „wiedza społeczna”, zawsze należy pamiętać, że mają one znaczenie metaforyczne, tzn. że wiedza, o której mowa, w rzeczywistości nigdy nie występuje w postaci skoncentrowanej, lecz jako fragmenty niepełnych i często sprzecznych ze sobą informacji. Wiedza, którą ekonomiści często przyjmują za daną, jest w istocie rozproszona pomiędzy podmioty gospodarujące, toteż jej agregacja okazuje się niemożliwa. Nie stanowi ona ponadto z góry określonego i zamkniętego zespołu informacji potrzebnych do prowadzenia działalności gospodarczej i podejmowania decyzji ekonomicznych, ale dzięki konkurencji jest ona dopiero odkrywana i przyswajana w trakcie procesu gospodarczego przez poszczególne jednostki (Hayek 2002a). Nie chodzi więc jedynie o absurdalny wymóg zgromadzenia niewyobrażalnie wielkiego zasobu wiedzy w pojedynczych umysłach. Zauważmy, że lepsze rozwiązania techniczne często powstają jako rezultat zetknięcia się przedsiębiorcy z nowymi okolicznościami, których nie da się określić z góry. Zatem uwzględnienie wiedzy technicznej i jej rozwoju przez neoklasycznego ekonomistę nie sprowadza się tylko do kwestii jej zgromadzenia, przyswojenia i zmaterializowania w postaci równań i parametrów modelu. Musiałby on być zdolny do samodzielnego odkrywania wiedzy tego rodzaju (ewentualnie zainstalować w swoim modelu jakiś cudowny mechanizm jej odkrywania).

Tradycja intelektualna w filozofii i nauce dominująca w XVIII i XIX wieku znalazła swój wyraz między innymi w głębokiej i niepodważalnej wierze w naukę i racjonalny umysł. Nawet ci spośród badaczy społecznych, którzy dostrzegali problem wiedzy, przywiązywali wagę jedynie do wiedzy naukowej lub technicznej wiedzy ekspertów oraz – co stanowiło tego konsekwencję – do skutków jej posiadania bądź braku. Zaledwie pół wieku temu Hayek poczynił następujące spostrzeżenie: „w dzisiejszych czasach sugestia, że wiedza naukowa nie jest sumą wszelkiej wiedzy, brzmi niemal jak herezja” (Hayek 1998, s. 92).

W chwili gdy Austriak pisał te słowa, wybitny węgierski uczony i filozof Michael Polanyi wnikliwie analizował przyczyny oraz konsekwencje tego, że poza wieloma innymi swoimi ograniczeniami nasz umysł funkcjonuje w sposób, który wyklucza możliwość zamiany w słowa, w tekst czy w jakąkolwiek inną wyartykułowaną formę większości posiadanej przez nas wiedzy. Jak twierdził Polanyi, „całkowicie wyartykułowana wiedza jest nie do pomyślenia” (1969, s. 144), co w innym miejscu wyraził w słowach: we can know more than we can tell (Polanyi 1983, s. 4).

Co więcej, wiedza ukryta (tacit knowledge) ma charakter podstawowy w stosunku do wiedzy zwerbalizowanej. Zarówno z punktu widzenia genezy wiedzy, jak i jej funkcjonowania, wiedza zwerbalizowana jest uzależniona od reguł, które są znane określonemu podmiotowi działania w formie czynnościowej, a reguły te nie muszą lub nie mogą być ujęte w formie pojęciowej. Znaczna część naszej wiedzy pozostaje zatem z konieczności subiektywna i nieuświadomiona (np. Polanyi 1969, s. 144). To oczywiste, że ekonomista lub planista nie może jej w żaden sposób wykorzystać.

W naturze człowieka leży chęć odkrywania prawidłowości otaczającego go świata oraz – co prawdopodobnie się z tym łączy – instynktowna obawa przed tym, co nieznane i nieprzewidywalne. Chociaż starożytne mitologiczne kosmologie często wywodziły świat z chaosu, to on sam był już opisywany jako stabilny i przewidywalny, zaprojektowany z rozmysłem i celowo. Przez tysiąclecia panował pogląd, że świat funkcjonuje według pewnych ścisłych, deterministycznych reguł, a zadaniem nauki winno być ich odkrywanie. W niektórych epokach lęk przed nieznanym okazywał się tak silny (albo pycha tak wielka), że naukowcy i filozofowie zamiast odkrywać owe prawa, często je „wynajdywali” (na przykład: doskonały i niezmienny Platoński świat idei, dogmat koła i ruchu jednostajnego, antropomorfizm, wiara w opatrzność i przeznaczenie czy nieubłagane prawa historycznego rozwoju oraz wiele innych).

Świat po rewolucji naukowej był pod tym względem miejscem bardzo atrakcyjnym: pozwalał intelektualistom zapomnieć o niepewności i nakarmić pychę rozumu. We wszechświecie poddanym prawom Newtona nie ma miejsca na czysty przypadek. Laplace twierdził z pełnym przekonaniem, że gdyby doskonałemu rachmistrzowi dostarczyć dane określające położenie wszystkich cząstek uniwersum, to – wykorzystując sformułowane przez Newtona prawa ruchu i ciążenia – mógłby bezbłędnie przewidzieć przyszłość świata oraz poznać jego przeszłość:

rozpatrzmy inteligencję, która znałaby, w danej chwili, wszystkie działające w przyrodzie siły i wzajemne położenie wszystkich elementów przyrody (…) i wystarczająco rozległą, aby te dane poddać analizie. (…) Dla takiej inteligencji nic nie byłoby nieznane, przyszłość, podobnie jak przeszłość, jawiłaby się jej oczom (…) Odkrycia [ludzkiego umysłu] w mechanice i geometrii, w połączeniu z odkryciem prawa powszechnego ciążenia, umożliwiły mu poznanie w takich samych kategoriach analitycznych przeszłych i przyszłych stanów świata (Laplace 1995, s. 2).

Wprawdzie Laplace dodał, iż osiągnięcie takiego absolutu jest niemożliwe, ale równocześnie przekonywał, że podejmowane przez człowieka wysiłki poznawcze (w obrębie systemu mechaniki) wiodą go konsekwentnie ku opisanej przez niego „inteligencji” (Laplace 1995, s. 2, 3 i passim)23.

Owego rachmistrza czy też „inteligencję” – hipotetyczną postać posiadająca doskonałą wiedzę – nazwano później „demonem Laplace’a” oraz uczyniono zeń symbol filozofii fatalizmu i determinizmu. Świat widziany przez pryzmat neoklasycznej teorii ekonomii podobny jest do deterministycznego świata Newtonowskiego, a zamieszkujący go ludzie – dysponując całą „doskonałą” wiedzą – przypominają demony Laplace’a. O ile jednak fizyczna doktryna Newtona–Laplace’a dowiodła swej ogromnej użyteczności w praktyce, to jej ekonomiczny odpowiednik jest po prostu zbiorem formalizmów pozbawionych głębszej treści i przydatności do opisu rzeczywistości gospodarczej.

Nawet pobieżny przegląd XX-wiecznej literatury ekonomicznej pokazuje, że w pierwszej połowie stulecia nastąpiła wyraźna – choć, jak uważamy, niewiele wnosząca do naszego rozumienia rynku – zmiana w badawczej perspektywie głównego nurtu. Część ekonomistów podjęła wysiłek teoretycznego ujęcia niepewności i ignorancji, które towarzyszą gospodarczej aktywności człowieka. Zapoczątkowane wówczas próby trwają do dziś.

Zmianę tę możemy wytłumaczyć, wskazując na zjawisko, które opisaliśmy w pierwszej części artykułu: znowu chodzi o wpływ, jaki nauki przyrodnicze wywierają na kształt i charakter nauk społecznych.

Na początku XX wieku fizykę dotknął kryzys. Fizycy coraz śmielej zaczęli naruszać fundament swojej nauki – system mechaniki. Już pod koniec XIX wieku mnożyły się odkrycia, z którymi nie umiano sobie poradzić za pomocą koncepcji klasycznych. Wobec zaskakujących wyników doświadczeń i eksperymentów zaczęto podważać podstawy teoretyczne oraz metodologiczne, na jakich dotychczas opierała się nowożytna fizyka. Mamy tu przede wszystkim na myśli tezy Bohra o indeterminizmie w przyrodzie mikrofizycznej (atomowej), a także epistemologiczne rozważania Heisenberga (zasada nieoznaczoności), które, jak twierdzą niektórzy, były zdecydowanie sprzeczne z wizją Laplace’a24 (por. Jakubowski 1997, s. 123–125; Tatarkiewicz 2009, t. 3, rozdz. Zagadnienia filozoficzne w fizyce, s. 271–280). Do fizyki włączono rachunek prawdopodobieństwa i procesy stochastyczne, a za jej przykładem podobnie działo się w ekonomii.

Różnice pomiędzy deterministycznym modelem neoklasycznym a „niedeterministycznym” modelem współczesnym sprowadzają się zazwyczaj do tego, że w tych pierwszych zależności pomiędzy zmiennymi objaśniającymi i objaśnianymi są stałe i zdeterminowane funkcyjnie, natomiast te drugie dopuszczają zmiany (parametrów lub formuły funkcyjnej) i zawierają składniki losowe. Przykładowo, w modelach makroekonomicznych takie zmienne jak zasób pieniądza, wielkości dochodu, stóp procentowych czy poziom cen często określane są przez błądzenie losowe ze stałym dryfem (Frydman, Goldberg 2008, s. 31).

Ponieważ jednak, za przykładem fizyki, od „prawdziwych” i w pełni „naukowych” modeli wymaga się, żeby dostarczały ścisłych prognoz ilościowych, najlepiej takich, które nadają się do weryfikacji na podstawie kryteriów statystycznych, to modele te – jeśli chodzi o uwzględnienie w nich ignorancji i niepewności – tylko pozornie różnią się od swoich neoklasycznych odpowiedników.