Na marginesie - Władysław Marek Turski - ebook

Na marginesie ebook

Władysław Marek Turski

0,0

Opis

Zbiór miniesejów pisanych od końca lat dziewięćdziesiątych dla periodyków „Wiedza i Życie” oraz „Teleinfo”. W wydaniu zwartym nabierają dodatkowej mocy i pokazują szerokie horyzonty intelektualne ich autora, jednego z pionierów polskiej informatyki.

Ebooka przeczytasz w aplikacjach Legimi na:

Androidzie
iOS
czytnikach certyfikowanych
przez Legimi
czytnikach Kindle™
(dla wybranych pakietów)
Windows
10
Windows
Phone

Liczba stron: 615

Odsłuch ebooka (TTS) dostepny w abonamencie „ebooki+audiobooki bez limitu” w aplikacjach Legimi na:

Androidzie
iOS
Oceny
0,0
0
0
0
0
0
Więcej informacji
Więcej informacji
Legimi nie weryfikuje, czy opinie pochodzą od konsumentów, którzy nabyli lub czytali/słuchali daną pozycję, ale usuwa fałszywe opinie, jeśli je wykryje.



O Autorze i Jego felietonach, czyli dlaczego należy niniejszą książkę kupić

Kiedy w lipcu 1979 roku zdałem pomyślnie egzamin wstępny w Instytucie Informatyki Uniwersytetu Jagiellońskiego i pytałem moich starszych kolegów z samorządu studenckiego o podręczniki, w które powinienem się zaopatrzyć (a właściwie – w tamtych czasach: „zdobyć”), usłyszałem: „Przede wszystkim musisz mieć »Turskiego«”. Chodziło, oczywiście, o słynny podręcznik profesora Władysława Marka Turskiego „Propedeutyka informatyki”, na którym „wychowały się” tysiące absolwentów kierunku informatyka. Celowo nie dodałem na końcu poprzedniego zdania „w naszym kraju”, gdyż książka ta, będąca w Polsce od 1975 roku (tj. od roku jej wydania) czymś w rodzaju „biblii informatyka”, została po kilku latach przetłumaczona na język angielski i wydana przez prestiżowe międzynarodowe wydawnictwo naukowe Elsevier Science pod tytułem „Informatics – a propaedeutic view”, stając się jednym z najlepszych podstawowych podręczników wprowadzających do informatyki dla studentów na całym świecie.

Czytelnik pozwoli, że do przedstawienia dorobku naukowego, zawodowego i artystycznego (tak, tak) Profesora jeszcze wrócę… Teraz chciałbym napisać słów kilka o Jego dorobku piśmienniczym, bo z takim mamy do czynienia w przypadku niniejszej książki. Otóż od połowy lat dziewięćdziesiątych ubiegłego wieku aż do niedawna profesor W.M. Turski pisał felietony do jednego z najstarszych czasopism popularnonaukowych – „Wiedza i Życie” (wydawanego od 1910 roku) jako X. Rut, a także do znanego tygodnika informatycznego – „TeleInfo”. I właśnie ze względu na ten fakt (poza chęcią odwdzięczenia się Profesorowi za wprowadzenie mnie do obszaru informatyki za pomocą wyżej wspomnianej książki) ośmieliłem się napisać ten wstęp. Po prostu felieton jest moim ulubionym gatunkiem literacko-publicystycznym, a na ukazanie się kolejnego felietonu Profesora zawsze czekałem z niecierpliwością.

Felieton jest, jak powszechnie wiadomo (ale na wszelki wypadek przypomnę), krótką wypowiedzią wyrażającą w lekkiej formie osobiste poglądy autora. Moim zdaniem (nie jestem literaturoznawcą, ale informatykiem i dlatego użyję takiej ostrożnej formy) dobry felieton:

 powinien czytelnika czegoś nauczyć (rola edukacyjna), wywoływać (najlepiej: silne) emocje u czytelnika („Co on wypisuje za bzdury?” albo „Całkowicie zgadzam się. Święta prawda!”), (pomimo poprzedniego punktu: tam było o emocjach, teraz – o rozumie) pozostawić czytelnika w stanie „rozdwojenia intelektualnego” („No, może nie całkiem bzdury, może on ma trochę racji…” albo „W zasadzie święta prawda, ale właściwie to nie do końca zgodziłbym się z tą tezą…”).

A dobry felietonista to – znowu moim zdaniem – taki, który pisze dobre felietony (definicja – jak wyżej) oraz dodatkowo:

 jest osobą „wyrazistą” (i jeszcze lepiej: nieco złośliwą), ale z drugiej strony: nie jest ortodoksem (a ortodoksem jest wtedy, gdy „W każdej sprawie się z nim zgadzam” albo „W żadnej sprawie się z nim nie zgadzam”).

Właśnie z wyżej wymienionych powodów profesor W.M. Turski jest moim ulubionym felietonistą, obok takich Jego „kolegów po piórze”, jak przykładowo: Stefan Kisielewski (Kisiel), Jerzy Pilch, Maciej Rybiński czy też Ludwik Stomma (kolejność alfabetyczna – tak na wszelki wypadek). W moim przypadku lektura felietonów wymienionych publicystów łączy przyjemne z pożytecznym. (A przepraszam, zapomniałem o Janie Kaczmarku i Wojciechu Młynarskim, ale oni należą do innej kategorii – „felietonistów śpiewających”.)

A teraz – o czym profesor W.M. Turski pisał w swoich felietonach. Przede wszystkim, Profesor wcale nie ograniczał się do problemów informatyki (chociaż o niej oczywiście też pisał). Czytelnikowi felietonów ich Autor jawi się jako humanista zatroskany o zagrożony w dzisiejszych czasach świat wartości oraz osoba, której również „leżą na wątrobie” sprawy naszego kraju. Jeśli chodzi o zagadnienia uniwersalne, mamy zatem w niniejszym zbiorze przykładowo felietony: o krzywdzie, jaką można zrobić drugiemu człowiekowi, wtłaczając go w stereotyp („Winietka brazylijska”), o wszechogarniającym bełkocie w mediach i propagowaniu w tychże niezweryfikowanych naukowo, bezsensownych pseudo-teorii („Pan Szczęsny krytykuje prasę popularnonaukową”), o tzw. prawie naturalnym („Czy na pewno o to chodzi?”), o tym, że naukowcy, jeśli wypowiadają się na tematy spoza ich dyscypliny, to najczęściej plotą bzdury („O sztuce mówienia »nie wiem«”), o hipokryzji białych ekologów, broniących środowiska naturalnego przed „kolorowymi” tubylcami („Dymy nad Kalimantem”), o (bez)sensowności walki z używkami i nadużywaniu statystyki do tego celu („W celach leczniczych”). Jak widać, tematyka i szeroka, i – co ważniejsze – interesująca. W zakresie „zagadnień krajowych” Profesor również porusza tematy, które zwykle podnoszą temperaturę spotkań rodzinnych i towarzyskich. A zatem znajdziemy tutaj przykładowo felietony: o subkulturze kibolskiej („Palant”), o mamieniu młodych ludzi perspektywą zdobycia wyższego wykształcenie przez pewne uczelnie, które nie mają niczego wartościowego do zaoferowania („Czym skorupka”), o obowiązkowej matematyce na egzaminie maturalnym („Ucz się, chłopcze, matematyki”), o absurdach tzw. medycyny pracy („Ze starego słownika”), o żądaniu przez różne instytucje administracji państwowej wielokrotnego podawania przez obywateli mnóstwa szczegółowych danych („Czytelny podpis”), o absurdach polskiego wymiaru sprawiedliwości („Z góry czy od dołu”)… Naprawdę, radzę przeczytać te i inne „krajowe” felietony – będzie jak znalazł, żeby sprowokować ciocię Euzebię na obiadku rodzinnym. Oczywiście jako informatyk Profesor napisał również sporo felietonów o informatyce i jej roli w naszym życiu. Ale żeby przystąpić do ich lektury, nie trzeba mieć doktoratu z informatyki (ani nawet magisterium). W dzisiejszych czasach prawie każdy ma codziennie kontakt w domu oraz/lub w pracy z systemami informatycznymi, z ich nabywaniem, z ich wdrażaniem itd. Dlatego przeczytanie tych felietonów będzie interesujące też dla nieinformatyków, którzy w dodatku dowiedzą się czegoś nowego o problemach związanych z informatyzacją. A poza tym edukacyjnym walorem Czytelnik niejednokrotnie zostanie rozbawiony do łez, gdyż ich Autor jest człowiekiem o pierwszorzędnym poczuciu humoru.

Na koniec wróćmy – zgodnie z obietnicą – do osoby samego Autora. Profesor W.M. Turski to człowiek renesansowy, co jest (niestety) absolutną rzadkością w dzisiejszych czasach. Przede wszystkim z pewnością jest wybitnym uczonym o prestiżu międzynarodowym (napisałem: z pewnością, gdyż tym razem opinię tę wyrażam jako profesor zwyczajny w zakresie informatyki Uniwersytetu Jagiellońskiego). Oprócz wspomnianej na wstępie „biblii informatycznej” jest autorem znakomitych monografii naukowych, takich jak „Metodologia programowania” (wydana też w języku angielskim przez renomowane wydawnictwo Heyden pod tytułem „Computer Programming Methodology” czy też opublikowana przez Adison-Wesley monografia „The Specification of Computer Programs” (wspólnie z T.S.E. Maibaumem). Jego artykuły naukowe ukazywały się w najlepszych międzynarodowych czasopismach, że wspomnę jedynie tak prestiżowe, jak: „Theoretical Computer Science”, „The Computer Journal”, „IEEE Transactions on Software Engineering”, „Communications of ACM”, „Information Processing Letters”. W uznaniu dla jego dorobku naukowego został przyjęty w poczet członków m.in. Brytyjskiego Towarzystwa Informatycznego (British Computer Society) oraz (brytyjskiej) Królewskiej Akademii Inżynierii (Royal Academy of Engineering). Natomiast rodzime środowisko naukowe Profesora, czyli Uniwersytet Warszawski, uhonorowało Go powierzeniem funkcji Dziekana Wydziału Matematyki, Mechaniki i Informatyki UW w 1996 roku.

Działalność zawodowa profesora W.M. Turskiego nie ograniczała się nigdy do badań teoretycznych w ramach pracy naukowej (m.in. brał udział w opracowaniu systemu operacyjnego SODA do ostatniego polskiego komputera Odra 1204). Nie do przecenienia jest Jego działalność opiniotwórcza jako pierwszego prezesa Polskiego Towarzystwa Informatycznego (przez dwie kadencje), w tym wpływ na kształtowanie polityki państwa w obszarze informatyki. Jako wyraz uznania dla tej części dorobku zawodowego, w 2004 roku Profesor otrzymał w Wielkiej Brytanii tytuł Certyfikowanego Profesjonalisty IT (Chartered Information Technology Professional) i tym samym został wpisany do państwowego (brytyjskiego) rejestru informatyków profesjonalistów.

I jeszcze zapowiedziana wzmianka o dorobku artystycznym Profesora. W 1972 roku zagrał w filmie „Iluminacja” w reżyserii Krzysztofa Zanussiego… Profesor W.M. Turski jest – w rzeczy samej – postacią renesansową, a felietony zebrane w niniejszym zbiorze są najlepszym wyrazem Jego niesłychanej wprost erudycji. Dlatego też, gorąco zachęcam do ich lektury. A ponieważ niniejsza książka została wydana z okazji siedemdziesiątych piątych urodzin Profesora, zatem Dostojnemu Jubilatowi życzmy: „11001002 lat! 11001002 lat! Niech żyje, żyje nam!”.

Kraków, 18 lutego 2013 roku

Mariusz Flasiński

Wstęp

Wielu z nas, jeśli nie wszyscy, po pewnym czasie pracy w zawodzie zaczyna mieć spostrzeżenia ogólniejsze niż bezpośrednio dotyczące wykonywanych zadań. Na swoją pracę i jej środowisko zaczyna się patrzeć niejako z zewnątrz; formuje się, by użyć neologizmu, metapogląd na uprawianą działalność. Po głowie zaczynają krążyć różne pytania: Czy to, co robię, jest dobre? Czy panujące zwyczaje są racjonalne? Czy nasze dążenia mają sens? Czy wiemy, czym się to wszystko skończy? Czy rutyna, której nabraliśmy, jest aż tak cenna, jak się na pierwszy rzut oka wydaje? Czy nie powinno się zaczynać „z innego końca”?

Dzięki gościnności miesięcznika „Wiedza i Życie” (gdzie posługiwałem się pseudonimem „X. Rut”) i dwutygodnika „TeleInfo” (pod własnym nazwiskiem) przez kilka lat miałem okazję publicznie prezentować część moich metapoglądów na informatykę i jej środowisko. W niniejszej książeczce zebrano publikowane tam felietony. Niektóre (mniejszość) wywołane były konkretnymi zdarzeniami, inne dotyczą, że tak powiem, klimatu otaczającego naszą profesję i poglądów na jej stan i rozwój, wygłaszanych mniej czy bardziej publicznie. Poza kilkoma felietony nie dotyczą konkretnych osób, a i w tych kilku bardziej personalnych ich bohaterowie pozostają anonimowi, choć może – jeśli przypadkiem będą czytać ten zbiorek – sami odnajdą się na jego kartach.

Zbiór przedruków uzupełniają dwie krótkie opowieści o ciekawych zdarzeniach, które mi się przytrafiły i które z informatyką są związane o tyle tylko, że miały miejsce przy okazji moich czynności zawodowych. Zamieściłem je tutaj ponieważ, bardzo wyraźnie przeczą obiegowym „prawdom”, a kontestacja takich poglądów zawsze była mi bardzo bliska.

Życzę przyjemnej lektury!

WMT

Lubimy się oszukiwać

marzec 1996

W haśle Taxation, „Encyclopaedia Britannica”, wyd. 7 (1830–1842), J.R. McCulloch, pierwszy profesor ekonomii politycznej na Uniwersytecie Londyńskim, napisał: „Trudności w ocenie dochodów są dwojakie: 1) trudności wiarygodnego określenia przychodów poszczególnych osób; 2) jeśli nawet te wielkości są znane, pozostaje trudność nałożenia równego podatku na dochody z różnych form przychodu.

Nie ma powodu zatrzymywać się dłużej nad pierwszą z tych trudności. Dochody z ziemi oddanej w dzierżawę, domów i innych realności można określić z wystarczającą dokładnością, ale nigdy nie było i (ośmielamy się twierdzić) nigdy nie będzie można, nawet w przybliżeniu, określić dochodów rolników, fabrykantów, pośredników i ludzi wolnych zawodów. Na próżno próbuje się przezwyciężyć tę trudność, prowadząc obrzydliwe, indywidualne dochodzenia. Trudno sobie wyobrazić, by nie całkiem zniewoleni ludzie zechcieli tolerować takie dochodzenia, ale czy na nie przystaną, czy nie, wynik będzie taki sam. Dochodzenia okażą się bezwartościowe i inspektorzy podatkowi będą w końcu musieli polegać na deklaracjach podatników. Wobec tego podatek spadnie w pełnym wymiarze na osoby rzetelne, podczas gdy milionerzy wątpliwej uczciwości będą go unikać. Będzie to przeto podatek od uczciwości i nagroda dla oszustów i krzywoprzysięzców. Jeśli podatek taki będzie wystarczająco wysoki, żeby stanowił źródło istotnego dochodu (budżetu państwa – X.R.), doprowadzi on do najoczywistszego sprostytuowania zasad i walnie przyczyni się do zniszczenia poczucia honoru, które jest jedyną pewną podstawą narodowej rzetelności i cnoty”.

Od tego czasu wiele wody upłynęło w Tamizie i w Wiśle, podatek dochodowy płaci się i tam, i tu. Ocenie szanownych czytelników pozostawiam, czy to on właśnie spowodował „sprostytuowanie zasad”. Co do jednego McCulloch nie mylił się na pewno: urzędy skarbowe istotnie wymagają składania deklaracji podatników, w naszym przypadku – osławionych PIT-ów. Ponieważ jednak fiskus nie za bardzo wierzy w powszechną uczciwość, próbuje weryfikować zgodność deklaracji ze stanem rzeczywistym. A przynajmniej stwarza pozory, że próbuje. I tu dochodzimy do tematu niniejszego felietonu: czy technokratycznymi środkami można rozwiązać problem etyczny?

Trudności zdefiniowania podstawy, od której oblicza się podatek dochodowy, występują wszędzie tam, gdzie jest on pobierany. Wynika to z prostego faktu, że jest on niejako przeciwnej natury niż wszystkie inne podatki. Podatki gruntowe, od nieruchomości, od konsumpcji, ba, od luksusu nawet, a także ów niezmiernie skomplikowany podatek od wartości dodanej (VAT), najogólniej powiedziawszy, są podatkami od użytkowania czy zużywania tych lub innych dóbr, które, przynajmniej teoretycznie, mogłyby służyć komuś innemu. Skoro więc to ja te dobra konsumuję czy użytkuję, płacę podatek – opłatę na rzecz społeczności, którą korzystania z tych dóbr pozbawiam. Można też zrozumieć, że im więcej i im cenniejsze jest to, co posiadam czy użytkuję, tym większa jest ta opłata, której, rzecz prosta, nie należy mylić z zapłatą, uiszczaną przy kupowaniu dobra. (Transakcje kupna/sprzedaży można tu traktować jako wymianę jednych dóbr na inne).

Tego – uproszczonego, choć nie karykaturalnie! – uzasadnienia nie da się zastosować do podatku dochodowego, zwłaszcza gdy objęte nim są dochody stanowiące wynagrodzenie za pracę. W tym przecież wypadku to ja dostarczam dóbr, wzbogacam mą pracą społeczność albo konkretnego odbiorcę i za to pobieram wynagrodzenie, stanowiące ekwiwalent mej pracy. Wychodzi na to, że im więcej dóbr swą pracą przysparzam, tym więcej muszę za to zapłacić. Zauważmy, że kiedy otrzymaną za swą pracę zapłatę będę wymieniać na jakieś inne dobra, zapłacę podatek od posiadania (użytkowania, zużywania); podatek dochodowy nie jest przeto opłatą za to, co mam czy konsumuję. Złośliwie powiedziawszy, jest to podatek od owocnego wysiłku: im bardziej ci się bracie udało, tym więcej płać!

Wyjątkowa natura podatku dochodowego zmusza prawodawców do różnych zabiegów, mających osłodzić gorzką prawdę o jego janosikowej proweniencji. Zabiegi te polegają głównie na wprowadzaniu różnych ulg, które – znowu w uproszczeniu, choć nie karykaturalnym! – sprowadzają się do tego, że podatku dochodowego nie pobiera się od tej części dochodów, którą sami oddajemy na rzecz społeczności lub przeznaczamy na pomnażanie dóbr, od których pobiera się inne wysokie podatki.

Im więcej rodzajów ulg, czyli wyjątków, tym bardziej skomplikowany system ewidencji, tym więcej możliwości wybiegów i zwykłych kantów. Co więcej, ponieważ dochody i wydatki zwalniające od podatku nie muszą być zsynchronizowane, a zaliczkę na podatek dochodowy pobiera się przy niektórych tylko wypłatach na rzecz potencjalnych płatników podatku dochodowego, cała ta gmatwanina ma być raz na rok rozliczona przez samego podatnika – w postaci deklaracji (PIT-u) właśnie, a te mają być sprawdzone przez urzędy skarbowe. Teoretycznie, owa kontrola ma wykryć oszustwa i doprowadzić do sprawiedliwego obciążenia obywateli podatkiem dochodowym, przy czym „sprawiedliwy” oznacza tu co najwyżej: „zgodny z bieżącymi przepisami”.

Zauważmy, że takie coroczne, specjalne deklaracje podatkowe są konieczne tylko ze względu na dziwaczną naturę podatku dochodowego (jak przewidywał McCulloch!) – wszelkie inne zeznania podatkowe powstające bezpośrednio przy realnych działaniach gospodarczych (rzadziej przy aktach prawnych), stosunkowo prosto mogą być wkomponowane w normalną dokumentację buchalteryjną i razem z nią, w dowolnym czasie i miejscu prowadzenia tej dokumentacji, rozliczane. Tylko podatek dochodowy – jako dotyczący czegoś, co nie jest realnym zdarzeniem gospodarczym – wiąże się z arbitralnym okresem sprawozdawczym i wywołuje coroczne rozgorączkowanie całego społeczeństwa.

Ogrom pracy związanej z wypełnianiem deklaracji podatkowych, ewidencjonowaniem ich w urzędach skarbowych i wewnętrzną weryfikacją rachunkową każdej deklaracji pochłania mnóstwo pieniędzy. Wysiłek potrzebny do pełnej weryfikacji, porównania deklaracji podatników z wszystkimi doniesieniami o wypłatach dokonanych na ich rzecz, przekracza ramy wyobrażalnego. Rodzi się przemożne pragnienie skomputeryzowania tych czynności, co oczywiście wydatnie zwiększa ich koszt, przynajmniej początkowo, a czasem – jak w przypadku Polski – prowadzi do kompromitacji: po latach działania zagranicznych pomagierów, po poniesieniu ogromnych kosztów, podatkowy system komputerowy nadaje się właściwie do wyrzucenia.

Nie warto wnikać w detale, drzeć szat, przypominać, że wszyscy krajowi specjaliści proszeni o ocenę projektu tego systemu dali negatywną opinię i naturalną koleją losu przestali być proszeni o dalsze opinie. Nawet jeśli taki system zostałby uruchomiony, nie zmieniłoby to faktu, że... przynosi straty. By nie być gołosłownym: wpływy budżetowe z zaliczek na podatek dochodowy są o kilka procent wyższe, niż ostateczna, globalna suma tego podatku! Cały skomplikowany i nader kosztowny proces zbierania i weryfikacji deklaracji podatkowych1 powoduje, że urzędy skarbowe więcej zwracają nadpłat, niż pobierają dopłat. Systematycznie! I nie tylko w Polsce.

Armia pracowników urzędów skarbowych pracuje więc, per saldo, po to tylko, by zwrócić część pobranych już pieniędzy. Z czysto buchalteryjnego punktu widzenia: pracuje na stratę!

Można naturalnie powiedzieć, że praworządność wymaga, by obywatel, który przepłacił podatek, otrzymał zwrot. I jest to zdanie słuszne. Ale nie sposób również odmówić zasadności wątpliwościom: po co tę żabę jemy? Albo inaczej, dlaczego tak się dzieje, że suma zaliczek na podatek dochodowy, statystycznie, zawsze przekracza sumę należności z tego tytułu?

Odpowiedź kryje się w omówionej wyżej perwersyjnej naturze tego podatku, popychającej ustawodawców do tworzenia różnych osłon (w postaci ulg i odpisów), bez których byłby zupełnie nie do zaakceptowania przez żadne społeczeństwo. A to zawsze i wszędzie stwarza rozległe pole do, delikatnie powiedziawszy, różnic interpretacyjnych. Na tym zaś polu, im kto bieglejszego wynajmie interpretatora, tym większe ma szanse uzyskania przychylnych dla siebie rozstrzygnięć. I żadne techniczne ulepszenia, ani komputerowe, ani legislacyjne tu nie pomogą! De facto, podatek dochodowy – podkreślmy to raz jeszcze: ze względu na swój sztuczny charakter – jest wynikiem indywidualnego przetargu, w każdym razie dla tych płatników, którzy mogą i chcą wynająć odpowiednio biegłego doradcę.

Jednolita zasada głosząca, że od każdej wypłaty pobiera się ustalony procent jako podatek na rzecz ogółu, przyniosłaby identyczne wpływy do budżetu państwa, bez konieczności uruchamiania skomplikowanego mechanizmu pozornie pełnej kontroli. Odliczywszy jego koszt (a jest on wcale spory w każdym znanym mi państwie!), nie uszczuplając globalnych wpływów budżetu, można by nawet zmniejszyć stopę podatku od wypłat w stosunku do obowiązującej stopy podatku dochodowego. A jednak próby zastąpienia zawiłych konstrukcji podatku dochodowego prostymi podatkami pogłównymi (każdy obywatel płaci jednakowy podatek na rzecz utrzymania służb, z których każdy obywatel w jednakowym stopniu korzysta), nawet w małej skali budżetów municypalnych, kończą się tragicznie dla polityków, którzy to forsują (vide casus p. Thatcher).

Jeśli więc nie ma powszechnego żądania zamiany sposobu powszechnego opodatkowania, to chyba tylko dlatego, że w obecnej, zagmatwanej sytuacji łatwo jest udawać, że podatek dochodowy jest „sprawiedliwy”, a jeszcze łatwiej odwracać uwagę opinii publicznej od istoty sprawy, zaprzątając ją stałym majsterkowaniem przy stawkach i ulgach. W myśl starej zasady Parkinsona: dyskusja o budowie stojaka na rowery za 50 funtów będzie trwała wiele godzin, uchwałę o milionowej inwestycji podejmuje się z marszu! Nie bez znaczenia jest też udawanie, że – skoro nad rozliczeniem tego podatku trudzi się (albo ma się trudzić) wspaniały, powszechny, superhipersystem komputerowy – wszystko będzie w porządku, uczciwie, bezstronnie i rzetelnie.

Wybierając skrajnie kosztowny system podatku dochodowego i towarzyszące mu ulgi (a także oszustwa), chcąc nie chcąc, akceptujemy zasadę, że im kto zdobędzie się na większy wysiłek i dzięki temu więcej zarobi, tym większą część swego zarobku winien oddać na rzecz społeczności i tego należy skrupulatnie pilnować. A ponieważ – jak w przypadku Szwecji u schyłku długich rządów socjaldemokratów – prowadzi to do oczywistych absurdów i gospodarczej śpiączki, gmatwamy całą sprawę i szukamy rozwiązań w lepszych systemach technicznych i w stałym modyfikowaniu przepisów, co – naturalnie – niczego radykalnie nie polepsza, a tylko zwiększa koszty całej tej „zabawy”.

Czasem wydaje mi się, że hipokryzja nie ma granic!

I w Paryżu...

kwiecień 1996

Dość długo opierałem się przed podłączeniem mego służbowego komputera do poczty elektronicznej. Nie, wcale nie dlatego, że nie byłem świadom jej zalet, z którymi miałem okazję zaznajomić się dość dokładnie przed laty (nad zupełnie inną rzeką), lecz dlatego, że równie dokładnie odczułem jej wady, a także ryzyko, jakie towarzyszy jej stosowaniu w bałaganiarskim środowisku. Opór mój złamał dopiero Szef, człowiek skądinąd sympatyczny i inteligentny, ale wybitnie podatny na wszelkiego rodzaju reklamę, zwłaszcza zaś na reklamę nowinek technicznych. Otóż Szef postanowił, że w celu usprawnienia administrowania naszą Instytucją, wszelkie zarządzenia, komunikaty i inne informacje będą rozsyłane drogą elektroniczną. Ponieważ w tak obszernej kategorii trafiały się czasem wiadomości ważne (np. o dniach i godzinach otwarcia kasy czy bufetu pracowniczego), nie było rady, zgodziłem się na przyłączenie i otrzymałem adres. Jako że do „wymogów nowoczesności” należy też rozgłaszanie spisu pracowników i ich adresów elektronicznych, mój rozpełznął się po świecie i nie było już rady, podjąłem sieciowe życie.

Nawiasem mówiąc, po krótkim okresie entuzjazmu i zalewu komunikatami Dyrekcji, tudzież wszelkich innych Organów naszej Instytucji, potok wewnętrznych informacji, nie żeby całkowicie wysechł, nie, ale zmienił się w coś na kształt tych rzek pustynnych, które przez 51 tygodni są ledwie widocznymi konturami w piachu, a przez całą resztę roku kipią spienionym nurtem. W odróżnieniu jednak od rzek pustyni potok wewnętrznych informacji w naszej Instytucji jest zupełnie nieprzewidywalny, nawet co do pory roku. Ponadto, o ile przed wielką elektronizacją można było choć czasem znaleźć potrzebną wiadomość w archiwum u Pani Ziuty w Sekretariacie, obecnie stało się to praktycznie niemożliwe: archiwum też zelektronizowano (naturalnie w celu ułatwienia bezpośredniego dostępu 24 godziny na dobę), tyle że zasady jego organizacji, oprogramowanie pomocnicze i fizyczna lokalizacja (niestety, mamy dużo serwerów) są ciągle usprawniane, czyli nigdy nie wiadomo, jakich zaklęć należy dziś właśnie użyć, by otworzyć właściwą przegródkę Sezamu. Komunikaty w tej sprawie – jeśli w ogóle przychodzą – zazwyczaj „idą” dłużej niż do USA, bo więcej razy muszą być sortowane, obojętnie – ręcznie czy mechanicznie. Obydwa te mechanizmy mają podobne skale czasowe, wykalibrowane w dniach, wobec czego zdarzało się, że odpowiedź od flegmatycznego korespondenta z Berna dostawałem po tym samym czasie co od krewkiego korespondenta z Fidżi. Ponieważ czas transmisji listu elektronicznego mierzony w skali czasów reakcji ludzi jest praktycznie stały (zerowy!), nigdy nie maskuje on rozrzutu osobniczego. Uczestnicy elektronicznej wymiany korespondencji są znacznie bardziej odsłonięci – braków cywilizacyjnych nie da się już ukryć za wyświechtanym frazesem o źle funkcjonującej poczcie!

Przy całym podobieństwie do swej tradycyjnej protoplastki, poczta elektroniczna ma inny klimat (McLuhan powiedziałby pewnie, że ma inną temperaturę). Myślę, że takie różnice są znacznie większe i występują częściej, niż to się wydaje entuzjastom zastępowania tradycyjnych form współżycia ich informatycznymi odpowiednikami.

Słuchałem kiedyś, jak autorzy bardzo pomysłowego multimedialnego programu dydaktycznego z dziedziny chirurgii zachwalali jego realizm; istotnie był on imponujący. W konkluzji przytoczyli porównanie kosztów: o ile taniej można ćwiczyć przyszłego chirurga, oferując mu szanse wielokrotnego wykonywania zabiegu w ich doskonałym symulatorze niż aranżować ćwiczenia na żywych obiektach. Mnie zaś bez przerwy przypominały się gry komputerowe, ćwiczące zdolność walki z realistycznie fantastycznymi przeciwnikami, których autorzy udostępniają graczom kilka „odżyć” po naciśnięciu odpowiedniego klawisza i nadal pozwalają toczyć krwawy bój. A nawet jak gracz wyczerpie cały zapas „żyć”, to i tak nie przegra zupełnie do końca, przecież zawsze można grę powtórzyć. Myślę, że oparte na takiej zasadzie symulatory są znakomite w szkoleniu nowoczesnych wojaków. Bój wygląda bardzo podobnie: ekran, klawisze, migocące obrazki. A przeświadczenie, że zawsze można zacząć grę od nowa, pozwala uniknąć poczucia strachu. Cóż zaś może być lepszego, niż wojak nieustraszony! Ale wolałbym, jeśli do tego musi dojść, by operujący mnie chirurg nie miał przeświadczenia, iż z pomyłki zawsze może się wycofać albo „przegraną” operację powtórzyć tyle razy, ile zechce – mnie przy tym może nie być już po pierwszej pomyłce.

Nie bez pewnego rozbawienia obserwuję tworzące się elektroniczne kluby dyskusyjne, zawiązujące się elektroniczne „przyjaźnie”, słyszę i czytam o tym, jak sieć elektroniczna niweluje odległości, umożliwia globalną więź między ludźmi. Być może komuś współżycie sieciowe rzeczywiście sprawia przyjemność. Ale możliwość bezkolizyjnego wycofania się z wszystkich takich relacji zupełnie bezbolesnym naciśnięciem jednego guziczka odbiera poczucie odpowiedzialności, stanowiące dotychczas nieodłączną (choć nie zawsze dominującą) cechę stosunków międzyludzkich. Zastanawiam się, czy w miarę tego, jak coraz większa część naszych wzajemnych relacji będzie opośrodkowana bezfrasobliwą techniką zapożyczoną z gier komputerowych, nie będzie postępować projekcja takiego braku odpowiedzialności na całość stosunków międzyludzkich. A w życiu nie wszystko, co akurat źle idzie, można zacząć od nowa, nie z wszystkich konfliktów można się wycofać, wyciągając wtyczkę z kontaktu.

Chociaż, niestety, niektórym tak się chyba wydaje!

PS. Tytuł tego felietonu jest pierwszą częścią przysłowia: „I w Paryżu nie zrobią z owsa ryżu”. Czy przystaje on do treści, pozostawiam osądowi PT Czytelników.

Pięta Achillesa

lipiec 1996

Nereida Tetyda, trzymając niemowlę za piętę, zanurzyła je w wodach Styksu. Odtąd całe ciało jej syna Achillesa było niewrażliwe na ciosy, pchnięcia i strzały. Całe – z wyjątkiem pięty. Strzała Parysa (zatruta?), która położyła kres życiu młodego zawadiaki pod murami Troi, musiała go ugodzić właśnie w piętę. A przecież Achilles, ruszając do boju, wdziewał wspaniały pancerz, dźwigał sławetną tarczę. I to nie tylko dla ozdoby, bo gdy, dąsając się na Agamemnona, odmówił udziału w bojach, Patroklos w pożyczonej odeń zbroi długo bezkarnie gromił Trojan. A kiedy Hektor zdarł ją ze zwłok powalonego w końcu Patroklosa, Tetyda zaraz przyniosła synowi jeszcze piękniejszą zbroję i nową tarczę, błyszczącą jak Księżyc.

Homer pięknie opisuje zbroje i tarcze Achillesa. Nic jednak nie zmieni faktu, że dla właściciela były one całkowicie bezużyteczne i kto jak kto, ale świetnie zorientowana we wszelkich olimpijskich niuansach intrygantka Tetyda musiała sobie z tego doskonale zdawać sprawę. Chyba że pięta i zbroje Achillesa należą do różnych mitów i w Iliadzie tylko przypadkiem znalazły się razem.

W życiu też tak bywa, że los łączy różne mity w jedną całość, która od razu staje się absurdalna, nawet jeśli jej składowe – każda oddzielnie – wcale nie są głupie. Przykładem może być to, co się w Polsce dzieje wkoło Internetu, a co wylało się na łamy prasy codziennej i nawet do Sejmu dotarło jako spór o taryfy. Piszę ten felieton, zanim ów spór znalazł ostateczne rozwiązanie, nie bardzo się jednak o to martwię, gdyż bez usunięcia przyczyn każde „ostateczne” rozwiązanie będzie nader krótkotrwałe.

Tak się złożyło, że główne dramatis personae, jawni i mniej jawni uczestnicy wielkiego polskiego skandalu internetowego, mają nie tylko bardzo różne współczynniki B, ale i bardzo odmienne cele. Gra toczy się nie tylko znaczonymi kartami, lecz także, choć na jednym stole, jedni grają w brydża, drudzy w pokera, trzeci próbują grać w madżonga, a wszyscy co pewien czas grają z publicznością w durnia.

Gdy przed trzydziestu laty powstawały pierwsze sieci komputerowe, ich tworzenie było problemem badawczym, wymagało pewnych kwalifikacji naukowych i mnóstwa inżynierskiej smykałki. (Ta ostatnia zresztą przeważyła, jej to zawdzięczamy uroczy chaos nałożenia wielu znakomitych pomysłów jeden na drugi „jak leci” tylko dlatego, że się dało!). Kiedy w nowych warunkach politycznych stało się możliwe założenie w Polsce poważnej sieci łączności wolnej od stałej, troskliwej opieki służb specjalnych, jej organizację powierzono uczonym, głównie dlatego, że w ich środowisku najwięcej było osób obeznanych z użytkowaniem sieci komputerowych i rozsmakowanych w ich (niektórych) usługach. Wielu bowiem polskich naukowców w licznych peregrynacjach do uczelni Zachodu zetknęło się z sieciami i nauczyło z nich korzystać. Z tego środowiska podniosły się liczne i natarczywe wołania o sieć i – o dziwo! – okazały się skuteczne.

Ale na obecnym etapie rozwoju sieci komputerowych poglądy akademickich użytkowników mają się do istoty sprawy tak mniej więcej, jak poglądy teologów miały się do istoty druku w XV wieku, choć przecież Gutenberg zaczął od druku Biblii. Zacnych akademików nadal głównie interesuje przyswajalna treść tego, do czego za pomocą sieci można dotrzeć i co z ich własnych prac można przez sieć udostępnić innym uczonym. W gigabajtach na miesiąc nie jest tego wiele, ponieważ ograniczeniem jest chłonność intelektu uczonego, bardzo wysubtelnionego długimi studiami i ograniczonego aktualną tematyką uprawianych badań. Nawet po zsumowaniu zapotrzebowania kilku dziesiątków takich wąskopasmowych konsumentów nie powstanie szeroki potok informacji. Jednakże uczony – dlatego właśnie że jest uczonym, im lepszym, tym bardziej to ewidentne – nie uznaje McLuhanowskiego medium is the message, popularnego w dobie popkultury utożsamienia treści z komunikatem, nie rozumie, że masowy klient sieci pobiera i nadaje megabajty tylko dlatego, żeby je pobierać i nadawać.

Akademickie podejście do tego, po co jest sieć, ma wszystkie zalety racjonalności z wyjątkiem jednej: jest całkowicie sprzeczne z realiami świata, w którym żyjemy. Świata, w którym sprzęty gospodarstwa domowego, aparaturę telewizyjno-fonograficzną i samochody wyposaża się w dziesiątki gadżetów, którymi nikt nie posługuje się inaczej, jak tylko po to, żeby zobaczyć, jak one działają, a potem móc opowiadać: „a mój X może igrekować na siedem sposobów”. Świata, w którym wielkim powodzeniem cieszą się kolorowe czasopisma pozbawione treści i filmy składające się wyłącznie z efektów specjalnych. Wolno, czy może nawet trzeba, aby uczeni zachowali tak olimpijską postawę. Nie ma jednak większego sensu udawanie, że to ona wyznacza światową tendencję rozwoju sieci.

Sieci komputerowe stają się dominującym konsumentem potencjału sieci łączności. Ba, w wielu miejscach na świecie wszystkie nowe inwestycje telekomunikacyjne są projektowane z myślą o sieciach komputerowych, bo zapotrzebowanie innych rodzajów konsumentów jest już całkowicie zaspokojone, i to z taką nawiązką, że na przyszłe dziesięciolecia wystarczy. Jedyna droga ekspansji dla koncernów telekomunikacyjnych to teleinformatyka, jedyna obawa – że instalowany potencjał okaże się za duży, że zabraknie megabajtów, aby zapełnić łącza. Nie trzeba być geniuszem, żeby zobaczyć, jak interesy koncernów łącznościowych idą w parze z popularnym wzorcem korzystania z sieci komputerowej. Na rynku obfitości potencjału telekomunikacji działa silna konkurencja dostawców połączeń. Można zapewne też powiedzieć, że to konkurencja rodzi tę obfitość. Na takim rynku dla dostawcy liczy się to, by klient kupił czy wydzierżawił kanał, trasę, łącze. Co i ile będzie tym transmitował, nie ma znaczenia, jako że mamy do czynienia z obfitością, a nawet sporym zapasem potencjału łączności.

Polski rynek telekomunikacyjny bardzo odbiega od takiego obrazu. Zainstalowany potencjał łączności nie wystarcza jeszcze (i co najmniej przez najbliższe dziesięciolecie nie będzie wystarczał) na zaspokojenie najbardziej elementarnych potrzeb, na zapewnienie usług opłacanych od sztuki. Nawet przy braku monopolu dyktowałoby to politykę branży odmienną od dominującej w krajach obfitości telekomunikacyjnej.

Wobec panującego monopolu i kuszącej perspektywy przekształcenia publicznych inwestycji w prywatną własność zupełnie konkretnych osób (najlegalniej, przez akcje pracownicze oraz przywileje zakupowe zarządów) strategia taryfowa telekomunikacji jest oczywista: jak najszybsza i jak największa akumulacja, czyli jak najwyższe opłaty jednostkowe dla użytkowników końcowych, zmuszanych w ten sposób do finansowania inwestycji, do których nie nabywają żadnych praw, a które potem zostaną równo podzielone między akcjonariuszy, choć nie wszyscy nabywcy kupią je po tej samej cenie.

Zbieżność ideologii taryfowej uczonych zarządców polskiego Internetu i wyrachowanych beneficjentów monopolu telekomunikacyjnego ma zapewne odmienne podłoża; niestety, skutek ten sam! Całości obrazu dopełnia brak rodzimych komercyjnych dostawców informacji masowej w sieci. Nieobecni nie mają głosu. Zastępujący ich głos konsumentów masowej informacji brzmi cicho i zbyt łatwo daje się zlekceważyć. Wystarczy pomówić ich o to, że za małe pieniądze chcą oglądać pornograficzne obrazki. Wtedy do głosu wojowników o taryfę opartą na zliczaniu bitów dołączy głos cenzorów moralności publicznej, tym łacniej, że technika liczenia bitów i technika podglądania indywidualnych transmisji niczym istotnym się nie różnią, jedno przy drugim samo wychodzi.

Prędzej czy później monopol telekomunikacyjny będzie rozbity i nad Wisłą. Prędzej czy później zarząd sieci komputerowych przejdzie w ręce biznesmenów. Wtedy i tu, zamiast dawkowania przywileju transmisji bitów, pojawi się presja na to, by użytkownicy zechcieli wykupić jak najwięcej potencjału korzystania, bo to jedynie można na dłuższą metę sprzedawać. Myślę, że nie zabraknie chętnych nabywców; w końcu nie robi się dla Polski jakichś specjalnie uproszczonych magnetowidów, te same bajery idą tak samo dobrze w Końskiem, jak w Peterborough. Natomiast może zabraknąć polskich dostawców masy informacyjnej, bo w okresie, kiedy dla zmniejszenia kosztu powstania tej branży potrzebne jest praktycznie bezpłatne emitowanie i konsumowanie megabajtów, przedziwny sojusz akademii z lichwą zamyka ten kierunek rozwoju.

A teleinformatycznym Tartuffe’om pozostanie ta tylko pociecha, że cała sieczka informacyjna, która będzie w sieci dostępna i będzie masowo oraz z lubością w Polszcze konsumowana, pochodzić będzie z importu. Kąpiel w Styksie i noszenie zbroi to naprawdę przesada, tym bardziej że zawsze zostaje jakaś pięta!

I pełno zbójców na drodze

wrzesień 1996

Wizja infrastruktury komunikacyjnej, zarysowana przez Wieszcza, nie była zbyt odległa od realiów, jakich doświadczali pierwsi czytelnicy „Powrotu taty”, a w każdym razie ci z nich, którzy podejmowali ryzyko podróży.

W „Encyklopedii staropolskiej” Zygmunt Gloger wspomina liczne (i tym samym świadczące o płonności pokładanych w nich nadziei) konstytucje sejmowe, uniwersały i statuty królewskie poświęcone tyczeniu i utrzymaniu dróg publicznych, po czym stwierdza: „Cudzoziemcy, którzy Polskę zwiedzali, zawsze ganili jej drogi, a w zachodniej Europie powtarzano sobie dowcip, że do przejechania przez most polski trzeba mieć tyle odwagi, co i do jechania przez wodę najgłębszą bez mostu, gdyż niebezpieczeństwo jednakowe”. Ponieważ nic na świecie nie dzieje się bez pewnych przyczyn, więc i zły stan dróg i mostów naszych był wynikiem różnych okoliczności. Już na półtora tysiąca lat przed uchwałami sejmów polskich, na całym południu i zachodzie Europy budowała drogi i mosty, zwykle murowane, kultura państwa rzymskiego, mająca po temu obfitość kamienia, wapna, niewolników i pieniędzy, czego Polska ze swoją kulturą o kilkanaście wieków młodszą nigdy w tym stopniu nie posiadała. Charakter też rdzennie słowiański rozmiłowanych w swobodzie jej mieszkańców nie zdobył się nigdy na absolutyzm w rządzeniu, któremu wiele krajów zachodniej Europy zawdzięczało rozmaite porządki. Kurier dyplomatyczny dworu francuskiego, kawaler de Beaujeu, który – od roku 1679 poczynając – kilkakrotnie jeździł do państwa Sobieskich (głównie jednak do królowej Marysieńki) i docierał aż za Żółkiew, w wydanych w Paryżu (w roku 1698) memuarach racjonalizuje owo „rozmiłowanie w swobodzie”. Nie bez odrobiny ironii pisze on również, że poczucie wolności polskich republikanów (dla emisariusza absolutystycznej Francji poddani elekcyjnego króla, zgodnie z ich własną retoryką, byli wszak „republikanami”) nie rozciąga się na dążenie do fortyfikowania miast, bicia dróg czy brukowania ulic, gdyż spowodowałoby to konieczność płacenia niemałych podatków na te zbożne cele.

Katalog różnic cywilizacyjnych między Francją i Polską, które kawaler de Beaujeu uważa za niezbędne uprzytomnić swym francuskim czytelnikom, jest zresztą wcale pokaźny i obejmuje liczne wady, które obecnie wolimy przypisywać skutkom rozbiorów, wrogich okupacji i przegranych powstań. A sporządził go autor w zasadzie życzliwy „olbrzymiemu królestwu”, do którego posłował i którego wcale nie zamierzał krytykować, podobnie jak autor współczesnych bedekerów chciał on jedynie przygotować czytelnika na to, czego ten, w zgodzie ze swym codziennym doświadczeniem, nie mógł się spodziewać. Tym bardziej żenująca to lektura!

Wróćmy jednak do Glogera. W artykule o drogach zwraca on uwagę na dwie jeszcze osobliwości: chwaląc statut litewski, podkreśla, że stanowił on m.in. co następuje: „Ktokolwiek myta pobiera, a nie poprawia dróg lub źle utrzymuje mosty i groble, za wszystkie szkody ma odpowiadać” (co zresztą nie przeszkadzało, że najczęściej most był dziurawy, ale myto pobierano jak za dobry). Zauważa też Gloger, że wozy kupieckie ciągnęły z upodobaniem po bezdrożach, kędy nie groziły im cła żadne ani rozbójnicy, czatujący zwykle na uczęszczanych gościńcach.

Mamy tu obraz klasycznego sprzężenia zwrotnego, utrwalającego niedowład ważnej infrastruktury: krótkowzroczność polityków, którzy dla „świętego spokoju” nie wymuszają inwestycji publicznych (bo na nie trzeba by zebrać podatki, a to groziłoby oskarżeniem o pogwałcenie wolności, a może nawet buntem panów szlachty), bezsilność administracji, tolerującej pobieranie opłat za niepełnowartościowe świadczenia, użytkownicy omijający drogi legalne (bo taniej i – o ironio – bezpieczniej) i wobec tego niewnoszący opłat, z których mógłby powstawać kapitał inwestycyjny odciążający, przynajmniej w części, podatników.

Jak wiadomo, okres prosperity w Złotym Wieku Rzeczypospolitej obył się jakoś bez poważniejszych inwestycji infrastrukturalnych: wołki z Podola dały się pędzić po bezdrożach (jak w trzysta lat później po preriach Ameryki Północnej!), a podstawa krótkotrwałego dobrobytu, złota polska pszenica, zrządzeniem złego losu najobficiej rodziła się w pobliżu Wisły, którą łagodnie i bez nadmiernego wysiłku spławiano ją do Gdańska. Dalsze jej losy, cała ta niegodna szlachcica krzątanina koło magazynowania, ubezpieczeń, giełdy zbożowej, transportu morskiego „nikogo” już nie obchodziła.

W Anglii owce „zjadały” chłopów, w Niderlandach powstawało imperium handlowo-przemysłowe; jeśli do Londynu czy Amsterdamu nie zawinęły w porę statki z gdańską już (a tak, gdańską!) pszenicą, bywał głód (w Rzeczypospolitej zjawisko wówczas nieznane). Lecz cały czas inwestowano tam w infrastrukturę i jej utrzymanie w stanie najlepszej sprawności. Oczywiście nie tylko w drogi i mosty. Ale bez nich nie powstałoby potężne mieszczaństwo, gromadzące i inwestujące kapitał, tworzące banki i giełdy, płacące podatki, rozwijające oświatę i higienę.

Rozumiał to Antoni Tyzenhauz, podskarbi Stanisława Augusta, który próbę unowocześnienia ekonomii grodzieńskiej zaczął właśnie od ulepszania infrastruktury komunikacyjnej. I stała się ona najlepsza w całej Rzeczypospolitej (no może z wyjątkiem dóbr siemiatyckich księżnej Jabłonowskiej), ale cóż z tego, skoro Tyzenhauz tak gwałtownie usiłował zaprowadzić w lesistej Litwie kulturę przemysłową zachodu Europy, że runął pod ogromem ciężaru nadmiernych przedsiębiorstw (czyt. przedsięwzięć – X. R.), do których nie posiadał ani dostatecznego kapitału, ani osobistego technicznego uzdolnienia (to znowu Gloger, obiecuję, że ostatni już raz w tym felietonie).

Niestety, Tyzenhauz nie cieszy się najlepszą opinią naszych dziejopisarzy; na pewno nie jest idolem współczesnych nam „biznesmenów”. A trochę szkoda. Tym, czym dla rozwoju handlu (miast, podziału pracy, specjalizacji, zyskownej skali produkcji itd.) były drogi i mosty, dla rozwoju ekonomiki postindustrialnej są sieci łączności. W zasadzie nic się nie zmieniło: chodzi o tę najbardziej podstawową z podstawowych infrastruktur. W bogatym, pięknym języku polskim używamy dwu słów: komunikacja i łączność; dla wrażliwego ucha i sprawnego umysłu jest między nimi spora różnica nie tylko znaczeń, ale i temperatury uczuciowej: łączność jest intymniejsza od komunikacji. Ale pal licho takie niuanse, chodzi o grubsze sprawy.

Tak jak władca, który nie umiał (nie chciał) zadbać o dobre i bezpieczne drogi, skazywał swych poddanych najpierw na usługi kupczyków-mataczy (co to woleli bezdroża i brak ceł) i zwykłych oszustów (co za przejazd dziurawym mostem brali jak za bezpieczną przeprawę), potem na utratę tych ogniw procesów ekonomicznych, w których powstaje najwięcej wartości dodanej (jak wtedy, gdy Gdańsk objął obsługę prawie całego handlu zagranicznego Rzeczypospolitej, nie zostawiając wiele pożywki dla rozwoju innych miast), wreszcie na niemożność pełnoprawnego udziału w nowej grze ekonomicznej (bo trzeba było mieć za co kupić wejściówkę), tak samo rządy, które nie potrafią zadbać o dobre i bezpieczne sieci łączności, skazują obywateli swych krajów najpierw na usługi kowbojów telekomunikacji, potem na utratę obfitych źródeł wartości dodanej i wreszcie na stałe kibicowanie tylko nowej grze ekonomicznej (o ile rolę owcy w strzyżeniu wełny można nazwać kibicowaniem).

Już słyszę głosy protestu. Przecież rząd (rządy) III Rzeczypospolitej robią co mogą, aby usprawnić telekomunikację, postęp jest olbrzymi, a w ogóle przy takim deficycie budżetowym biedne nasze rządy niewiele mogą zrobić. No i tyle jest innych potrzeb, a podatków nie da się już zwiększyć, ceniący wolność obywatele nie pozwolą. A zresztą czyż niewidzialna ręka rynku nie zrobi tego lepiej od rządu, wszak wszędzie na świecie likwiduje się państwowy monopol telekomunikacji.

Każda z tych obiekcji zawiera ziarenko prawdy, razem – są fałszywe. Światowa tendencja demonopolizacji telekomunikacji dotyczy przede wszystkim usług oferowanych w sieci, sama zaś wystąpiła dopiero po zbudowaniu powszechnej i sprawnej sieci telekomunikacyjnej. Rzecz w tym, że sieć budowana dla podstawowej usługi (przewodowej łączności telefonicznej) nie jest jednorodnie opłacalna: łącza międzymiastowe przynoszą krociowe zyski, sieci lokalne w gęsto zaludnionych aglomeracjach są ledwo opłacalne, budowa i utrzymywanie sieci w obszarach wiejskich (i innych słabo zaludnionych) są wielce deficytowe.

W warunkach czysto rynkowych nikogo nie będzie kusić budowa przewodowej sieci telefonicznej dla rozproszonych siedzib ludzkich, a na niesubwencjonowaną łączność bezprzewodową nie stać niekomercyjnych mieszkańców takich siedzib. Aby dać wszystkim obywatelom rzeczywiście jednakowe prawa korzystania z łączności, mieszkańców odludzia trzeba subwencjonować albo wprost (z budżetu, czyli z powszechnie zbieranych podatków), albo wprowadzając takie regulacje prawne, które wymuszą przekształcanie sporej części zysków z lukratywnych fragmentów sieci w nieopłacalne inwestycje dla diaspory. To drugie rozwiązanie znacznie zmniejsza atrakcyjność całego przedsięwzięcia dla firm telekomunikacyjnych, które będą wolały poszukać sobie takich terenów do inwestowania, gdzie nie będą obciążone podobnym serwitutem. Rozwiązanie pierwsze w warunkach wolnorynkowych sprowadza się do przekazywania publicznych środków do firm prywatnych, co zawsze i wszędzie było i jest idealną pożywką dla korupcji.

W sumie, przy całej swej doktrynalnej staromodności, monopol państwowy jest chyba najlepszym rozwiązaniem na etapie budowy powszechnej sieci łączności przewodowej. (Zamiast monopolu państwowego – jak w Europie – funkcję tę może pełnić potężna firma prywatna, mająca faktyczny monopol i za cenę rządowego przyzwolenia na taki status respektująca zasadę jednakowego dla wszystkich dostępu do łączności – jak AT&T w Stanach Zjednoczonych). Jednakże, gdy tylko budowa sieci podstawowej jest zakończona, dalsze utrzymywanie monopolu jest zgubne dla rozwoju łączności. Rola światłego rządu jest więc trudna: utrzymać monopol, póki sprzyja to budowie powszechnej sieci łączności, i w odpowiedniej chwili szeroko otworzyć drzwi przed konkurującymi dostawcami usług telekomunikacyjnych.

Ale nie jest to jedyny obowiązek dobrego rządu w tej dziedzinie. Tak jak zwalczanie zbójców (i korsarzy, czyli piratów) było obowiązkiem władcy pragnącego rozwoju handlu (i wszystkiego dobrego, co z tego wynika), tak samo ustalenie i kontrola przestrzegania reguł bezpieczeństwa łączności jest niezbywalną prerogatywą współczesnych rządów. Oferenci poszczególnych usług mogą naturalnie obiecywać, a jeszcze lepiej – zapewniać swoim klientom wyższy poziom zabezpieczeń za dodatkową opłatą. Każdy jednak uczestnik powinien być wolny od obaw o elementarne bezpieczeństwo seansów łączności oraz wiedzieć, że zamachy na nie będą skutecznie i bez zwłoki ścigane z całą surowością prawa.

Powszechnie dostępna i bezpieczna sieć łączności, otwarta dla każdego odpowiedzialnego dostawcy usług, jest warunkiem niezbędnym funkcjonowania ekonomiki przełomu wieku. Troska o jej powstanie i należyte działanie powinna zajmować poczesne miejsce we wszelkich rozważaniach o perspektywach rozwoju kraju. Dzięki szczególnemu położeniu geograficznemu, niedorozwój polskiego systemu komunikacyjnego, niegdyś nader szkodliwy dla rodzimej ekonomiki, dziś stał się poważnym problemem głównie naszych sąsiadów. Dobrze by było nie fundować sobie nowego dwutysiącletniego garbu.

Tego nie da się przewidzieć

październik 1996

W 1937 roku Narodowa Akademia Nauk USA podjęła próbę przewidzenia odkryć naukowych o szczególnie dużym znaczeniu dla praktyki. (Jak widać, klimat sprzyjający tego rodzaju studiom nie powstał dopiero w ostatnich latach!). Ogłoszono stosowny raport. Oprócz wielu mądrych zdań na temat rolnictwa, co ostatecznie można przyjąć za przepowiednię zielonej rewolucji lat sześćdziesiątych, na pierwsze miejsce wysuwają się prognozy dotyczące metod przemysłowego otrzymywania syntetycznej benzyny i syntetycznego kauczuku. Prognozy te nie całkiem się sprawdziły, nie były też jednak zupełnie fałszywe; na pewno zaś odnosiły się do problemów wówczas uważanych za najważniejsze. Z perspektywy minionych lat uderza jednak przede wszystkim to, czego w opracowaniu nie ma. (Zawsze powtarzam, że ze wszystkich opowiadań o Sherlocku Holmesie najbardziej pouczające jest to, w którym rozwiązanie zagadki wynika ze spostrzeżenia, że pies nie szczekał. Często to, czego brakuje, jest dużo ważniejsze od tego, o czym wiele się mówi).

W opracowaniu prognostycznym z 1937 roku nie ma ani słowa o energii jądrowej, antybiotykach, silnikach odrzutowych, DNA, rakietach, komputerach, tranzystorach, laserach, by nie wspomnieć o inżynierii genetycznej czy teleinformatyce. A przecież odkrycia prowadzące do niektórych z tych powszechnych dziś elementów życia codziennego były tuż, tuż, za progiem, a w przypadku energii jądrowej – były nawet widoczne!

Gdyby 100 lat temu dekretowano zakres badań nad uzyskaniem lepszych urządzeń do zapisu i odtwarzania dźwięku, nikomu nie przyszłoby do głowy, że mogą one mieć jakikolwiek związek ze źródłami koherentnego światła. A gdyby takim badaniom pozwolono się toczyć tylko w przewidywalnym wówczas kierunku, zgodnym z ówczesną najlepszą wiedzą, szczytem osiągnięć byłaby zapewne superpianola z parowym napędem lub kieszonkowa katarynka wielogłosowa. Płyta kompaktowa i laserowy odtwarzacz zupełnie nie mieszczą się w zakresie wyników badań nad metodami zapisu i odtwarzania dźwięku, jakie można było przewidzieć 100 czy nawet 50 lat temu.

Gdyby 120 lat temu ktoś zaproponował podjęcie badań nad stworzeniem urządzenia pozwalającego oglądać kości w ciele bez użycia narzędzi chirurgicznych, byłby uznany za szaleńca; a gdyby jakiś inny pomyleniec zechciał takie badania finansować, na pewno nie potoczyłyby się w kierunku budowy aparatów rentgenowskich ani tym bardziej w stronę innych, powszechnie dziś używanych urządzeń do bezinwazyjnej obserwacji kości i organów wewnętrznych. Przed – zupełnie przecież nieprzewidywalnym! – odkryciem promieni X nie było nawet samej idei oglądania czegokolwiek inaczej niż za wyłącznym pośrednictwem światła widzialnego. Trzeba było dopiero tego odkrycia, żeby wzbudzić całkiem nowe pomysły i pragnienia.

Najbliższe lata przyniosą zapewne wiele powszechnych zastosowań fulerenów (wydano już ponad 100 patentów z tej dziedziny). A podstawowe odkrycie (zaledwie 10 lat temu!) zawdzięczamy „pozbawionym praktycznego znaczenia” badaniom pyłu międzygwiezdnego! I choć nie można z całą pewnością twierdzić, że gdyby przed piętnastoma laty zaniechano finansowania badań astronomicznych (naturalnie w trosce o prawidłowe wydawanie grosza publicznego i w ramach koncentracji na badaniach najbardziej obiecujących ze społecznego punktu widzenia), to fulereny do dziś pozostałyby nieznane, nie bardzo można też twierdzić, że inne badania (te „obiecujące”) kiedykolwiek zaowocowałyby tym odkryciem.

Istota wielkich odkryć naukowych polega na ich nieprzewidywalności. Przewidywalność należy przy tym odróżnić od przeczuć, zarówno literackich (Verne, Lem), jak i tych, które często żywią prawdziwi uczeni. Ci ostatni rzadko je ujawniają, gdyż przeczucia, w przeciwieństwie do przewidywań, nie dają się w miarę ściśle uzasadnić, a etos uczonego nie pozwala głosić nieuzasadnionych sądów. Ale nawet nieujawnione przeczucia stanowią potężny motor dociekań uczonych, tym właśnie (między innymi) różniących się od wyrobników nauki, którzy kierują się bieżącą modą i... przewidywaniami.

Redukując nakłady na badania podstawowe, ograniczając państwowy (fundacyjny, korporacyjny, przemysłowy itd.) mecenat do „najbardziej obiecujących” kierunków, w których przewiduje się rychłe uzyskanie znacznych osiągnięć praktycznych, zarzyna się kurę znoszącą złote jajka nieprzewidywalnych odkryć. Wykaz tego, czego nie przewidział raport bardzo poważnej przecież akademii w 1937 roku (a przytoczoną powyżej listę można bez trudu wydłużyć o dalsze niezwykle praktyczne wyniki badań naukowych), unaocznia, o ile bylibyśmy dziś biedniejsi, mniej sprawni i bardziej chorzy, gdyby przed sześćdziesięciu laty wdrożono te zasady finansowania badań naukowych, które dziś wydają się tak atrakcyjne wielu politykom.

Tam, gdzie można rzetelnie przewidzieć praktyczne zastosowania, suwerenna nauka właściwie się już kończy. Dalsze badania powinny być finansowane przez tych, którzy na tych zastosowaniach zarobią, przede wszystkim więc przez przemysł. Naturalnie, państwo może takie badania wspierać (choć lepiej robiłyby to banki i kapitaliści szukający zysku), ale na Minerwę: niech to będą kredyty, nie zaś zasiłki. Tu musi obowiązywać uczciwa gra. Jeśli chcę prowadzić badania, twierdząc, że ich wyniki będą miały ważne zastosowania praktyczne, to muszę przystać na to, że wsparcie, jakie otrzymuję, dla wspierającego jest inwestycją, która ma mu przynieść zysk. Ja zaś za pobrane środki odpowiadam jak za każdy inny kredyt („warunki do uzgodnienia” w kontrakcie).

Państwo, działając we wspólnym interesie obywateli, powinno wspierać badania podstawowe, których kierunek wyznaczają suwerennie sami uczeni, nie obiecując niczego poza rzetelnością i jakością badań, do czego zresztą zobowiązuje ich etos powołania. I tu muszą obowiązywać uczciwe reguły gry. Prawo do takiego suwerennego wyznaczania kierunków badań nie może przysługiwać miernotom ani być przyznawane ze względu na „sprawiedliwość” (dziejową, geograficzną, społeczną ani żadną inną). Na taki przywilej trzeba zasłużyć autentycznym uznaniem międzynarodowego środowiska naukowego. A przywilej ten powinien stwarzać nie tylko możliwość prowadzenia badań, lecz także doboru i utrzymania współpracowników oraz wyboru następcy, który jednak po inwestyturze sam już musi „zarobić” na utrzymanie tego przywileju.

Nie można przewidzieć, co konkretnie odkryją uczeni prowadzący suwerenne badania naukowe ani jakie znaczenie praktyczne będą miały te odkrycia. Pewne jest jednak, że bez takich badań nie będzie nowych, fascynujących odkryć, których dziś nie można przewidzieć. A takie właśnie zmieniają kształt naszej cywilizacji.

Bycie uczonym nie powinno dawać szczególnych uprawnień pozazawodowych; w szczególności, niczym nie jest uzasadnione przenoszenie swej uczciwie nawet zapracowanej sławy i chwały na inną działkę działalności człowieczej, na przykład na politykę. Ale nie można też być uczciwym uczonym, nie dbając o swoją suwerenność intelektualną. I – na co starałem się zwrócić uwagę we wcześniejszych felietonach – nikt, ani rządy, ani parlamenty, ani nawet opinia większości uczonych nie może narzucać kierunku badań inaczej niż na zasadzie dobrowolnie spisanego kontraktu. Jeśli jednak badania naukowe zostałyby ograniczone do tych tylko, dla których da się bez zmrużenia oka spisać kontrakt wymieniający spodziewane korzyści praktyczne, nasza cywilizacja wnet stanęłaby w miejscu. A cynicznie powiedziawszy: stanęłaby w miejscu tam, gdzie tak bezsensowne zasady zostałyby wcielone w życie.

W prawdziwej nauce, tej, która od tysięcy lat przynosiła i przynosi zaskakujące odkrycia, prędzej czy później przekształcane w użyteczne wynalazki, otóż w tej nauce jedno tylko można z całą pewnością przewidzieć: wielkie odkrycia są nieprzewidywalne ani co do czasu, ani co do treści.

Polityka naukowa opierająca się na faworyzowaniu „praktycznych tematów” jest z natury rzeczy konserwatywna. Szkoda na nią pieniędzy, chyba że oprócz badań zamierza się sfinansować rozwój produkcji na taką skalę, by zdobyć światowy rynek dla nowego produktu czy procesu. Ale to już całkiem inna historia.

Czasy czasu czy czas czasów?

grudzień 1996

Nie wiem, jak Państwo, ale ja bardzo lubię na śniadanie zjeść jajko na miękko. Ugotowane jak należy. Żeby białko było ścięte, ale żółtko zachowało postać płynną. Odrobinę dłużej przetrzymane w wodzie stałoby się jajkiem na twardo, którego nie cierpię, zwłaszcza na śniadanie. Wyjęte za wcześnie – byłoby „surowe”, a takich niedowarzonych jaj nie jadam. Za to gdy jest w sam raz, ze szczyptą soli i delikatnie posypane białym pieprzem – o, to delikates przedni, z dań śniadaniowych chyba najbardziej atrakcyjna propozycja. Takie idealnie ugotowane jajko w hotelowych restauracjach nazywa się „trzyminutowe”.

Kilkoro moich znajomych, świadomych mej słabości do jajek na miękko, obdarowało mnie wieloma urządzeniami do ich gotowania. Mimo różnych gadżetów do kalibrowania, aparaty te w zasadzie są jednakowe: przez ustalony czas jajka poddaje się działaniu temperatury około 90°C. Wspomniane gadżety służą właśnie do mnemotechnicznego ustalania czasu podgrzewania: najczęściej przyjmują postać liniowej skali, na której są obrazki mniejszych i większych jajek, pocieniowane w części, połowie lub całości. Chcesz ugotować średniej wielkości jajko na miękko – przesuwasz skalę aż do obrazka średnio wielkiego jaja w połowie zacieniowanego. Ustawia to grzejnik na... 3 minuty. A przecież inaczej będzie przyrządzone w tym samym aparacie i przez taki sam okres jajko wyjęte wprost z lodówki, a inaczej takie, które nocowało w kuchni na stole, inaczej jajko prosto z kurnika, inaczej – tygodniowe. Konsumenta, a w każdym razie smakosza, interesuje nie to, ile minut było (czy ma być) gotowane jajko, lecz to, jaką konsystencję osiąga białko i żółtko.

Dobry aparat do gotowania jajek na miękko powinien mierzyć nie czas gotowania, który prawdę powiedziawszy, jest mi zupełnie obojętny, lecz stan żółtka i białka. Niestety, bez rozbicia skorupki i zanurzenia łyżeczki w głąb jajka dość trudno ustalić aktualny stopień ścięcia się tych dwu warstw. Oczywiście, nie jest to niemożliwe, sam opracowałem kilka metod, które być może kiedyś opatentuję. Znacznie łatwiej jednak było skonstruować prostą zależność statystyczną, że w przeciętnych warunkach geograficznych (np. nie na szczycie Kilimandżaro!), przeciętnej świeżości i wielkości jajko gotowane przez 3 minuty mniej więcej odpowiada temu, co przeciętny konsument uznaje za „jajko na miękko”. I tak z kryterium przedmiotowego (konsystencja białka i żółtka) przeszliśmy do kryterium czasowego.

W tym przypadku zamiana nastąpiła bardzo dawno – jedno z najpowszechniejszych zastosowań klepsydr (tych wciętych w pasie baloników z przesypującym się piaskiem) to właśnie odmierzanie czasu gotowania jajek na miękko. W wielu innych przypadkach podobna zamiana odbyła się w XIX wieku i oznaczała przejście od graniczącej z magią sztuki rzemieślniczej do procesu o dobrze określonym reżimie technologicznym.

Istota takich zamian jest bardzo głęboka, warto poświęcić jej chwilę zastanowienia. Często zdarza się, że w jakimś procesie wytwórczym albo obróbczym pewne działania należy podjąć (lub ich poniechać) dokładnie wtedy, gdy zaistnieją ściśle określone warunki. (Tak jak z naszym jajkiem: gdy białko i żółtko osiągną idealną dla smakosza konsystencję, należy bezzwłocznie przerwać dalsze ogrzewanie jajka). Bywa jednak, że stwierdzenie zaistnienia owych warunków jest bardzo trudne albo tak czasochłonne, iż nie można się nimi posłużyć wprost. (Znowu jak z jajkiem gotowanym na miękko: jeśli w celu zbadania, czy jest już dobrze ugotowane, zechcielibyśmy organoleptycznie zbadać konsystencję zawartości skorupki, skrajnie trudno by było kontynuować gotowanie niedowarzonego jeszcze jajka). W takim przypadku staramy się zbudować odpowiedni model matematyczny interesującego nas procesu, na tyle precyzyjny, by pozwolił wyliczyć, kiedy to zaistnieją te warunki, w których mamy podjąć wskazane działania.

Model taki najczęściej przyjmuje postać równań różniczkowych, których rozwiązanie opisuje przebieg procesu jako funkcję czasu. Jeśli dobrze ułożymy równania i poprawnie je rozwiążemy, uzyskamy jawną zależność wartości zmiennych charakteryzujących badany proces od upływu czasu (mierzonego zazwyczaj od umownej chwili początkowej). Nie zawsze zresztą uciekamy się do opisanego postępowania. Niekiedy wystarczy wykonać pewną liczbę prób i doświadczalnie ustalić, jakie konkretnie wartości przyjmują parametry procesu na przykład po upływie 5, 10, 15 itd. jednostek czasu od chwili jego rozpoczęcia. Możemy na przykład włożyć do kotła z wrzątkiem 25 jajek i wyjmować po jednym co 10 sekund, znacząc na skorupce czas wydobycia jajka z kąpieli. Po 250 sekundach, gdy wszystkie jajka są już wyjęte, próbujemy je po jednym i odnotowujemy wynik degustacji: 10 s – surowe, 20 s – surowe, ..., 150 s – prawie dobre, 170 s – dobre, 180 s – dobre, 190 s – dobre, 200 s – trochę za twarde, ..., 250 s – twarde.

Nie chciałbym wdawać się w rozważania, która droga uzyskiwania ostatecznej zależności parametrów od czasu jest „lepsza” czy „dokładniejsza”. Ważne bowiem jest to, że obie (a reprezentują one znacznie bogatszą klasę podejść) są obciążone licznymi wadami, z których najważniejsze polegają na konieczności przyjmowania dodatkowych założeń (uproszczeń).

W metodzie „25 jajek” uproszczenia widać jak na dłoni: skąd wiadomo, że inne 25 jaj będzie zachowywać się podobnie? Co z jajkami większymi albo mniejszymi, świeższymi lub starszymi? Włożenie 25 zimnych jajek naraz obniża chwilową temperaturę „wrzątku” bardziej niż włożenie tylko 2 sztuk naraz, a zresztą zależy to od wzajemnego stosunku objętości wrzątku i jajek, więc wyniki „z kotła” niekoniecznie dają się przenieść na warunki domowego gotowania w małym garnuszku. O tych obiekcjach mówiliśmy już poprzednio.

W metodzie „równań różniczkowych” uproszczeń – z reguły – jest wcale nie mniej. Opisując zjawiska świata realnego w języku matematyki, najczęściej trzeba pominąć jedne aspekty, by uwypuklić inne. (Oczywiście, staramy się wybrać to, co najważniejsze, ale czasem kierujemy się także tym, co potrafimy opisać, mniej lub bardziej dyskretnie omijając to, czego teorią – tj. sposobem opisu – nie dysponujemy). Powstające równania nie zawsze dają się rozwiązać dokładnie, ba, szczerze powiedziawszy, dające się dokładnie rozwiązać równania różniczkowe należą do rzadkości. Stosuje się więc przybliżone metody rozwiązania, a w trakcie liczenia – przybliżone rachunki (bo komputery liczą zawsze z ograniczoną dokładnością).

Wszyscy poważni badacze są oczywiście w pełni świadomi tych uproszczeń. Powstały całe gałęzie wiedzy zajmujące się ich analizą i przewidywaniem skutków, jakie mogą one spowodować. Bada się na przykład stabilność uzyskiwanych rozwiązań, czyli poszukuje odpowiedzi na pytanie, czy małe niedokładności (a także zaniedbania) w danych początkowych mogą prowadzić do niewspółmiernie wielkich błędów rozwiązania. Odpowiedź – jak pewnie Czytelnicy podejrzewają – jest niejednoznaczna: czasem tak, czasem nie. To, od czego zależy stabilność rozwiązań, jest przedmiotem głębokich i ważnych studiów.

Niestety, wielu „użytkowników” takich uproszczonych metod albo z nieświadomości, albo z głupoty, przyjmuje uzyskiwane rozwiązania za prawdy objawione, zwłaszcza gdy pojawiają się one na ekranie komputera albo w postaci drukowanej. Sprzyja temu rozpowszechnienie „łatwych w obsłudze” programów komputerowych, które pozwalają szybko i bez wysiłku uzyskać rozwiązania, pomijając wszystkie kłopotliwe badania jakości i bezpieczeństwa uzyskanych wyników.

Nie mogę się tu oprzeć gorzkiej uwadze historycznej. Pierwszy dobrze zbudowany język programowania, Algol, stworzyła międzynarodowa grupa ekspertów, w której skład wchodziła cała prawie ówczesna światowa czołówka speców od analizy numerycznej (tak nazywa się dział matematyki badający wiele z wymienionych problemów). Jak ognia unikali wbudowania w Algol czegokolwiek, co mogłoby stworzyć pozory jednoznaczności i pewności w sytuacjach, w których stan wiedzy nie pozwalał ani na jednoznaczność, ani na pewność. Twórcy Algolu uważali, że tam, gdzie wiedza nakazuje ostrożność, użytkownika komputera należy zmusić do świadomego wyboru drogi postępowania, choćby po to, żeby poczuł brzemię odpowiedzialności. W miarę upływu czasu, a minęło już lat bez mała czterdzieści, wszystkie pułapki na łatwowiernych i bezmyślnych, które twórcy Algolu starannie usunęli ze ścieżek, jakimi chadzają zwykli użytkownicy komputerów, zostały „odkryte” przez kolejne pokolenia nieodpowiedzialnych producentów masowego oprogramowania i – przy ryku fanfar głoszących „postęp” – gęsto rozsiane w „produktach”, chronionych co prawda prawem autorskim, lecz tak niebezpiecznych, że wytwórcy explicite odmawiają przyjęcia jakiejkolwiek odpowiedzialności za konsekwencje ich stosowania. To, za co producent leku czy samochodu odpowiada całym majątkiem, w przypadku producenta oprogramowania wyjęte jest poza nawias odpowiedzialności. Że społeczeństwo taki stan rzeczy toleruje, świadczy dobitnie, jak mało poważnie traktuje ono cały ten infantylny „przemysł informatyczny”, jak niewiele poza rozrywką po nim się spodziewa!

Powróćmy jednak do głównego wątku. Poznaliśmy już jedną z przyczyn rozkwitu metod zastępowania bezpośredniego pomiaru interesujących wielkości pomiarem czasu w oczekiwaniu chwili, w której – na mocy przyjętego modelu – przewiduje się, że przyjmą one te czy inne wartości. Obok tej podstawowej przyczyny, tj. obok obiektywnej trudności dokonania pomiaru wartości parametrów przedmiotowych, ważną rolę odegrał prosty zbieg okoliczności. Otóż w XIX wieku udało się wdrożyć masową produkcję stosunkowo tanich i zupełnie dobrych zegarków.

Pomiar czasu z dokładnością wystarczającą do problemów dnia codziennego i zdecydowanej większości procesów produkcyjnych nie stanowił już żadnej trudności. Powstała przeto nieprzeparta wręcz pokusa zredukowania złożoności wielowymiarowego świata do dwuwymiarowych zależności czasowych. Pokusa tym silniejsza, że wsparta niczym jeszcze niezmąconą wiarą w pełność newtonowskiej mechaniki i solidnością jej filozoficznych kuzynów. To zaś, że przy posługiwaniu się tymi metodami prawie zawsze zastępujemy rzeczywisty problem jego nieuchronnie przybliżonym tylko modelem, nie wydawało się ceną zbyt wygórowaną. Także i dlatego, że – na dobrą sprawę – nie było żadnej innej rozsądnej drogi.

Dziś sytuacja uległa dość radykalnej zmianie, i to w kilku płaszczyznach naraz. Ani prosta newtonowska mechanika nie jest już alfą i omegą poglądu fizyki na świat, ani jej filozoficzne pochodne nie stanowią niewzruszonego kanonu. Sam czas przestał być jednolitym, neutralnym i wszechobecnym wymiarem trwania świata i przebiegu zjawisk w nim zachodzących. Poznaliśmy naturę przybliżonych rachunków i wiemy już, że niektórych błędów nie da się uniknąć w żaden sposób. A co najważniejsze dla naszych rozważań, dzięki prawdziwej erupcji środków i aparatury pomiarowej, obficie czerpiących z arsenału optyki laserowej i mikroelektroniki (by wspomnieć dwie tylko techniki zupełnie nieznane naszym XIX-wiecznym przodkom), umiemy mierzyć różne wielkości znacznie dokładniej i szybciej, niż mogli zamarzyć nasi dziadkowie. Powinno to spowodować odwrót od metod sterowania opartych na przewidywaniu zjawisk na korzyść metod opartych na reagowaniu na spostrzeżenia. A przecież takiej zmiany nie widać, w każdym razie nie występuje ona w spodziewanej skali.

Wydaje się, że mamy tu do czynienia z uwikłaniem nauki w pęta własnego sukcesu. Zdarzało się to już i przedtem. Astronomowie przez długi czas doskonalili ptolomejski model Układu Słonecznego, dodawali do niego wciąż nowe epicykle i dyferenty, wciąż poprawiając dokładność obliczeń, aby dogonić wzrastającą precyzję pomiarów. Dziś, wyposażeni w wiedzę o szeregach trygonometrycznych, wiemy, że model ten można udoskonalać praktycznie bez granic, uzyskując dowolną potrzebną precyzję rachunków i zgodność z obserwacjami. Geniusz Kopernika, Keplera i Newtona polegał nie na poprawieniu zgodności obliczeń z obserwacjami, lecz na odrzuceniu pośrednictwa struktur, które stworzył Ptolomeusz (i jego wspaniali następcy), struktur zupełnie zbędnych.

Niewątpliwy sukces mechaniki newtonowskiej i jej potomstwa we wszystkich chyba dyscyplinach nauk ścisłych stosowanych uwikłał nas w pęta zależności czasowych. Procesy zachodzące w świecie realnym lubimy traktować jako zmiany wartości ich parametrów w czasie. Nieprzydatność tego rodzaju poglądów w kilku działach fizyki, zamiast pobudzić do refleksji o zasadności sztampowego traktowania wszystkich zjawisk na jedną modłę, sprowadziła inteligentnych skądinąd badaczy na manowce cieniutkiej filozofii i sprowokowała do rozważania takich pytań, jak na przykład: „co było przed Wielkim Wybuchem (tym od powstania Wszechświata)?”, zupełnie jak gdyby czas mógł płynąć w materialnej nicości, albo jak gdyby przed powstaniem Wszechświata istniało coś materialnego. (Stawiając to pytanie faktycznie kwestionuje się hipotezę Wielkiego Wybuchu, ale to już zupełnie inna historia).

W mniej ezoterycznym aspekcie, przywiązanie do czasowej perspektywy zmusza inżynierów wielu specjalności (najdotkliwiej cierpią z tego powodu telekomunikanci!) do dosłownego traktowania hasła real time i wprowadzania całej masy zupełnie arbitralnych rozwiązań. Projektując zasady współdziałania procesów współbieżnych zgodnie z czasowym punktem widzenia, trzeba na przykład udzielić odpowiedzi na pytanie: „Jak długo proces A ma czekać na zgłoszenie się procesu B, zanim uzna, że proces B się nie zgłasza?”. Cokolwiek odpowiemy: 5 s, 7,2 s, dobę czy sto lat, będzie odpowiedzią arbitralną, o czym łatwo się przekonać, zadając pytanie pomocnicze: „dlaczego 7,2 s a nie, powiedzmy, 7,199 s?”. Stawiam kawę z koniakiem Czytelnikowi, który od fachowca uzyska na to pomocnicze pytanie odpowiedź inną niż „Nie bądź głupi” (lub równoważną, choć grzeczniejszą).

Aleksander Graham Bell, który uszczęśliwił wszystkie nastolatki tego świata, kładąc podwaliny systemu globalnego szczebiotu, tak zaprojektował protokół łączenia się dwu rozmówców, że każdy abonent musi na własną rękę rozstrzygać dylemat: „Czy Jasio się nie zgłasza, bo jest w łazience, czy go nie ma w domu” i podejmować decyzję, po ilu „dzwonkach” odłożyć słuchawkę.

O tym, że możliwy jest inny, znacznie rozsądniejszy protokół, wie każdy biznesmen, którego stać na sekretarkę. Poleca jej łączyć z panem Janem i nie czeka na nic, tylko kontynuuje inne zajęcia, aż mu sekretarka zamelduje: „Pan Jan na linii”. (Nowoczesne centrale telefoniczne umożliwiają każdemu abonentowi korzystanie z tego drugiego protokołu, ale ze względu na przyzwyczajenia klientów faktu tego nie reklamuje się powszechnie, przynajmniej nie czyni się tego na wszystkich rynkach).

Sterowanie zależne od zdarzeń zamiast od upływu czasu z reguły prowadzi do lepszej jakości procesów. Zamiast spustu stali po tylu a tylu godzinach od rozpoczęcia wytopu lepiej prowadzić stałą analizę (np. spektroskopową) zawartości pieca i spust rozpocząć dokładnie wtedy, kiedy trzeba. Dzięki technice pomiarowej i obliczeniowej, którą dziś dysponujemy (a której nie było jeszcze kilkanaście lat temu), od chwili osiągnięcia optimum wsadu do rozpoczęcia spustu upłyną co najwyżej mikrosekundy; przewidywany moment wystąpienia optimum, a więc przewidywany moment rozpoczęcia spustu może się różnić od rzeczywistego wystąpienia optimum nawet o kilkanaście minut, co wystarcza do wydatnego pogorszenia jakości produktu.

Nowoczesna informatyka teoretyczna rozwija metody programowania reaktywnego, w którym odchodzi się od schematu wykonywania instrukcji po kolei, w raz na zawsze ustalonym następstwie, na rzecz zasady wykonywania działań odpowiadających aktualnym warunkom. I w tym podejściu widać odwrót od pryncypiów przewidywalności, przedstawiania zjawisk w postaci czasowej prognozy. Jednolity, wszechobecny i równomiernie płynący czas, wytwór XIX-wiecznej myśli mechanistycznej, powoli rozpada się na wiele czasów lokalnych, płynących w rytmie wydarzeń charakterystycznych hic et nunc, niekoniecznie ze sobą powiązanych. Prawo obywatelstwa zyskują metody badawcze, w których „oś czasu”, zapamiętana z lat szkolnych jako prosta t, rozwidla się jak gałęzie choinki.

Nie opuszcza mnie nadzieja, że na którąś Gwiazdkę znajdę pod choinką kolejny aparat do gotowania jajek na miękko, który nareszcie nie będzie zakamuflowanym budzikiem!