Marzenie Engelbarta - Henning Lobin - ebook
Opis

 

 

Douglas Engelbart w latach sześćdziesiątych XX wieku stworzył koncepcję interfejsu, zaprojektował system online, pierwsze ekrany i okna, przyczynił się do realizacji idei hipertekstu, skonstruował mysz. Nie Bill Gates zatem, nie Steve Jobs ani nawet Alan Turing, twórca koncepcji sztucznej inteligencji, lecz właśnie Douglas Engelbart to człowiek, którego zdaniem Lobina należy uznać za inicjatora rewolucji cyfrowej: to jego idee zmieniły oblicze współczesnego świata.

Kultura pisma, która decydowała o kierunku rozwoju świata od czasów Gutenberga po drugą połowę XX wieku, odchodzi - przekonuje Lobin - w przeszłość. Jej miejsce zajmuje kultura cyfrowa. Ta pierwsza nadal ma swoją infrastrukturę i instytucje, jednak wszystkie one albo już się zmieniły pod wpływem globalnego procesu cyfryzacji, albo z pewnością niebawem się zmienią. Nie potrafimy sterować tym procesem w całości wedle własnej woli, możemy co najwyżej wzmacniać niektóre jego elementy, innym zaś przeciwdziałać, z niewiadomym skutkiem.

 

Henning Lobin - ur. w roku 1964; profesor językoznawstwa stosowanego i lingwistyki komputerowej na Uniwersytecie im. Justusa Liebiga w Gießen; studiował językoznawstwo, filozofię i informatykę; w latach 2001-2007 pełnił funkcję pierwszego przewodniczącego Gesellschaft für linguistische Datenverarbeitung (Towarzystwo Lingwistycznego Przetwarzania Danych), a w latach 2007-2016 był dyrektorem zarządzającym Zentrum für Medien und Interakivität (Centrum Mediów i Interaktywności) na uniwersytecie w Gießen; od roku 2016 jest członkiem rady naukowej Institut für deutsche Sprache (Instytut Języka Niemieckiego).

W swoich pracach zajmuje się m.in. procesem cyfryzacji pisma i jego wpływem na współczesne praktyki kulturowe, teorią tekstu i gramatyką języka niemieckiego; prowadzi blog Die Engelbart-Galaxis (Galaktyka Engelbarta).

Ebooka przeczytasz w aplikacjach Legimi na:

Androidzie
iOS
czytnikach certyfikowanych
przez Legimi
czytnikach Kindle™
(dla wybranych pakietów)
Windows
10
Windows
Phone

Liczba stron: 476

Odsłuch ebooka (TTS) dostepny w abonamencie „ebooki+audiobooki bez limitu” w aplikacjach Legimi na:

Androidzie
iOS

Popularność


Tytuł oryginału

ENGELBARTS TRAUM. WIE DER COMPUTER UNS LESEN UND SCHREIBEN ABNIMMT

Redakcja

JOANNA GIL-SIEMIŃSKA

Opracowanie okładki i stron tytułowych

KAROLINA TOLKA

© Copyright by Campus Verlag GmbH, Frankfurt am Main, 2014

© Copyright for the Polish edition by Państwowy Instytut Wydawniczy, 2017.

Księgarnia internetowawww.piw.pl

www.fb.com/panstwowyinstytutwydawniczy

Państwowy Instytut Wydawniczy

ul. Foksal 17, 00-372 Warszawa

tel. 22 826 02 01

e-mail:[email protected]

Wydanie pierwsze

ISBN 978-83-06-03438-7

Skład wersji elektronicznej ANETA WIĘCKOWSKA

konwersja.virtualo.pl

dla Antje

PRZEDMOWA

„Ekspert: pokolenie Google’a ma kłopoty” – takie słowa można było przeczytać 11 maja 2010 roku w niemieckiej gazecie „Bild”. Młodzi ludzie, pisano, tracą umiejętność posługiwania się podstawowymi technikami kultury, nie są w stanie odpowiednio korzystać z książek i bibliotek. Nieczęsto się zdarza, aby specjalistyczny wykład przyciągnął uwagę bulwarówki. A już na pewno trudno tego się spodziewać, gdy chodzi o przyszłość czytania i pisania, kwestię podjętą naówczas podczas Heskiego Dnia Bibliotek. Zaskoczyło mnie to przede wszystkim dlatego, że wspomnianym „ekspertem” byłem ja sam. Dyrektor Biblioteki Uniwersyteckiej w Gießen, dr Peter Reuter, który tamtego roku sprawował pieczę nad organizacją sympozjum heskich bibliotekarzy, zaprosił mnie z wykładem, chcąc, abym powiedział coś o roli bibliotek w epoce rewolucji cyfrowej. Jako że – pracując w Centrum Mediów i Interaktywności Uniwersytetu w Gießen – od pewnego czasu zajmowałem się przemianami w zakresie technik kulturowych, zgodziłem się. Poza tym miałem świeżo w pamięci wrażenia zebrane podczas podróży do Nowego Jorku, w imponującej New York Pub­lic Library (wspominam o nich na początku rozdziału trzeciego). Artykuł w gazecie „Bild” (który, nawiasem mówiąc, nieco przerysowywał moje wypowiedzi), jak również pozostałe informacje na ten temat, zamieszczone w prasie ogólnokrajowej, nie mówiąc o licznych pytaniach, jakie padły po moim wykładzie – wszystko to uświadomiło mi, że kwestia czytania i pisania w epoce cyfryzacji zajmuje uwagę wielu ludzi. Stało się to punktem wyjścia dla niniejszej książki.

Pracując nad nią, korzystałem z efektów pracy kilku sporych inicjatyw badawczych, realizowanych w ostatnich latach w Centrum Mediów i Interaktywności Uniwersytetu w Gießen. Był to, po pierwsze, projekt łączony zatytułowany „Techniki kulturowe i ich medializacja”, wspierany przez heskie Ministerstwo Gospodarki w ramach tzw. Programu Loewego, po drugie, grupa badawcza „Interactive science – wewnętrzna komunikacja naukowa za pośrednictwem metod cyfrowych”, finansowana ze środków Fundacji Volkswagena, i wreszcie projekt zatytułowany „GeoBib”, dotowany przez Federalne Ministerstwo Kształcenia i Badań w ramach programu „E-Humanities”. Nawet jeśli dalej w książce nie wspominam o wszystkich tych inicjatywach, wywarły one decydujący wpływ na powstanie wyjątkowo inspirującej atmosfery badawczej, która umożliwiła owocną współpracę między licznymi badaczkami i badaczami. Jestem za to bardzo wdzięczny zarówno fundatorom, jak i oczywiście moim koleżankom i kolegom.

Wyrazy wdzięczności jestem zobowiązany wyrazić także wobec moich współpracowniczek i współpracowników, z którymi mogłem prowadzić dyskusje na temat wielu poruszanych w tej książce problemów. Do stopniowego pogłębiania mojej refleksji przyczyniły się w ostatnich latach również rozmaite wykłady i wywiązujące się po nich rozmowy, podczas których mogłem zabrać głos na temat poruszanych tutaj zagadnień. Dziękuję zwłaszcza Sabine Homilius za zaproszenie do wzięcia udziału w cyklu wykładów Towarzystwa Politechnicznego we Frankfurcie, Michaelowi Schindhelmowi za wspólny pobyt w moskiewskim Instytucie Striełka oraz Hansowi-Georgowi Knoppowi za wielokrotne rozmowy w Instytucie Goethego w Monachium na temat „praktyk kultury”. Alexandrowi Mehlerowi dziękuję za ukazanie mi możliwości systemu WikiNect, opisanego na początku rozdziału szóstego. Koleżankom i kolegom z uniwersytetów w Brasilii, Sofii, Warszawie, Poznaniu, Szanghaju i Zhengzhou oraz tym, z którymi miałem okazję rozmawiać na sympozjum germanistycznym w Kilonii, dziękuję za liczne inspiracje w ciągu ostatnich dwóch lat naszych wspólnych spotkań.

Za doskonałą opiekę roztoczoną nad niniejszym projektem książkowym dziękuję Judith Wilke-Primavesi z wydawnictwa Campus, jej pomysły i wskazówki były bezcenne dla struktury i treści pracy. Szczególne podziękowania należą się mojej wieloletniej współpracowniczce, konsultantce i przyjaciółce, Sabine Heymann. Wspierała ona tę inicjatywę na wszelkie możliwe sposoby, gruntownie przejrzała manuskrypt, nie szczędząc cennych komentarzy. Jednak moją pierwszą czytelniczką, niezmordowaną partnerką w dyskusjach i mądrą doradczynią była i jest moja ukochana żona Antje Lobin, której entuzjazm i wsparcie – nawet wówczas, gdy finalizowała swoją własną rozprawę habilitacyjną – w o wiele większym stopniu przyczyniły się do nadania mojemu studium ostatecznego kształtu, aniżeli Antje sama by to chciała przyznać. Dlatego to właśnie jej z całego serca dedykuję tę książkę.

Frankfurt nad Menem, w lipcu 2014 roku

PRZEDMOWA DO POLSKIEGO WYDANIA

Trzy lata po swoim pierwszym niemieckim wydaniu Marzenie Engelbarta ukazuje się w języku polskim, w renomowanej serii Biblioteka Myśli Współczesnej. To dla mnie wyjątkowa radość. Słowa podziękowania należą się w pierwszym rzędzie prof. Januszowi Taborkowi, z którym łączy mnie przyjaźń od czasu jego pobytu na Uniwersytecie w Gießen przed niemal piętnastu laty. On także zainicjował moje związki z Uniwersytetem im. Adama Mickiewicza w Poznaniu, z których rozwinęły się później kontakty z innymi uczelniami w Polsce. W roku 2015 miałem okazję przedstawić swoje przemyślenia na temat cyfryzacji technik czytania i pisania w ramach programu „Akademicki i naukowy Poznań”, na zaproszenie miasta i uniwersytetu. Z tego wydarzenia zrodziła się następnie – u prof. Łukasza Musiała – myśl o tłumaczeniu książki. Mojemu przyjacielowi Januszowi jestem winien najserdeczniejsze podziękowania za wsparcie!

Mam nadzieję, że Marzenie Engelbarta pozwoli polskim czytelnikom lepiej zrozumieć, a przede wszystkim lepiej sklasyfikować obserwowane na co dzień przemiany kultury pisma. Przeobrażenia te następują z ogromną szybkością, mimo to sądzę, że w ciągu ostatnich trzech lat nie wydarzyło się nic, co mogłoby w zasadniczy sposób zmienić moje przekonania. Infrastruktura procesu cyfryzacji jest wprawdzie coraz bardziej rozbudowana i coraz wydajniejsza, jednak wciąż nie znaleźliśmy satysfakcjonującej odpowiedzi na pytanie, w jaki sposób i w jakim stopniu proces ten wpływa na instytucje kultury. Ba, konflikt między wartościami i konceptami tradycyjnej kultury pisma a wartościami i konceptami kultury cyfrowej raczej przybrał jeszcze na sile.

Jeśli dyskusja, jaką toczy się w Polsce na temat przeobrażeń kultury pisma, miałaby skorzystać z refleksji zawartych w Marzeniu Engelbarta, cel polskiego wydania tej książki zostanie bez wątpienia osiągnięty.

Frankfurt nad Menem, w czerwcu 2017 roku

1. SPEŁNIA SIĘ MARZENIE

Na pierwsze popołudnie jesiennego sympozjum amerykańskich informatyków „Fall Joint Computer Conference” w San Francisco 9 grudnia 1968 roku przewidziano coś wyjątkowego. Dr Douglas C. Engelbart ze Stanford Research Center w Menlo Park, oddalonego niecałe pięćdziesiąt kilometrów od miejsca sympozjum, ma przez półtorej godziny mówić o swoim „centrum badań nad rozszerzeniem możliwości ludzkiego umysłu”1. Nawet jeśli tytuł wydaje się idealnie pasować do kształtującej się właśnie wtedy w Kalifornii kultury hippisowskiej, słuchacze, zgromadzeni w liczbie około dwóch tysięcy w zaciemnionym Brooks Hall – jednej z największych sal Convention Center, które gości uczestników sympozjum, oczekują high-tech-show, jakiego ludzkie oczy nigdy jeszcze nie widziały.

W przedniej części sali można dostrzec sześcioipółmetrowy ekran do projekcji wideo, a zamiast mównicy po prawej stronie sceny krzesło, przed którym znajduje się coś w rodzaju obrotowego pulpitu kontrolnego, wyposażonego w kilka dziwnych urządzeń. Spośród tych urządzeń uczestniczący w sympozjum informatycy znają już ze swych własnych komputerów klawiaturę maszyny do pisania. Natomiast urządzenia umieszczone na prawo i lewo od niej są im nieznane. Część po lewej stronie składa się z pięciu klawiszy i nazywa się „klawiatura akordowa” (Chord Keyset). Klawisze są opatrzone znakami, ale i wzajemnie ze sobą połączone, co daje możliwość wprowadzania dużej liczby danych – podobnie jak w wypadku akordów podczas gry na fortepianie. Z prawej strony klawiatury znajduje się niewielkie pudełko z trzema klawiszami, którym można poruszać we wszystkie strony. „Nie wiem, dlaczego nazwaliśmy je myszą. Po prostu tak to się jakoś zaczęło i już tego nie zmienialiśmy”, powie później Engelbart2.

Oba urządzenia wejściowe są ze sobą kompatybilne: lewa dłoń spoczywa na klawiszach klawiatury akordowej, prawa na myszce, wzrok kieruje się na monitor. Taką właśnie pozycję ciała przyjmuje podczas swej stuminutowej prezentacji kierownik siedemnastoosobowej grupy badawczej, ubrany w białą koszulę z ciemnym krawatem, z prezentującym się zadziwiająco nowocześnie zestawem słuchawkowym na głowie. Raz za razem spogląda na prawo w górę, aby skorygować projekcję. Kilka miesięcy później na całym świecie będzie można ujrzeć całkiem podobne obrazy, wysyłane z centrum kontroli pierwszego lądowania na Księżycu – Mission Control.

Od czasów służby w charakterze technika okrętowego podczas drugiej wojny światowej Engelbarta nie opuszczała myśl o połączenia ekranu radarowego z komputerem, tak aby na tym pierwszym móc wyświetlać symbole i grafikę liniową, z tego drugiego zaś korzystać w sposób interaktywny, bez konieczności żmudnego wczytywania kart perforowanych. W roku 1968 istniały już wprawdzie komputery, które umożliwiały większej liczbie użytkowników działania o charakterze interaktywnym, jednak wyniki swojej pracy podawały one wyłącznie za pośrednictwem drukarek. Zamiast tego Engelbart i jego zespół „drukowali” wyniki na ekranie, gdzie na dodatek można je było modyfikować (ekrany telewizyjne jeszcze nie posiadały funkcji tekstowej). Niestety, odpowiedniej wielkości ekrany radarowe były ogromnie kosztowne, a poza tym bardzo migotały, działały bowiem na innych zasadach niż monitory telewizyjne. Rozwiązanie, które ostatecznie zastosowano także podczas prezentacji w roku 1968, było następujące: użyto małego, taniego ekranu radarowego, którego obraz nagrano za pomocą kamery telewizyjnej. W ten sposób można go było transmitować na jeden lub kilka większych monitorów telewizyjnych albo na ekran wielkoformatowy. Równocześnie odwrócono kolory: teraz czarny tekst ukazywał się na białym tle, zniknęło także migotanie.

Świadkowie prezentacji, obecni w Convention Center w tamto grudniowe popołudnie, ze zdumieniem obserwowali, w jaki sposób można modyfikować tekst na ekranie, wymazując poszczególne słowa, wprowadzając nowe lub je przesuwając; jak można przełączać rozmaite wersje czcionek; jak z pomocą myszki wystarczy kliknąć jakieś słowo, aby otworzyć inny plik tekstowy, który następnie pojawia się na ekranie – jest to kliknięcie hiperłącza. Wraz ze swoim najbliższym współpracownikiem, Williamem K. Englishem, Engelbart zademonstrował nawet, w jaki sposób można we dwóch, ale niezależnie od siebie, przetwarzać jeden tekst – i to w tym samym czasie! Mało tego, English znajdował się w laboratorium w Menlo Park, skąd był bezpośrednio połączony z Convention Center nie tylko za pomocą aparatury audio-wideo, ale i dzięki samodzielnie uruchomionemu radiowemu przesyłowi danych. Tym samym po raz pierwszy wykorzystano komputer na potrzeby wideokonferencji. Wszystko po brzegi wypełniała nowoczesna technika, świadectwo ponaddziesięcioletniej pracy badawczej.

Prezentacja Engelbarta może z powodzeniem uchodzić za pierwszą w historii prezentację komputerową, ponieważ przedstawiony w niej system przetwarzania tekstu i system hipertekstowy (o nazwie Online-System, w skrócie NLS) stanowił techniczną podstawę samego wystąpienia. Cały projekt miał na celu zapoczątkowanie ewolucji: wykorzystano NLS po to, by coś zaprezentować, by pokazać rozwój określonych środków technicznych, a następnie z ich pomocą zarządzać całym projektem. Engelbart i jego współpracownicy, połączeni ze sobą dzięki aparaturze audio-wideo, pokazali ponadto, w jaki sposób z pomocą nowego systemu można przesyłać wiadomości tekstowe, nadzorować rozmaite wersje programów i zarządzać dokumentacją hipertekstową. Pojawiła się nadzieja, że dzięki zastosowaniu takich rozwiązań w obrębie własnego zespołu badawczego, później zaś dzięki pozyskiwaniu nowych doświadczeń będzie można stopniowo ulepszać system i dopasowywać go do poszczególnych etapów pracy.

Kiedy Engelbart skończył, dziękując współpracownikom oraz swojej żonie i córkom – im bowiem zadedykował prezentację – rozległy się brawa. To był szczytowy moment jego kariery konstruktora komputerów, a być może i kulminacyjny punkt całego życia. Już niebawem kilku sponsorów cofnie wsparcie dla centrum badawczego w Menlo Park, nie powiedzie się próba wykorzystania NLS w raczkującym systemie internetowym, nie uda się skomercjalizować wyników badań. Jednak idee Engelbarta żyły i inspirowały w dalszym ciągu. Kilku członków zespołu przeszło do firmy Xerox, która w położonym nieopodal centrum badawczym zajmowała się automatyką biurową. Kontynuując projekt Engelbarta, w roku 1973 zaprezentowali oni pierwszy komputer osobisty Alto, mający na wyposażeniu graficzny interfejs użytkownika. Jeden z niewielu egzemplarzy, które nigdy nie trafiły na rynek, otrzymał młody przedsiębiorca, Steve Jobs, ogarnięty wizją produkowania komputerów tanich i przede wszystkim łatwych w użytkowaniu. Był zafascynowany tym całkowicie nowym sposobem wykorzystania komputera. W roku 1983 jego firma Apple rozpocznie sprzedaż pierwszego komercyjnego komputera o nazwie Lisa, wyposażonego w graficzny interfejs użytkownika oraz myszkę3. Rok później pojawi się na rynku o wiele tańszy Macintosh i uczyni z Jobsa miliardera.

*

Prezentacja systemu online stanowiła szczytowy punkt krótkiej jak dotąd historii komputera, liczącej sobie wówczas niespełna dwadzieścia pięć lat. Engelbart jako pierwszy zrozumiał, że komputer może być czymś o wiele więcej niż zwykłym automatem, dokonującym jedynie szybkich obliczeń matematycznych. Chciał go wynaleźć na nowo – jako narzędzie człowieka, a nie sztabu specjalistów. Komputer miał się znajdować zawsze na wyciągnięcie ręki i wspierać ludzi w ich pracy umysłowej. Wcześniej prawie nikomu nie przychodziło do głowy, by w ten właśnie sposób wykorzystywać te monstrualne maszyny. Dane i programy sztancowano w kartach perforowanych, następnie odpowiednio przeszkolony personel wczytywał je do komputerów i dopiero po kilku godzinach można było uzyskać wyniki obliczeń w postaci papierowego wydruku. Engelbart wynalazł „użytkownika”, który jest połączony z komputerem bez ustanku i zamiast nakazywać mu obliczanie równań różniczkowych, za jednym kliknięciem myszki potrafi ułożyć słowa na przykład w… listę zakupów, jak to zostało pokazane podczas prezentacji. Wielu uznało to wówczas za groteskowy i całkowicie pozbawiony sensu sposób wykorzystywania kosztownych cudów techniki. Tymczasem Engelbart chciał dać człowiekowi do ręki narzędzie, które umożliwiałoby mu ni mniej, ni więcej, tylko „rozszerzenie” możliwości jego umysłu.

W systemie Engelbarta po raz pierwszy łączą się ze sobą się trzy, dotąd odrębne, linie rozwojowe technologii informatycznej. Jedna z nich związana była z możliwością dokonywania   a u t o m a t y c z n y c h  obliczeń, czyli sterowania liczbami i symbolami za pomocą odpowiednich programów – od początku istnienia komputerów był to główny obszar działań informatyków. Tymczasem w nowym systemie online istnieją rozmaite sposoby, za pomocą których użytkownik, chcąc tworzyć teksty, może scedować na komputer poszczególne działania, na przykład numerowanie składników listy. To po pierwsze. Po drugie, komputery mogą   i n t e g r o w a ć  ze sobą wszystkie rodzaje danych. Engelbart łączy listę zakupów z wysmakowaną wizualnie mapą miejsc, w których można te zakupy zrobić. Podstawą tego działania jest kodowanie informacji za pomocą układu zero-jedynkowego, tzw. kodu binarnego. Stosuje się go w celu nadania jednolitej formy wszystkim rodzajom danych, dostosowując je w ten sposób do programów komputerowych, bez względu na to, czy chodzi o liczby, teksty, tabele, zdjęcia, grafiki, mapy, dźwięki, czy filmy. Po trzecie, system online jest   u s i e c i o w i o n y  – a więc połączony z innymi komputerami, staje się zatem narzędziem dla grupy ludzi pracującej w systemie sieciowym.

Prezentacja Engelbarta wykorzystywała ponadto stworzone dużym nakładem sił i środków – przy użyciu specjalnie skonstruowanego na tę okazję oprogramowania – połączenie radiotelefoniczne do przesyłu danych4. Podczas gdy sam Engelbart przygotowywał w San Francisco prezentację systemu online, w innym miejscu pracowano już nad technicznymi możliwościami wykorzystania internetu. W zakończeniu prezentacji Engelbart kreślił plany, które zrealizują się „już w następnym roku”. W rzeczy samej, jesienią 1969 roku dochodzi do uruchomienia internetu, początkowo jako sieci obejmującej cztery komputery5.

Prezentacja Engelbarta 9 grudnia 1968 roku po raz pierwszy pozwoliła ludziom uświadomić sobie, że dzięki połączeniu trzech elementów: integracji danych, automatyzacji i usieciowienia może powstać coś nowego – nie tylko kolejna innowacja technologiczna, lecz także odmienny kulturowy wymiar czynności czytania i pisania, odmienny model funkcjonowania języka pisanego i informacji. Hybrydowość, multimedialność i uspołecznienie – z pomocą tych trzech pojęć można obecnie określić wpływ, jaki wynalazki Engelbarta wywarły na techniki czytania i pisania. Odtąd pisze i czyta już nie tylko człowiek, robi to także komputer. Na tekst cyfrowy składa się nie tylko pismo, lecz także grafiki, fotografie czy filmy. I wreszcie człowiek czyta i pisze nie w pojedynkę, lecz wspólnie z innymi. Cyfrowe czytanie i pisanie ma charakter hybrydowy, multimedialny i społeczny, i właśnie dzięki temu radykalnie różni się od technik czytania i pisania, znanych dotąd pod postacią kultury pisma.

Kulturowe techniki pisma od tysiącleci kształtowały ludzką kulturę. Zawsze były pochodną panujących w danym okresie warunków społecznych i technicznych. I tak na przykład. wynalezienie druku w XV wieku doprowadziło do istotnych zmian w technikach czytania, co z kolei zapoczątkowało przemianę całej architektoniki kulturowej następnych stuleci. Od tamtej pory produkowano książki łatwo i masowo, każdy mógł je mieć. Mało tego, dzięki książkom coraz więcej ludzi mogło się uczyć w szkołach, czytać i pisać oraz przyswajać wiedzę dalece bardziej zaawansowaną niż dotychczas. Druk doprowadził do rozkwitu nauki, a gazety sprawiły, że zaczęła powstawać wspólnota komunikacyjna – opinia publiczna, która stała się później inkubatorem przemian społecznych i politycznych. Jedno wszakże pozostawało niezmienne przez te wszystkie stulecia: aby przeczytać jakiś tekst – pisany najpierw odręcznie, potem składany i drukowany przy użyciu środków technicznych – trzeba było jedynie ludzkich oczu. Tekst tworzono za pomocą symboli, które czytano   b e z p o ś r e d n i o.  Czytania należało się co prawda nauczyć, ono samo pozostawało jednak czynnością „naturalną”, na którą rozwój techniczny prawie nie oddziaływał.

Cyfryzacja to zmieniła: tekstów nie tworzy się już za pomocą widzialnych symboli, lecz ukrytego kodu binarnego. Aby czytać i pisać tak zakodowane teksty, potrzebujemy specjalnego urządzenia do czytania i pisania: komputera, jak również odpowiednich programów, które to umożliwią. Takim programem jest na przykład edytor tekstu Word firmy Microsoft, który przekłada na litery ciąg zer i jedynek, a poza tym wykorzystuje wiele innych danych cyfrowych, aby widziane na ekranie litery sformatować w odpowiedniej wielkości, kolorze i czcionce. Dopiero kiedy tak się stanie – w tym celu komputer przeprowadza bardzo obszerne obliczenia – tekst możemy odczytać. To samo dotyczy przeglądarek internetowych na tabletach czy nowych aplikacji na smartfony. Jeśliby pewnego dnia zniknęły wszystkie komputery, a więc wszystkie serwery, laptopy, tablety, smartfony i czytniki e-booków, załamałaby się cała nasza infrastruktura publiczna, ponadto nie moglibyśmy korzystać z olbrzymiej, zgromadzonej przez ludzkość, już zdigitalizowanej części wiedzy, ponieważ bez skomputeryzowanego tłumaczenia kodu binarnego pozostawałaby ona dla nas niedostępna. Jeśli kulturę pisma cechowało to, że wiedza i doświadczenie były dostępne bezpośrednio w postaci pisanej na papierze lub innych nośnikach pisma, to cyfryzacja kładzie takiej kulturze, jaką znaliśmy dotychczas, kres. W rozpoczynającej się właśnie epoce kultury cyfrowej my, ludzie, żyjemy w symbiozie z maszynami, jesteśmy na dobre i złe od nich zależni, a tym samym stajemy się zabawką w rękach ewolucji technicznej.

Zapisywanie tekstów przy użyciu kodu binarnego sprawia wprawdzie, że praca z nimi wymaga więcej wysiłku i powoduje większe ryzyko, jednak zyski są także ogromne. Pierwszą osobą, która to dostrzegła, była matematyczka Grace Hopper. Zajmowała stanowisko badawcze w marynarce wojennej USA i z czasem doszła nawet do stopnia kontradmirała. Jako młoda kobieta już w latach czterdziestych brała udział w pracach nad pierwszymi komputerami6, do których ona i inni specjaliści w tej dziedzinie wprowadzali ręcznie programy sterujące, zapisane w kodzie binarnym – ezoteryczna czynność, wymagająca skomplikowanej wiedzy technicznej, trwająca długo i mało odporna na błędy.

Na początku lat pięćdziesiątych Grace Hopper wpadła na pomysł, aby tę pracę „tłumaczeniową” wykonywały same komputery. Człowiek miał pisać programy w języku dla siebie zrozumiałym, nie oglądając się na wymogi techniczne komputerów. W roku 1952, szesnaście lat przed prezentacją Engelbarta, Hopper opracowała pierwszy program do automatycznego tłumaczenia programów, tzw. A-0-Compiler7. Dzięki niemu komputer nie dokonywał już obliczeń przy wykorzystaniu liczb, tylko tekstów. Co prawda teksty owe były zapisane nie w języku naturalnym, tylko w sformalizowanym języku programowania, lecz wcześniej nikt poza człowiekiem tekstów nie czytał i nie tłumaczył. W klimacie zimnej wojny amerykańscy i radzieccy naukowcy niebawem zaczęli się zajmować techniką tłumaczenia tekstów w języku angielskim i rosyjskim na inne języki. Do legendy przeszedł eksperyment z początku roku 1954, tzw. Georgetown-IBM-Experiment, pierwsza oficjalna prezentacja systemu tłumaczenia maszynowego. Wzbudziła ona wśród opinii publicznej i w kręgach amerykańskich wojskowych ogromne zainteresowanie, system dysponował jednak słownictwem obejmującym zaledwie kilkaset słów i potrafił przekładać na angielski wyłącznie starannie dobrane zdania z języka rosyjskiego8. Jednak właśnie to był początek ery automatyzacji technik czytania i pisania. Później przyszły kolejne wynalazki. Od tej pory nie tylko człowiek potrafił czytać i pisać, umiał to także na swój sposób komputer. To właśnie wtedy utraciliśmy nasz monopol na pismo.

*

Przemiany technik czytania i pisania na skutek cyfryzacji spowodowały głębokie przekształcenia kulturowe. Kultura pisma, która w przeszłości rozpowszechniła się dzięki wynalezieniu druku, manifestuje się w postaci archiwów, rynku księgarskiego, wydawniczego i prasowego. Teksty – w formie książek, gazet i czasopism – stały się częścią potężnej infrastruktury, ukierunkowanej na ich efektywną produkcję, reprodukcję, przechowywanie i dystrybucję. Od stuleci papierowe teksty są głównym instrumentem przekazywania wiedzy i doświadczeń – w szkole i na uniwersytecie, jako element gromadzenia wiedzy i opisu badań, w firmach i organizacjach. Teksty drukowane stanowią fundament społeczeństwa: w administracji państwowej, sądownictwie, prasie, na rynku literackim. Cała ta infrastruktura i wszystkie instytucje są oplecione siecią interesów różnych grup, rodzajów wykształcenia i kierunków studiów, różnymi źródłami finasowania i programami politycznymi. W niektórych obszarach, w których już zauważono symptomy kryzysu, mówi się o wyzwaniach epoki cyfrowej. Co się stanie w przyszłości z gazetami? Przed jakimi wyzwaniami staną biblioteki? Jaką rolę w nauczaniu akademickim może odegrać internet? W jaki sposób wydawnictwa powinny zmienić swój model funkcjonowania? W innych obszarach, na przykład w szkolnictwie, dyskusja zaczęła się dopiero niedawno.

Czytanie i pisanie to techniki kulturowe, a jeśli zmianie ulegają ich uwarunkowania techniczne, one same też się przekształcają. Czytamy i piszemy inaczej, jeśli w grę wchodzi hybrydowość, multimedialność i uspołecznienie. To, co czytamy, odbieramy inaczej; to, co piszemy, inaczej wygląda i jest inaczej ustrukturyzowane. Oprócz zmian instytucjonalnych kres kultury pisma przyniesie również zmianę u każdego z nas. Nasze mózgi dostosowują się do uwarunkowań cyfrowych technik czytania i pisania, nasze umysły inaczej przetwarzają i magazynują informacje zapisane cyfrowo, te zaś inaczej nas kształtują. Nasze myślenie doświadcza kolonizacji ze strony komputerów, podobnie jak wcześniej doświadczało go ze strony książki i druku.

W kolejnych rozdziałach zamierzam szczegółowo omówić te zależności. Przyjrzymy się kulturowym technikom pisma oraz temu, co właściwie należy rozumieć pod pojęciem kultury pisma. Weźmiemy pod lupę przemiany technik czytania i pisania, a także to, w jaki sposób wpływają one na różne obszary naszego życia. Zastanowimy się też, jak owe procesy mogą w przyszłości oddziaływać na infrastrukturę i instytucje czytania i pisania w kulturze cyfrowej. Punktem wyjścia będzie ewolucyjne spojrzenie na kulturę, dzięki któremu da się wyjaśnić wiele pozornie przypadkowych zjawisk. Cyfryzacja kulturowych technik pisma wpływa bowiem nie tylko na gospodarkę, politykę i społeczeństwo – zmianie ulegają także tradycyjne wartości kultury pisma. Koniec epoki pisma nie oznacza, że ludzie przestaną czytać i pisać, będą to tylko robić za pomocą innego medium, cyfrowego, w symbiozie z usieciowionym komputerem: hybrydowo, multimedialnie i społecznie. Nie tylko człowiek, nie tylko pismo, nie tylko ja sam w pojedynkę – te podstawowe wyznaczniki cyfryzacji pozwalają uświadomić sobie, jak w przyszłości będzie najprawdopodobniej wyglądać kultura, niebędąca już kulturą pisma. Marzenie Engelbarta stało się naszą rzeczywistością i zaczyna się ziszczać.

2. KULTUROWE TECHNIKI CZYTANIA I PISANIA

Wyobraź sobie, że budzisz się pewnego ranka i nie potrafisz czytać ani pisać. Wszystko zapomniałeś, pojedynczych liter nie umiesz składać w słowa, są to dla ciebie tylko jakieś geometryczne wzory pozbawione sensu i znaczenia. Okropna wizja! Nagle nie będziesz potrafił załatwiać codziennych spraw. Wprawdzie możesz sobie bez problemów przygotować śniadanie, ale już bezradnie popatrzysz na wibrujący telefon komórkowy, na który ktoś właśnie przysłał ci wiadomość. Nie będziesz rozumiał, kto się z tobą skontaktował i dlaczego, nie będziesz mógł nawet odpowiedzieć, bo przecież nie umiesz już pisać. Ktokolwiek do ciebie napisał, pomyśli, że jego wiadomość do ciebie nie dotarła albo że celowo na nią nie odpowiadasz. Stojąc na stacji metra, nie będziesz mógł zidentyfikować właściwej linii, a jeśli jakimś cudem uda ci się dojechać do pracy, na miejscu ogarnie się poczucie bezradności – bo wszystko będzie miało związek z pismem, z czytaniem i pisaniem. Jeśli wieczorem będziesz chciał pójść do kina lub teatru, nie poznasz repertuarów, a w systemie online nie będziesz mógł zarezerwować biletów. Jedząc kolację w restauracji, nie będziesz umiał przeczytać karty dań. Niemal wszystko, co nas otacza, jest w taki czy inny sposób związane z pismem, a utrata związanych z nim umiejętności równa się katastrofie społecznej – w pracy zawodowej, relacjach z innymi, w obszarze świata społecznego i świata mediów, we wszystkich dziedzinach codziennego życia.

Istnieją ludzie, którym to się przytrafia. Udar mózgu prowadzi do zaniku umiejętności czytania i pisania. Najczęściej jest to związane z połowicznym paraliżem ciała i zaburzeniami mowy, tzw. afazją9. Wskutek aleksji, czyli zaburzenia umiejętności czytania, i agrafii – zaburzenia umiejętności pisania przed chorymi zamyka się świat społeczny i kulturalny, a także możliwość aktywności politycznej. Pismo jest kluczem do naszej kultury, dlatego czytanie i pisanie określa się mianem technik kulturowych. W tym rozdziale zobaczymy, co szczególnego się z tym wiąże.

2.1. TECHNIKI KULTURY

Techniki czytania i pisania od tysiącleci kształtują ludzką kulturę. Człowiek rozwija techniki kulturowe, uczy się ich, po czym przekazuje tę wiedzę kolejnym pokoleniom. W zależności od tego, jak rozumieć pojęcie kultury, można wyróżnić wiele rozmaitych technik kulturowych – począwszy od umiejętności rozpalania ognia i wytwarzania krzemiennych ostrzy w epoce kamienia, poprzez uprawę roli i hodowlę bydła, rzemiosło i technikę, a skończywszy na czytaniu, pisaniu, liczeniu, rysowaniu. Jednak kariera pojęcia kultury od początku wiązała się z bardzo konkretnym odniesieniem: wyrażeniem cultura agri Rzymianie określali uprawę roli, a mówiąc o cultura horti mieli na myśli ogrodnictwo10. Rozpatrując zakres znaczeniowy łacińskiego czasownika colere (z którego wywodzi się rzeczownik cultura), możemy zobaczyć, jak określenie oznaczające początkowo pielęgnację roślin zaczęło się odnosić do pielęgnacji całego obejścia domowego, następnie ciała, ducha (znaczenia: „ćwiczyć” i „studiować”), wreszcie do „pielęgnacji” (adorowanie i okazywanie czci) bóstw. To, czego „pielęgnacja” dotyczy, najwyraźniej jej potrzebuje, w przeciwnym wypadku zdziczałoby, podupadło lub zwróciło się przeciwko nam. Natura powinna się stać kulturą – i nią pozostać. Pismo przechowuje ludzką wiedzę i doświadczenie, a kulturowe techniki czytania i pisania pozwalają nam strzec tego drogocennego dobytku i rozporządzać nim na co dzień. Techniki kultury służą zatem ochronie osiągnięć człowieka11.

Jednak uprawa roli nie polega tylko na konsekwentnej walce z naturą, dzięki niej coś zostaje także wydane na świat, na przykład zboże, z którego pieczemy chleb. Dokładnie tak samo rzecz się ma z kulturowymi technikami pisma: dzięki pisaniu powstają teksty, z kolei dzięki czytaniu można je – albo raczej: ich znaczenie – przenieść do naszych głów. Podobnie jak obecne formy roślin uprawnych powstały dzięki hodowli i stopniowemu uszlachetnianiu roślin naturalnych, tak też kulturowe techniki pisma wydały na świat twory, które bez nich w ogóle by nie zaistniały. Czy kiedykolwiek powstałaby Krytyka czystego rozumu Kanta, gdybyśmy nie mieli pisma? Trudno sobie wyobrazić, aby mógł wyłącznie w głowie rozwinąć się, a później być przekazywany ustnie tak skomplikowany, obejmujący setki gęsto zapisanych stronic12 proces myślowy. Jeśli jednak takie dzieło istnieje w formie pisemnej, może być rozpowszechniane, a następnie dzięki lekturze przyswajane przez innych. Jak uprawa roli, a później rzemiosło i technika wyposażyły zamieszkiwany przez nas świat w dobra materialne i ukształtowały sposób działania człowieka, tak też techniki kultury wyposażają nasz świat duchowy w dobra kulturowe i sposoby myślenia.

Ta właściwość technik kulturowych wywodzi się z wewnętrznej logiki pisma. Pismo w żadnym razie nie odzwierciedla mowy w skali 1:1, lecz – będąc systemem znaków – kieruje się własnymi regułami. Można to dostrzec zwłaszcza na przykładzie takich systemów zapisu, których zadaniem nie jest dokumentowanie języka, na przykład w systemie zapisu matematycznego. Logika tego pisma polega na tym, aby za pomocą prostych, podstawowych operacji rachunkowych dokonywać bardzo złożonych obliczeń. Tylko garstka ludzi zdołałaby obliczyć w głowie sumę dwóch liczb dziesięciocyfrowych, ale już w szkole podstawowej dzieci uczą się, jak to robić pisemnie, i to nawet wtedy, kiedy nie potrafią policzyć do trzydziestu.

Pismo, za pomocą którego utrwalamy nasz język, kieruje się zasadami wynikającymi z niego samego jako systemu znaków, a nie z języka mówionego. Język mówiony nie zna przecież wolnych przestrzeni między słowami, strumień głosek płynie bez ustanku. Przestrzenie między słowami czy rzeczowniki pisane po niemiecku wielkimi literami mają ułatwić czytanie, nie są zatem elementami języka mówionego. Czy mielibyśmy w ogóle jakieś pojęcie określające „słowo”, gdybyśmy nie mogli najpierw widzieć słowa jako czegoś, co w tekście pojawia się między dwiema pustymi przestrzeniami13? Litery, których używamy, pisząc, również nie są prostym odwzorowaniem głosek języka mówionego. W ortograficznym systemie języka można rozpoznać pochodzenie słów i związki między nimi, co pomaga je czytać i rozumieć bez potrzeby oglądania się na język mówiony. Identyczny ciąg głosek zapisujemy na przykład raz jako „morze” (rozległy obszar słonej wody), innym razem jako „może” (czasownik „móc” w trzeciej osobie liczby pojedynczej czasu teraźniejszego), żeby tym sposobem wizualnie odróżnić od siebie dwa odmienne słowa. Spółgłoski „rz” i „ż” wymawia się dokładnie tak samo. Skąd zatem różnice? W słowie „morze” powinniśmy podczas lektury rozpoznać rzeczownik w mianowniku, pisownia „rz” wskazuje na ewentualną wymienność na „r”, z czego wnioskujemy, że rdzeń słowa to „mor-”, końcówka „-e” z kolei jest końcówką mianownikową rzeczownika rodzaju nijakiego. Tymczasem „ż” w wyrazie „może” wskazuje na ewentualną wymienność na „g” (na przykład w formie „mógł”), a koncówka „-e” będzie tu końcówką czasownika w trzeciej osobie liczby pojedynczej czasu teraźniejszego. W ten sposób dosłownie możemy zobaczyć, o jakie słowo chodzi, i nie musimy go wcale słyszeć. Mówiąc, musimy brać pod uwagę kontekst, dopiero w ten sposób dowiadujemy się, jakie słowo wchodzi w grę. To, że zapisywanie słów z jednej strony ujawnia ich budowę (morfologię), z drugiej systematykę fonetyczną (fonologię), nazywamy morfo-fonologicznymi regułami pisowni.

Podane przykłady wyraźnie pokazują, że na system pisma mają wpływ rozmaite czynniki, które należy uwzględnić, chcąc zrozumieć, w jakich warunkach przebiega proces czytania i pisania. Jest to, po pierwsze, pismo jako system znaków i właściwości, jakie w nim stopniowo się ujawniły, na przykład reguły morfo-fonologiczne. Po drugie, nie wolno zapominać, że czytanie i pisanie nie byłoby możliwe bez odpowiednich nośników pisma. Owe nośniki wpływają zarówno na wygląd pisma, jak i na techniczne możliwości pisania, nie wspominając już o odbiorze pisma podczas lektury. Po trzecie, na sposób, w jaki człowiek czyta i pisze, mają wpływ jego możliwości kognitywne, na przykład umiejętność postrzegania i uczenia się. Wreszcie, po czwarte, rodzi się pytanie, kto w ogóle wprowadza techniki kultury i jak? To pytanie o wielkim znaczeniu, o ile chcemy zrozumieć, w jaki sposób pismo może mieć wpływ na cały kulturalny rozwój społeczeństwa. W kolejnych czterech podrozdziałach przyjrzymy się tym czterem zagadnieniom.

2.2. PISMO JAKO SYSTEM ZNAKÓW

W procesie rozwoju kultury pismo nie powstało jeden zaledwie raz, lecz wielokrotnie i od siebie niezależnie: przed około pięcioma tysiącami lat w Mezopotamii (pismo klinowe) i Egipcie (hieroglify), przed czterema tysiącami lat w Chinach, przed trzema tysiącami lat w Ameryce Środkowej (pismo Majów)14. Wszystkie te rodzaje pisma bardzo się od siebie różniły i rozwijały w odmiennych kierunkach. Jedno je wszakże łączyło: nie były to pisma alfabetyczne, nie odzwierciedlały zatem pierwotnie żadnych głosek. Przyjęły one postać stylizowanych symboli odwołujących się do konkretnych znaczeń (piktogramy) – ta zasada stopniowo zaczęła odnosić się także do znaczeń o wyższym stopniu abstrakcji (ideogramy). Dopiero u kresu długiego procesu rozwoju pojawiły się znaki reprezentujące słowa (logogramy), występujące w piśmie chińskim po dzień dzisiejszy15. My również używamy różnych typów znaków, nawet jeśli nie występują one w naszym alfabecie. Na przykład emotikon oznaczający uśmiech ☺ jest piktogramem, ponieważ przedstawia uśmiechniętą twarz. Znak ♪♪ odnosi się często do muzyki, ale nie przedstawia jej graficznie, tylko pod postacią dwóch ósemek; chodzi zatem o ideogram. Jeśli natomiast chodzi o symbol liczbowy 3, to nie odnosi się on tylko do jego znaczenia (liczba „trzy”), którego nie da się wywieść z samego znaku, lecz wiąże się z nim konkretny ciąg głosek, mianowicie /t/-/rz/-/y/. Wyłącznie dzięki takiemu logogramowi można głoskowo tworzyć kolejne słowa, na przykład: „3maj się” („trzymaj się”). Z ☺ czy ♪♪ tak się nie da; któż by się domyślił, co ma oznaczać „☺ając się” („uśmiechając się”) czy „♪♪alny” („muzykalny”)? Oba znaki wnoszą tutaj, inaczej niż to było w przypadku znaku 3, tylko swoje pierwotne znaczenie, a nie ciąg głosek.

Logogramy były także punktem wyjścia dla pism sylabicznych i alfabetycznych. Przed chwilą zobaczyliśmy, w jaki sposób możemy zapisać sylabę „trzy” za pomocą znaku 3, nie mając równocześnie na myśli aspektu znaczeniowego (liczba „trzy”). Tak działają wszystkie logograficzne systemy pisma: dzięki już istniejącym znakom możemy zapisywać kolejne słowa, choćby złożenia lub słowa obce. Nawiasem mówiąc, kontakty kulturowe okazały się niesłychanie owocne dla rozwoju pisma – na przykład kiedy próbowano zapisywać nazwy obcych miejscowości lub obce imiona. Przekładanie całych sylab szybko rodziło kłopoty, bo budowa sylab w różnych językach niekiedy bardzo się od siebie różniła. Dlatego już egipskie hieroglify stosowały tutaj pewien trik: niektórych znaków nie czytano normalnie, czytano tylko ich pierwszą głoskę. Nasz logogram 3 nie oddawałby w takiej sytuacji ciągu głosek /t/-/rz/-/y/, lecz tylko pierwszą głoskę tego ciągu – t. Jeśli wybierze się logogramy tak, ażeby ich początkowe głoski w miarę możliwości wyczerpywały cały zakres głoskowy języka, wtedy otrzymuje się pismo dopasowane do głosek danego języka – a więc pewien rodzaj alfabetu. Czy rozpoznajesz, Czytelniku, jakie słowo kryje się zgodnie z tą zasadą pod zapisem 58385? 5 oznacza „p” od liczebnika „pięć”, 8 – „o” („osiem”), 3 – „t” („trzy”) – otrzymujemy słowo „potop”.

Historycznie rzecz biorąc, pisma alfabetyczne rozwinęły się później od logograficznych i właśnie dlatego zachodni badacze długo uznawali je za wyżej rozwinięte16. Pismo alfabetyczne umożliwia – jak uzasadniano – zapisywanie prawie wszystkich ciągów głosek z pomocą stosunkowo niewielkiej liczby znaków, ponadto da się je bardzo szybko opanować. Słowem, idealny instrument służący przechowywaniu języka mówionego. Ten pogląd miał dwie wątpliwe konsekwencje: po pierwsze, utożsamiono pismo z pismem alfabetycznym, uznając pisma logograficzne i ideograficzne (takie znaki mamy w języku chińskim) za niepotrzebnie skomplikowane i archaiczne. Po drugie, pismo stało się tu czymś drugorzędnym, co najwyżej rodzajem przechowalni dla języka mówionego. Obu tych poglądów nie sposób utrzymać. Na przykład pismo chińskie umożliwia jednolity sposób zapisu bardzo odmiennych dialektów języka chińskiego – dlatego właśnie, że na pierwszy plan   n i e  wysuwa głosek. Z tej racji w całym obszarze wpływów kultury chińskiej pismo chińskie do dzisiaj funkcjonuje w charakterze ogólnie dostępnego i wykorzystywanego środka komunikacji, mimo że z powodu różnic dialektalnych niektórzy nie są w stanie się zrozumieć w mowie. Nawet Japończycy mogą czytać chińskie gazety z pewnym zrozumieniem, mimo że języki chiński i japoński są ze sobą mniej więcej tak samo spokrewnione jak niemiecki z arabskim. Jednak pismo japońskie wykorzystuje chińskie znaki. Związek między oboma językami opiera się zatem na znaczeniu znaków, a nie ich wartości głoskowej.

W kolejnych rozdziałach przyjrzymy się dokładniej, dlaczego logogramy radzą sobie całkiem nieźle, gdy w grę wchodzi czytanie i pisanie. Niestety, językoznawcy bardzo długo traktowali pismo po macoszemu. Jeśli pismo istnieje, jak uważano, tylko po to, by umożliwiać utrwalenie języka mówionego, wówczas nie ma żadnego powodu, aby się nim szczególnie zajmować. Tylko dlaczego ortografia bierze pod uwagę nie tylko głoski, dlaczego zdania zapisane mają odmienną strukturę niż zdania wypowiedziane, a teksty zawierają elementy wizualne, których w żaden sposób nie można przedstawić w języku mówionym? Nie potrafimy tego wyjaśnić, jeśli odwołamy się do dawnych poglądów na pismo, toteż będzie rozsądniej, jeśli potraktujemy system znaków pisma poważnie i oddzielimy go od systemu znaków języka mówionego.

*

Pismo i mowa mają oczywiście ze sobą mnóstwo wspólnych cech, jednak można wskazać wystarczająco wiele elementów, które usprawiedliwiają utrzymywanie podziału między nimi. Z jednej strony są to różnice wynikające z samego nośnika pisma17: pismo składa się z poszczególnych, łatwo wyróżnialnych jednostek, które często wskazują na coś, co nie ma żadnego związku z językiem mówionym. To, co napisane, najczęściej pełni inną funkcję niż to, co wypowiedziane: dzięki pismu transportuje się informacje w czasie i przestrzeni, tymczasem mowa – pomijając techniczne udogodnienia – realizuje się w przestrzeni „tu i teraz”.

Od strony praktycznej o wiele ciekawsze są różnice wynikające stąd dla samego języka. Jeśli bowiem zastanowimy się nad kwestią wyrażeń językowych, dojdziemy do wniosku, że nie można ich przyporządkować bezpośrednio do obszaru pisma lub do obszaru mowy. Na przykład z pozoru typowe wyrażenie języka mówionego „czego, palancie?” można znaleźć również na czacie, z kolei pozornie typowe dla języka pisanego zdanie „należy niezwłocznie złożyć wniosek o wgląd w akta w odnośnym sądzie okręgowym” można usłyszeć podczas rozmowy prawników. Z tego powodu Peter Koch i Wulf Oesterreicher rozróżniają pojęcia „pisany” i „mówiony”, każdorazowo odwołując się do dwóch wariantów: medialnego i koncepcyjnego18. „Pisane” medialnie jest to, co rzeczywiście podlega wizualnemu zapośredniczeniu, na przykład artykuł prasowy, z kolei „pisane” koncepcyjnie jest to, co mniej lub bardziej wskazuje na typowe właściwości języka pisanego, nawet jeśli nie zostało wyrażone za pomocą pisma. Na przykład tekst ustawy jest sporządzony w medium pisma – określamy go zatem jako pisany medialnie. Zarazem jest pisany również koncepcyjnie, albowiem w przypadku ustaw nie bierze się pod uwagę tego, czy są one zrozumiałe w obszarze słowa mówionego: składają się z długich i skomplikowanych w budowie zdań, zawierają złożone grupy rzeczowników i nie mają osobistego odniesienia do czytelnika lub autora. Ustawy są pomyślane tylko po to, by je czytać, i to określa ich kształt na poziomie językowym.

Jednak pisemność medialna i koncepcyjna wcale nie muszą ze sobą iść w parze i właśnie takie przypadki są najciekawsze. Kościelne kazanie tworzy się jako medialnie mówione, ale często wykazuje ono przecież cechy znamienne dla pisemności koncepcyjnej. W komunikacji esemesowej rzecz się przedstawia na odwrót: z medialnego punktu widzenia ma ona cechy pisma, lecz koncepcyjnie jest mówiona. Nie ma znaczenia, czy kazanie zostało przygotowane pisemnie i potem odczytane – ważne, że kazania się słucha, a nie je czyta. Powód jest całkiem prosty: jeśli mamy osobisty kontakt z zaufanymi osobami, używamy innych słów, inaczej tworzymy zdania i jesteśmy ogólnie rzecz biorąc bardziej spontaniczni aniżeli w sytuacji oficjalnej, w towarzystwie osób, które ledwo znamy, które być może są nawet zupełnie anonimowe i mają inne oczekiwania w stosunku do tego, co przekazujemy. Metod dopasowania się do takich okoliczności uczymy się przez lata w szkole, ale media elektroniczne (telefon, radio, telewizja), a nade wszystko cyfrowe (komputer i internet) w istotny sposób odmieniły nasze poczucie bliskości i dystansu. Niepewność w odniesieniu do komunikacji online, a nawet jej krytyka często biorą się stąd, że warunki komunikacji pisemnej nie zostały właściwie rozpoznane lub świadomie je zignorowano. W wielu takich nowych obszarach komunikacyjnych nie istnieją jasne zasady. Czy nadanie statusu na Facebooku jest operacją koncepcyjnie mówioną, czy pisaną?

2.3. NOŚNIKI PISMA

Pismo jest zawsze czymś wizualnym19. Aby jednak można było dostrzegać znaki, trzeba dysponować nośnikami, jakimś medium. W historii istniało ich wiele: kości, kamień, glina, drewno, wosk, metal, papirus, pergamin, papier20 – pisać da się właściwie na wszystkim, co odznacza się wystarczającą trwałością. Każdy z owych materiałów ma właściwości, które wpływają na wygląd pisma i samo pisanie. Jeśli chcemy użyć metalu jako medium, musimy pisać za pomocą narzędzi do grawerowania. W przypadku papieru można użyć pióra, rysika lub pędzla – za każdym razem pismo wygląda trochę inaczej. Szczególny kształt chińskich znaków bierze się stąd, że zapisywało się je pędzelkiem; przy użyciu pędzla linie poziome i ukośne nanosi się precyzyjniej niż zaokrąglenia. W chińskim piśmie pieczęciowym, z którym mamy do czynienia w druku wypukłym, znaki wyglądają inaczej dlatego, że wykazują zaokrąglenia i równomierną grubość linii. Z kolei kształt większości współczesnych czcionek wykorzystywanych przy zapisywaniu alfabetu łacińskiego wywodzi się z czcionki Capitalis Monumentalis, wzorowanej na kroju pisma stosowanego na rzymskich inskrypcjach na kolumnach i fasadach21. Prosta, pozbawiona ozdób forma tego pisma wynikała z ograniczonych możliwości obróbki kamienia, a ponadto miała umożliwiać czytanie nawet z dużych odległości.

Pismo można postrzegać jako pra-medium. Utrwala się je na jakimś obiekcie, następnie ów obiekt jest gdzieś składowany, wystawiany na widok publiczny, transportowany, przekazywany dalej. Zresztą łacińskie słowo mediumdoskonale to oddaje: oznacza „środek” lub „to, co leży w środku”, i taki na przykład list, który wysyłamy pocztą, jest właśnie w tym sensie medium, czymś, co znajduje się pomiędzy dwojgiem ludzi, jednocześnie ich łącząc. Zawierają się w tym wszystkie najważniejsze pytania, na które musi odpowiedzieć każdy system mediów: w jaki sposób produkuje się medium – tekst pisany? Jak się je kopiuje? Jeśli chodzi o pismo, tworzy się je przy użyciu kulturowej techniki pisania. W jaki sposób dochodzi do przyswojenia przekazywanej przez medium informacji? Recepcja ma miejsce dzięki kulturowej technice czytania. Jak się rozsyła i rozpowszechnia medium – tekst? W postaci fizycznej, na przykład statkiem lub pocztą. Jak wysokie są koszty? Początkowo były bardzo wysokie, bo pracę wykonywano ręcznie, trwała długo i wymagała drogich materiałów.

Można to sobie dobrze uzmysłowić na przykładzie średniowiecznych manuskryptów. Obejmujące setki stron tomy kopiowano i ozdabiano ręcznie. Inaczej niż dzisiaj, kiedy ręcznie piszemy jedynie na użytek prywatny, manuskrypty sporządzano w klasztornych skryptoriach na potrzeby liturgii, kształcenia i ewangelizacji, a przede wszystkim dla potomności22. Dlatego kwestią szczególnie istotną była czytelność tekstów. Antyczna i średniowieczna kultura manuskryptów wcześnie rozwinęła rodzaje pisma, które miały to gwarantować23, przy czym nieustannie podlegały one modyfikacji; głównie dotyczyło to sposobu ułożenia znaków względem siebie. W VII wieku pojawiła się myśl, aby poszczególne słowa, składające się na tekst, oddzielać od siebie pustymi przestrzeniami. Dzięki temu można było wyróżnić słowa jako jednostki znaczeniowe tekstu i nadać płynność procesowi lektury. W XII wieku ostatecznie dopracowano tę metodę, dzięki czemu rozwinięto umiejętność cichego czytania. W starożytności bowiem czytanie było jeszcze równoznaczne z głośnym czytaniem24.

Wtedy też w Europie zaczęto pisać teksty w liniach poziomych od lewej do prawej. Nie było to wcale oczywiste – inne kultury pisma, na przykład japońska, przyjęły odmienną metodę: teksty zapisuje się tam w liniach pionowych z góry na dół od prawej do lewej. Zanim u schyłku starożytności „wynaleziono” książkę, stosowano zwoje (pergaminowe i innego rodzaju), gdzie taki rodzaj zapisu znajdował swoje uzasadnienie. Materiał zwijano horyzontalnie, podobnie jak to można jeszcze teraz zaobserwować w synagogach (Tora). Obie metody miały ponadto swoje dwa warianty, można było zamieniać stronę lewą i prawą. W starożytnej Grecji praktykowano nawet inną jeszcze metodę: pisano naprzemiennie, w jednej linijce od lewej do prawej, w następnej od prawej do lewej, potem znów od lewej do prawej. W co drugiej linijce nadawano odwrotną kolejność nie tylko słowom, lecz i – zapisywanym w odbiciu lustrzanym – poszczególnym literom25. Metoda ta, o nazwie bustrofedon (od starogreckiego bous: „wół” i stroph: „obrót”, „zwrot” – obrazowe ukazanie pracy wołu podczas orki), dla piszącego może być wprawdzie dość efektywna, jednak od czytelnika wymaga niemało wysiłku, ponieważ trudniej tu rozpoznać słowa. Toteż nie utrwaliła się ona w żadnej kulturze.

*

Dwuwymiarowość powierzchni pisma od zawsze stanowiła wyzwanie26. Dzięki optymalizacji rodzajów zapisu, uporządkowaniu rozkładu liter w jednolitych linijkach i wprowadzeniu pustych przestrzeni między słowami podwyższono stopień czytelności tekstu. Powierzchnia zapisu daje ponadto możliwość włączenia do tekstu informacji, których nie obejmuje mowa. Dodatkowe znaczenie można uzyskać choćby tylko dzięki wyborowi odpowiedniej czcionki. To, w jaki sposób zapiszę nazwę Deutschland – czy tzw. gotykiem (), czy w postaci futurystycznej (), czy raczej żartobliwej () – na plakacie wyborczym będzie nieomal równoznaczne z przyjęciem określonej postawy politycznej. W mowie nie da się tych różnic zaznaczyć tak wyraźnie.

Wewnętrzny podział tekstu – mniej rzucający się w oczy element wizualny – daje się zauważyć praktycznie wszędzie. Odstępy to geometryczne jednostki tekstu, odpowiadające jednostkom znaczeniowym. Tytuły są odstępami wyróżnionymi typograficznie, o objętości rzadko przekraczającej dwie linijki – traktujemy je jako informacje o kwestii omawianej w kolejnych ustępach. Inskrypcje, legendy, przypisy dolne i końcowe, indeksy słów, bibliografie – we wszystkich tych przypadkach wykorzystuje się płaszczyznowość medium tekstu, chcąc wyjść poza znaczenie przekazywane za pomocą samego tylko języka. Tekst otrzymuje dodatkowe znaczenie dzięki wizualnym środkom przedstawienia, których nie sposób wyrazić językowo, chyba że wprost nazwiemy to, czym są. Proszę choćby zauważyć, jaką różnorodność dizajnu tekstu znajdziemy w kolorowych magazynach! Kolory, powierzchnie, kształty, ramy, wzory, znaki – wszystkich ich używa się niczym elektrowni produkujących dodatkowe znaczenia; energię estetyczną, by tak rzec27. Tekst jest tworzony nie tylko przez język, lecz i przez swój wygląd, to, co w nim widzimy – poza samym językiem.

Rozwój dizajnu tekstowego bardzo dobrze można zaobserwować na przykładzie codziennej prasy. Najstarsze znane gazety, „Relation” ze Strasburga i „Aviso” z Wolfenbüttel (1609)28 składały się, jak wszystkie gazety przez kolejne dwa stulecia, z tekstu ciągłego, niemal nie różniąc w tym względzie się od drukowanych książek. Stopniowo, dzięki spacjowaniu, zaczęto wyszczególniać niektóre słowa, co doprowadziło do powstania nagłówków. Dopiero w XIX wieku nastąpiło przejście do najpierw dwu-, potem trzy-, a jeszcze później do wieloszpaltowego layoutu. Jednak i wtedy jeszcze artykuły wykazywały strukturę sekwencyjną. W znanej nam obecnie formie gazeta ukształtowała się dopiero w XX wieku. Zależnie od długości tekstu i wagi tematu artykuły mają jedną szpaltę lub więcej, a każda z nich pokrywa dany obszar powierzchni strony jako moduł znaczeniowy. Szpalty nie mają dokładnej kolejności, są jednak pogrupowane stosownie do swojej treści i znaczenia.

To zadziwiające, jak długo ten proces trwał w wypadku gazet. Podobne tendencje można jednak zaobserwować także w innych rodzajach tekstu, na przykład w podręcznikach, gramatykach, książkach kucharskich. W językoznawstwie mówi się o rodzajach tekstu. Jeśli mówimy o gazecie, mamy na myśli określone cechy treściowe, językowe i wizualne, ułatwiające nam codzienny kontakt z prasą. Wiemy dokładnie, czego i gdzie się spodziewać, wiemy, że nagłówek i umieszczony pod nim lead zawierają wstępne informacje z artykułu i na ich podstawie często podejmujemy decyzję, czy tekst w ogóle przeczytamy. Oczekujemy określonego modelu uporządkowania artykułów na stronie, jak i w całej gazecie. Same artykuły to podrodzaje danego rodzaju gazety – w nich bowiem również zachowuje się określone reguły przedstawiania, dotyczące języka, stylistyki i struktury. Fakt istnienia odróżnialnych od siebie rodzajów tekstu niezwykle upraszcza nam zatem kontakt z nimi i pozwala lepiej rozeznać się w dżungli znaczeń. Aby uzyskać dostęp do tekstu, czytelnik nie musi zużywać tyle energii umysłowej – wie już z góry, na co powinien zwrócić uwagę, a co jest raczej nieistotne. Z kolei dla autora tekstu odnośne reguły to rodzaj wytycznych, ułatwiających przemieszczanie się po ogromnym obszarze możliwości. Przez całe życie regularnie odświeżamy sobie naszą wiedzę o istniejących rodzajach tekstu oraz przyswajamy sobie reguły tych nowo powstających. Już w szkole dzieci nie tylko uczą się czytać i pisać, ale i zdobywają wiedzę na temat różnych rodzajów tekstu, a następnie ćwiczą jej zastosowanie, na przykład pisząc wypracowania czy sprawdzania.

W jaki sposób praktycznie z niczego powstają nowe rodzaje tekstu, można śledzić w internecie od początku lat dziewięćdziesiątych29. Zanim rozpowszechniła się stosowana obecnie na stronach informacyjnych struktura portalowa, wydawnictwa prasowe w bardzo rozmaity sposób próbowały umieszczać informacje w sieci. Odtwarzano na przykład widok drukowanych stron lub na początku umieszczano dział z drobnymi ogłoszeniami. Z czasem ukształtował się nowy rodzaj tekstu sieciowego, ułatwiający czytelnikowi orientację, podobnie jak w wypadku gazety drukowanej: główne wiadomości umieszcza się w centrum, powyżej jest miejsce na znaki logo i nawigacji, po prawej na główne oferty serwisowe, u dołu mamy następne, pogrupowane tematycznie wiadomości, na zewnątrz reklamę. Podobną konwencję stosuje się na stronach startowych uniwersytetów, urzędów, sklepów internetowych, na listach wyników wyszukiwania, w portalach społecznościowych i w wielu innych miejscach. Funkcje tekstowe w powiązaniu z aspektem wizualnym doprowadziły do powstania nowych rodzajów tekstu, a nasza wiedza na ten temat stanowi istotny element procesu czytania i pisania.

2.4. PISMO W NASZYCH GŁOWACH

Wielka jest różnorodność języków i systemów pisma, jedno wszakże pozostaje niezmienne – człowiek, który musi percypować teksty własnymi oczami i przetwarzać je we własnym mózgu. Amerykańska neurokognitywistka Maryanne Wolf opisuje w swojej książce Proust and the Squid: The Story and Science of Reading Brain poszczególne stadia uczenia się przez ludzki mózg czytania. Wolf wychodzi z założenia, że nie rodzimy się molami książkowymi; mózg musi sobie dopiero mozolnie przyswoić umiejętność czytania30. Można to stwierdzić historycznie, śledząc rozwój pisma od tysięcy lat, a także jednostkowo, bo wprawdzie każdy człowiek ma wrodzoną umiejętność posługiwania się językiem, jednak czytania i pisania – już nie. Nie istnieją geny odpowiedzialne za te techniki kulturowe, dlatego każde nowe pokolenie czeka mnóstwo pracy związanej z zaprogramowaniem mózgu na użytek języka pisanego, co wymaga bardzo wielu ćwiczeń. Dochodzi przy tym do powiązania struktur odpowiedzialnych z jednej strony za umiejętność posługiwania się językiem, z drugiej za umiejętność patrzenia, które to powiązanie samo w sobie jest procesem w najwyższym stopniu nienaturalnym. Toteż badacz czytania, Stanislas Dehaene, nazywając człowieka „naczelnym, który potrafi czytać”, ma na myśli to, że w trakcie mozolnego, trwającego wiele tysięcy lat procesu gatunek ludzki sam przystosował się do czytania, mając do dyspozycji umiejętności, które pierwotnie powstały w całkiem innych celach. Następnie – dotyczy to na przykład wyglądu znaków – stopniowo nadał pismu taki kształt, który pozwala je rozumieć i przetwarzać z pomocą dyspozycji umysłowych ukształtowanych jeszcze w epoce kamiennej31.

Język warunkuje czytanie32. Ucząc się go, człowiek buduje w sobie intuicyjne rozumienie języka, pozwalające mu szeregować symbole językowe według podziału na poziom głosek, cząstek słowotwórczych, słów i zdań. Wychowanie językowe pogłębia i przyspiesza ów proces: dziecięce rymowanki, zrytmizowane piosenki, klaskanie czy wyrazista intonacja wspomagają mózg dziecka w procesie budowy struktur odpowiedzialnych za percepcję języka. Już przedszkolaki słyszą wokół siebie miliony słów, do których przyswajania przystosowują się ich mózgi. Pięciolatek, któremu dużo się czyta, może mieć w tym względzie przewagę ponad trzydziestu milionów usłyszanych słów w stosunku do dziecka, któremu się nie czyta33. Wraz z zasłyszanymi słowami tworzą się związki między ludźmi, zwierzętami i rzeczami, między uczuciami, doświadczeniami i opowieściami – krótko mówiąc: znaczenia. Wszystko razem tworzy kapitał językowy, używany podczas nauki czytania.

Drugą okolicznością warunkującą umiejętność czytania i pisania jest postrzeganie wzrokowe, widzenie. Nasze oczy nie prześlizgują się w sposób ciągły po rzędach znaków, lecz poruszają się małymi skokami, wykonując tzw. ruchy sakkadowe34. Długość tych skoków odpowiada przeciętnie ciągowi ośmiu liter. Między nimi następują przerwy, pozwalające dostrzec tekst przez około ćwierć sekundy (fiksacje). Dzieje się tak, ponieważ na powierzchni siatkówki istnieje tylko bardzo mały obszar precyzyjnie rejestrujący bodźce wzrokowe: naprawdę wyraźnie dostrzec można tylko sam punkt fiksacji, a ze stopniowo coraz mniejszą wyraźnością – cztery do pięciu znaków na lewo i prawo od niego. Na skutek skokowego postrzegania poszczególnych miejsc tekstu części leżące pomiędzy punktami fiksacji pozostają nieostre. Wiedzę o nich uzupełnia się w oparciu o istniejące uprzednio oczekiwania i przypuszczenia. Już zatem na poziomie percepcji czytanie jest aktem konstruktywnym. Psychologiczne badania nad czytaniem dostarczają wielu informacji o procesie rozumienia tekstu, zwłaszcza informacji na temat ruchów sakkadowych i długości trwania fiksacji. Oba te elementy są zależne od czynników językowych i treściowych, a wszystko razem umożliwia wgląd w procesy kognitywnego przetwarzania tekstu.

Płynne czytanie nie polega na bardzo szybkim rozpoznawaniu kolejnych liter, a następnie składaniu ich w słowa. Znane czytelnikowi słowa są rozpoznawane jako całości, w pewnym sensie jako obrazy35. Tym samym wyćwiczony czytelnik pisma alfabetycznego jest w swym postępowaniu podobny do czytelnika pisma logograficznego: obaj uznają obraz danego słowa w piśmie za symbol słowa jako takiego, jego znaczenia i tworzącego go ciągu głosek. Czytelnik pisma alfabetycznego zmienia sposób działania tylko wtedy, gdy nie zna jakiegoś słowa; wówczas odczytuje słowo litera po literze. Nawiasem mówiąc, umiejętność czytania słów w językach z pismem alfabetycznym pozwala również wyjaśnić, dlaczego reformy ortograficzne zawsze wzbudzają tak wielkie obiekcje: wprawdzie krytykę uzasadnia się najczęściej, sięgając po argumenty z obszaru języka i tradycji, lecz w istocie bardzo często stoi za nimi po prostu niezgoda na wysiłek związany z przeprogramowaniem naszych mózgów na percepcję nowych obrazów–słów.

Ten rodzaj lektury można przyrównać do podążania za śladem zwierzęcia odciśniętym na powierzchni gruntu: odcisk łapy jest znakiem czegoś innego niż sama łapa – znakiem żywej istoty i układa się w linię podobnie jak słowa w tekście. Ludzka umiejętność czytania śladów, przynosząca wymierne profity już w epoce kamiennej, z pewnością ma wiele wspólnego z późniejszą umiejętnością czytania tekstu. Czytanie nie polega jednak na odcyfrowywaniu linearnego ciągu znaków – już w poprzednim rozdziale zobaczyliśmy, że powierzchnia, na której utrwala się pismo, również może sobą coś wyrażać; treść niejęzykowa wzbogaca ogólne znaczenie tekstu. Dostęp do znaczenia powierzchni tekstu uzyskujemy w podobny sposób, w jaki nasi przodkowie „czytali” krajobraz. Nie chodziło im o to, czy ów krajobraz był ładny, czy brzydki, „czytali” go w bardzo konkretnym celu: gdzie można znaleźć źródło wody? Gdzie schronienie? Jakich obszarów lepiej unikać, ponieważ w razie niebezpieczeństwa nie dają możliwości ucieczki? Jakie tereny mogą być opanowane przez niebezpieczne zwierzęta? Gdzie znaleźć pożywienie?

Być może to jest właśnie ta pradawna ludzka umiejętność, umożliwiająca dostrzeganie w tekście czegoś więcej niż tylko metody utrwalania języka. Być może dzięki temu powierzchnię tekstu można czytać jak krajobraz znaczeń. Gdzie dowiem się czegoś na dany temat? Co jest istotne, a co niekoniecznie? Co interesuje mnie w szczególnym stopniu i w jakiej kolejności czytam? Badania nad psychologią czytania dostarczyły mnóstwo informacji na temat procesów zachodzących podczas lektury językowej, linearnej, jednak prawie nic nie mówią o niejęzykowym odczytywaniu powierzchni tekstu. Ruchy sakkadowe nie wskazują na określony kierunek i odległość, to czytelnik musi zdecydować, na czym i w jakiej kolejności się zatrzyma. Czytanie linearne i równomierne ruchy sakkadowe stanowią jedynie część pozornie chaotycznej lektury powierzchni tekstu, przebiegającej we wszystkich kierunkach i małymi skokami.

Można to zbadać, rejestrując ruchy gałki ocznej. Dowiadujemy się wówczas nie tylko tego, w jaki sposób ludzie przebiegają wzrokiem stronę gazety. Także sami twórcy gazet mogą się dzięki temu dowiedzieć, czy stosowany przez nich dizajn tekstu jest skuteczny. Dlatego takie eksperymenty bardziej interesują badaczy mediów niż psychologów. Hans-Jürgen Bucher z uniwersytetu w Trewirze rejestrował wraz ze swoim zespołem ruchy gałki ocznej czytelników gazet36. Ustalił, że ich uwagę przyciągają głównie elementy wyróżnione, takie jak zdjęcia czy teksty w ramkach, zawsze jednak ma to związek z usytuowaniem owych elementów na stronie. Istotniejsze jest wszakże kolejne odkrycie Bluchera: przebiegając wzrokiem stronę, czytelnicy podążają w bardzo odmiennych kierunkach. Wpływa na to uprzednia wiedza czytelnika, jego zainteresowania, wiek, płeć, ogólne doświadczenie w lekturze prasy. Nie da się przewidzieć, w jakiej kolejności dany czytelnik będzie przeglądał stronę i percypował dane tam zawarte37. Jeśli jednak nałożymy na siebie wykresy ruchów gałek ocznych wszystkich badanych osób, wówczas wyraźnie dostrzeżemy punkty ześrodkowania uwagi. Pokazuje to, że czytelnik gazety ma do wykonania dość skomplikowane zadanie, podczas którego nieustannie musi podejmować określone decyzje: gdzie się znajduję na stronie? Gdzie patrzę w następnej kolejności? W jakim stosunku do siebie znajdują się elementy umieszczone na stronie?38 Dlatego lektura gazety jest niczym nieustannie zmieniająca się gra, to interakcja między czytelnikiem a medium – czytelnik musi rozwiązać określone zadania, a dzięki odpowiedniemu ukształtowaniu powierzchni gazeta daje mu wskazówki, jak to zrobić.

*

Przyjrzyjmy się temu, co dzieje się w naszych głowach, gdy piszemy. Psychologowie przebadali czytanie znacznie dokładniej niż pisanie, a to dlatego, że czytanie jest czynnością kognitywną, którą łatwiej można wyizolować dla celów badawczych. Podczas pisania chodzi przecież nie tylko o to, żeby nanosić na papier słowa i zdania albo wklepywać je w komputer. Piszący musi zaplanować treść, wybrać właściwy rodzaj tekstu, rozwinąć jakieś wyobrażenie na temat jego struktury, formułować, redagować, poprawiać – i to nie po kolei, tylko równocześnie, postępując naprzód lub cofając się do wcześniejszych faz. Toteż badania nad pisaniem sprowadzają się przeważnie do tego, aby wszystkie zachodzące, nakładające się na siebie procesy połączyć w odpowiednie modele39. Szczególne trudności sprawia zrozumienie treściowego aspektu procesu pisania. Wprawdzie łatwo dywagować, jakie systemy i procesy kognitywne biorą w tym udział, lecz prawie niczego nie da się wykazać bezpośrednio. Drobiazgowe studia próbują na przykład wyjaśnić rolę, jaką wiedza na temat świata pełni w procesie pisania, a następnie wyjaśnić kwestię, czy w ogóle można jasno wyznaczyć granicę między treściowym i językowym aspektem pisania.

Inną kwestią jest, na ile proces pisania przebiega automatycznie40. W szkole spędzaliśmy oczywiście mnóstwo czasu, aby biegle opanować umiejętność pisania, z biegiem czasu coraz bardziej koncentrując się na treści, a mniej na formie. Z drugiej strony nawet ktoś, kto doskonale potrafi pisać, podczas pisania musi dokonywać wielu decyzji – świadomie, a więc już nieautomatycznie, decydując się na takie czy inne słowo, na taką czy inną konstrukcję zdaniową lub argumentacyjną. A już z pewnością podejmuje te decyzje tam, gdzie należy zachować wyuczone reguły, na przykład w ortografii i interpunkcji. Toteż badając proces pisania, naukowcy muszą skupiać się na problemach cząstkowych, które dają choćby cień szansy na satysfakcjonujące rozwiązanie. Takim zagadnieniem jest pisanie odręczne41 czy pismo będące przedmiotem zainteresowania kryminologii. Obejmują one badania nad tekstami w kontekście ich prawdziwości, identyfikacji piszącego lub okoliczności powstania. Chodzi zatem o ustalenia dotyczące tekstów, o których chcemy się dowiedzieć czegoś więcej – dokumentu, co do którego istnieje podejrzenie, że go sfałszowano, plagiatu, listu szantażysty, rzekomych dzienników Hitlera42.

Trzecim obszarem, dobrze nadającym się do badań, a równocześnie wyjątkowo ważnym, jest kwestia nauki czytania i pisania. Skoro nauczyciele chcą nauczyć dzieci tych technik kulturowych, muszą dysponować określonym wyobrażeniem kolejnych etapów całego procesu nauki oraz wiedzą o wykorzystywanych w tym celu umiejętnościach – odzwierciedlają to (lub przynajmniej powinny) plany nauczania. Czytania i pisania zasadniczo się przy tym nie oddziela. Motto brzmi: „czytać, pisząc”43. Modele stosowane do badań nad akwizycją językową rozróżniają rozmaite fazy, które dzieci przechodzą w trakcie nauki44. Pięć spośród nich wyszczególnia znany model Klausa B. Günthera45: najpierw faza przygotowawcza, w której idzie o stosowanie obrazowych przedstawień i symboli. Następnie trzy fazy, w których dziecko przechodzi od całościowego, często fałszywego rozumienia słowa, poprzez literowanie aż do ortograficznego rozumienia słowa. W piątej fazie dziecko, wykształciwszy w sobie procesy automatyczne, nabywa wprawy w czytaniu i pisaniu. Jest to stadium, w którym znajduje się każdy, kto biegle czyta i pisze.

Refleksje nad procesami nauki czytania i pisania u dzieci mają długą tradycję. Współczesne badania uznają naukę pisania za proces akwizycji umiejętności, dokonujący się w określonych fazach46. Pojawia się pytanie, w jaki sposób nad naszymi podstawowymi umiejętnościami językowymi potrafimy nadbudowywać te, które dotyczą umiejętności pisania tekstów. Praktycznie uczymy się tego już od pierwszych lat szkolnych, pisząc wypracowania. Zagadnieniem badawczym ta kwestia stała się jednak dopiero wówczas, kiedy zrozumieliśmy, że nie piszemy pojedynczych słów i zdań, lecz całe teksty. Lingwista i dydaktyk Helmuth Feilke odkrył, że również ten element akwizycji językowej dokonuje się w następujących po sobie fazach47. W pierwszej młodzi adepci pisania, budując tekst, kierują się z początku własnymi uczuciami, a dopiero potem, w fazie drugiej, która następuje około dwunastego roku życia, biorą pod uwagę wynikającą z przedmiotu zagadnienia logikę pisania, na przykład opisując jakiś budynek, który przemierzają w myślach. W trzeciej fazie, przypadającej na około piętnasty lub szesnasty rok życia, dochodzą elementy formalne i związany z nimi porządek wywodu, na przykład argumentacja za i przeciw, wyliczanie kolejnych punktów związanych z omawianą treścią itp. I wreszcie w czwartej fazie zdobywamy umiejętność kształtowania tekstu w taki sposób, jak gdybyśmy prowadzili wewnętrzny dialog z wyimaginowanym czytelnikiem, dopasowując elementy kształtujące tekst do oczekiwań i założeń tego odbiorcy. Przechodząc te cztery fazy, dzieci zdobywają również wiedzę o rodzajach tekstu i ich własnościach – to jednak, że równolegle zdobywają one wiedzę na temat dizajnu tekstu, jak dotąd nie odgrywało w badaniach żadnej roli.

2.5. KTO CZYTA I PISZE, I JAK TO SIĘ DZIEJE?

Na początku tego rozdziału zaproponowałem czytelnikowi eksperyment myślowy: co by się stało, gdybyśmy nagle przestali umieć czytać i pisać? Sytuacja, w której ów straszliwy scenariusz mógłby się urzeczywistnić, to na przykład mechaniczne uszkodzenie mózgu. Inną okolicznością, bardziej naturalną, jest analfabetyzm. Od XVIII wieku istnieje w Niemczech i Austrii powszechny obowiązek szkolny48, ale niemało absolwentów szkół w późniejszych etapach życia traci umiejętność czytania i pisania – częściowo lub całkowicie. Nazywamy to analfabetyzmem funkcjonalnym, w odróżnieniu od naturalnego analfabetyzmu ludzi, którzy nigdy nie mieli możliwości nauczyć się czytania i pisania. Nie istnieją dokładne dane na ten temat, trudno je także pozyskać, ponieważ przeprowadzenie ankiet pisemnych jest w naturalny sposób niemożliwe, z kolei podczas ankiet ustnych wstyd ankietowanych prowadzi do zafałszowywania wyników. Obszerne badania uniwersytetu w Hamburgu w roku 2011 wykazały, że około czternastu procent niemieckich obywateli między osiemnastym a sześćdziesiątym czwartym rokiem życia należy określić jako funkcjonalnych analfabetów. Spośród nich cztery procent nie jest w stanie zrozumieć znanych sobie wcześniej słów, jeśli występują one w kontekście całego zdania49.

Jeśli chcemy w dalszym ciągu mówić o tym, w jakim stopniu pismo, czytanie i pisanie są elementem życia społecznego, musimy wprowadzić pojęcie piśmienności. Żyjemy w społeczeństwie na wskroś piśmiennym, albowiem prawie wszystko – czy to w obszarze gospodarki, czy to edukacji, czy sądownictwa – uznaje się za rzeczywiste dopiero wtedy, gdy zostało ujęte w postaci pisma. Po drugiej stronie znajdują się społeczności oralne, których podstawą funkcjonowania jest komunikacja ustna. Niektóre wysoko rozwinięte kultury w przeszłości, na przykład kultura południowoamerykańskich Inków, obywały się całkiem bez pisma. Nawet starożytną Grecję można uznać za kulturę w swych zasadniczych rysach ustną, ponieważ funkcja pisma sprowadzała się tam niemal wyłącznie do dokumentowania tego, co powiedziano, służyło też ono jako podstawa wywodu ustnego50. W Rzymie pisanie i (głośne) czytanie cieszyło się niskim statusem społecznym, zostawiano je wykształconym niewolnikom. W takich społecznościach analfabetyzm przedstawiał się zupełnie inaczej niż w naszych, w wysokim stopniu piśmiennych. Ogólnie można stwierdzić, że w historii zawsze współistniały ze sobą piśmienne i ustne obszary społeczne. I tak na przykład w średniowieczu prawie cała kultura piśmiennicza skupiała się w klasztorach, w których kopiowano książki i opatrywano je komentarzami. Poza klasztorami ludzie żyli przeważnie w obszarze kultury ustnej. Począwszy od XIII wieku, w okresie pełnego średniowiecza, pismo przyswajała sobie najpierw arystokracja. Potem, od zarania nowożytności, piśmiennictwo przenikało do wszystkich obszarów społecznych, czemu sprzyjał wynalazek druku.

Wzrosło nie tylko znaczenie różnorodnych form i stylów pisma, ale i umiejętność posługiwania się nimi. Obecne modele czytania i pisania są rezultatem długotrwałego rozwoju. Można to dobrze pokazać zwłaszcza na przykładzie czytania: w starożytności czytanie przybierało nieodmiennie formę głośnej lektury lub przemowy, tekst pełnił funkcję pomocniczą w stosunku do form komunikacji ustnej, czy to w handlu, polityce, czy prawie. Także literatura była przeznaczona do deklamacji, a nie do cichej lektury – tej zasadniczo nie znano51. Istotnym powodem owego stanu rzeczy było również to, że teksty zapisywano bez pustych przestrzeni między poszczególnymi słowami (tzw. scriptura continua). PROSZĘSPRÓBOWAĆPRZECZYTAĆTOZDANIEKTÓRENADODATEKNIEMAŻADNEJINTERPUNKCJI. Łatwo zauważymy, że czytając głośno lub choćby tylko szeptem, w pewnym sensie sami się sobie przysłuchujemy, rekonstruując sens tekstu tą okrężną niejako drogą. Stopniowo głośne czytanie zostało wyparte przez ciche, ukierunkowane na odkrywanie znaczenia52, co