hermeneutyczny kontekst fizyki

Hermeneutyczny kontekst fizyki

Historia ludzkości, to wielka historia rozumienia. Każdy człowiek, który świadomie stąpa po ziemi, prędzej czy później zderzy się z koniecznością interpretacji tego, co stawia mu opór. Dlatego nigdy, dopóki materia i duch nie staną się nam poddane, nie umilkną echa odwiecznej gry w analizę rzeczywistości. Gadamer ujmie to w sposób następujący: „(…) dopiero doświadczenie oporu tekstu – który nie przekazuje żadnego sensu lub nie daje się pogodzić z naszym oczekiwaniem – zatrzymuje nas i pozwala zwrócić uwagę na odmienność użycia języka[1]”. Ale przecież nie o język jedynie chodzi.

Rozumienie jest bodaj najważniejszą z kategorii wokół których Gadamer buduje swoją filozoficzną narrację. Jest to również kluczowe zagadnienie dla problemu prawdy, który wyłania się z jego dzieła „Prawda i metoda”. Hermeneutyka w swoim źródłowym znaczeniu odpowiadała nauce wiążącej się z interpretacją głównie klasycznych tekstów literackich oraz Pisma Świętego. Tak pojęte rozumienie miało być sposobem na dotarcie do prawdy tekstu. Od podobnego pojmowania hermeneutyki Gadamer abstrahuje niemal zupełnie. Zainteresowany jest o wiele szerszym znaczeniem tego pojęcia, śledząc stopniową jego zmianę na przestrzeni filozoficznej tradycji. Dla toku naszych rozważań ważnym punktem będzie charakterystyczny rys hermeneutyki, obecny w niej już w pracach Friedricha Schleiermachera. Poza „gramatyczną” wykładnią tej nauki, istnieje również percepcja „psychologiczna”. Gadamer napisze, że: „Stanowi ona ostatecznie postawę przeczucia, przeniesienie się w całość struktury piszącego, uchwycenie <<wewnętrznego rodowodu>> konstrukcji dzieła, odtworzenie aktu twórczego”[2].

Być może taki właśnie zamysł towarzyszył Izaakowi Newtonowi kiedy pisał swoje Principia – rekonstrukcja boskiej kreacji. Wydaje się, że zupełnie podobnie rozumował Einstein, mówiąc o tym, że chciałby jedynie wiedzieć co myślał Bóg, kiedy tworzył kosmos. Chęć zrozumienia podstawowej mechaniki świata jest prawdopodobnie pokusą tak starą jak ludzkość, dlatego w tej pracy opowiadam się za szerokim (również przyrodniczym) interpretowaniem pola działania hermeneutyki. Musi być to jednak interpretacja oparta na dynamicznej, heideggerowsko-gadamerowskiej wersji hermeneutyki. Dla Schleiermachera była ona bowiem „odwrotnością mówienia, rekonstrukcją pewnej konstrukcji”[3] – a co za tym idzie, miała wymiar statyczny, będą w opozycji wobec tworzenia per se.

Sprawy szerszej wykładni hermeneutyki nie rozwikłał również Dilthey, akcentując co prawda rozumienie – nadał mu rolę naczelnej metody tylko nauk humanistycznych.  Był to jednak wiek XIX, który upływał pod przemożnym prymatem historii nad przyrodoznawstwem. Dilthey z jednej strony uważał człowieka za istotę dziejową, więc dotkliwie ograniczoną swoją skończonością, z drugiej jednak strony twierdzi, że możliwe jest wyzwolenie się od uprzedzeń własnej epoki na podstawie rozumienia innych czasów. Są to słynne aporie historyzmu, „ideał spełnionej świadomości historycznej, która w zasadniczy sposób przekracza granice wyznaczone przez subiektywny przypadek upodobania do jakiegoś przedmiotu i powinowactwa z nim”[4]. W filozofii Diltheya hermeneutyka boryka się z ówczesnym przesądem, głoszącym, iż można dotrzeć do jakiejś ahistorycznej prawdy w procesie namysłu nad historią. Wraz z rozwojem myśli Martina Heideggera, hermeneutyka zaczynała nabierać wymiaru bliskiego Gadamerowi. Od kiedy rozumienie zostało podniesione do roli egzystencjału – najbardziej podstawowego sposobu bytowania jednostki w świecie – nie można było się uchylić od pytań o naturę rozumienia przyrody jako takiej.

Wydaje się, że zależność tą rozumiał już Kartezjusz, używając słynnej figury retorycznej – drzewa wiedzy. Jego pień stanowiła metafizyka, ale z niego w całej obfitości wyrastało przyrodoznawstwo. Kartezjusz chciał przy tym, by już metafizyka opierała się na metodach matematycznych, zgodnie z założeniem, że nauka ma mieć kształt mathesis universalis more geometrico, nauki wszech-ogólnej, na kształt geometrii.

Miniony wiek dał nam dwie wielkie teorie opisujące dwa różne aspekty rzeczywistości. Pierwsza, to stworzona przez Einsteina teoria względności, będąca podstawą kosmologii – nauki, która pozwala nam wyjaśnić, co się dzieje we Wszechświecie, a więc w bardzo dużej skali, największej, do jakiej mamy dostęp. Druga teoria, mechanika kwantowa, zapoczątkowana w 1900 r. przez Maksa Plancka, stosuje się do mikroświata, do układów bardzo małych, takich jak atomy i cząstki elementarne. Obie teorie, mimo odmiennych założeń, doskonale opisują rzeczywistość, jednak tylko tak długo, dopóki nie wchodzi się w obszar, w którym powinny ze sobą współpracować. Nie wdając się w szczegóły tej frapującej zależności wypada wskazać na hermeneutyczny kontekst fizycznej rewolucji XX stulecia.

Gadamerowska koncepcja prawy, jak również rozumienia będzie miała kluczowe znaczenie dla próby przeniesienia jej sensu na grunt fizyki. Pozwoli nam to zapytać o zbieżności między światem tekstu, historii, intencji autora – na gruncie mechaniki materialnych struktur. W „Prawdzie i metodzie” czytamy: „Horyzont jest raczej czymś, w co wkraczamy i co kroczy razem z nami. W trakcie ruchu zmieniają się horyzonty[5]”. Jesteśmy zatem heideggerowskim byciem-ku. Istotą ekstatycznie-horyzontalną, objawiającą się w ruchu. Zubożeniem sytuacji jest twierdzenie, że hermeneutyka ogranicza się jedynie do relacji między tekstem a człowiekiem. W głębszym sensie hermeneutyka to opowieść o relacji między podmiotem a przedmiotem interpretacji. Nic nie stoi na przeszkodzie, aby tekstem stała się przyroda a interpretatorem my sami, uwikłani jednako w istnienie w niej – i wobec niej. W istocie zmagamy się z podobnym: szukamy ukrytych znaczeń, badamy z piętnem uprzedzeń. Przedmiot i podmiot wikłają się we wzajemną zależność, operują w stanach splątanych i jak w zasadzie nieoznaczoności – sama nasza ingerencja w układ nie pozostaje bez echa i dla układu i dla naszego rozumienia tego, czym jest.

Pięknie opisał ten stan zadziwienia szerokością poznania Blaise Pascal w „Myślach”: „Jest to nieskończona kula, której środek jest wszędzie, powierzchnia nigdzie[6]”. Hermeneutyka nie ma jednej metody, bowiem metoda kształtuje się w sytuacji interpretacji, podobnie jak pojedynczy elektron w zmodyfikowanej wersji eksperymentu Younga, w tajemniczy sposób przebywa w wielu miejscach na raz. Jego stan określa się natomiast podczas aktu pomiaru (zjawisko takie zwiemy kolapsem funkcji falowej). Moment dokonania interpretacji jest momentem kształtowania się analizy interpretacyjnej. Analizy, która docierając do sedna rzeczy przynosi rodzaj pewnego zadowolenia, znanego na tej planecie jedynie ludziom. „Rozumienie to rodzaj ekstazy” powie później wybitny kosmolog Carl Sagan. Proces ten, na co zwracał uwagę Gadamer w opozycji do Schleiermachera, zawsze niesie ze sobą nową wartość, ponieważ rozumie się konkretny przypadek w konkretnych okolicznościach.

W fizyce już od dawna nie odtwarza się statycznego obrazu świata, zgodnego z odwieczną i absolutna mechaniką newtonowską, obecnie mówi się o współtworzeniu tego obrazu – naukowiec o bardziej poetyckiej duszy mógłby powiedzieć za Ralphem Emersonem: „Natura (…) nuci starą dobrze znaną piosenkę, przemieniając ją w nieprzeliczone wariacje[7]”. Chcąc nie chcąc uczestniczymy w tej „pieśni natury”, wchodzimy w grę samą naszą obecnością, dlatego też rozumiejąc – tworzymy.

Tak jak rozumieć można tylko w sposób kontekstualny, a prawda objawić się potrafi jedynie nieśmiało, uwikłana w naszą permanentną czasowość, tak też nauki przyrodnicze nie są wolne od sprzecznych interpretacji tych samych faktów. Po dziś dzień nie cichną spory o to, jak rozumieć czas i przestrzeń i nie milkną echa polemiki Clarka z Leibnizem. Ciężko zachować pozytywistyczną pewność siebie mając świadomość faktu nieznajomości struktury prawie 95% istniejącego wszechświata (4,5% masa atomów, 23% ciemna materia, 72% ciemna energia). Być może jednym z najciekawszych eksperymentów teoretycznych, ukazujących kontekstualny, interpretacyjny a wreszcie hermeneutyczny wymiar fizyki – jest przypadek tzw. kota Schrödingera. Mechanika kwantowa bowiem, to przestrzeń, w której nic nie jest ustalone, dopóki nie dokonamy obserwacji, oraz nic nie jest do końca pewne, ponieważ niepewność wpisana jest w najgłębszą strukturę materii. Oba te nieintuicyjne poglądy znane są pod nazwą superpozycji stanów kwantowych, oraz zasady nieoznaczoności i stanowią klucz, do zrozumienia paradoksu kota Schrödingera.

Idea kota, który nie jest ani żywy ani martwy, narodziła się w roku 1935. Erwin Schrödinger, austriacki noblista, jeden z ojców mechaniki kwantowej, w swoim głośnym artykule „Obecna sytuacja w fizyce kwantowej”[8] – w celu ukazania sprzeczności wynikających z prostego przekładania efektów kwantowych na świat makroskopowy – rysuje wizje teoretycznego eksperymentu, który rozsławi jego imię. Robi to jakby przy okazji, poświęcając problemowi niecałe dziesięć akapitów. Sprawa jest jednak wielkiej wagi, i podobnie jak w świecie atomów – nie rozmiar świadczy o jej doniosłości. Podczas dyskursu z Einsteinem (odbywającej się głównie listownie), stało się jasne, że pozorna sprzeczność eksperymentu ma za zadanie skierowanie uwagi na konieczność matematycznego doprecyzowania zagadnień zjawisk kwantowych. Tym stanem rzeczy nieco wcześniej zajęli się autorzy głośnego artykułu znanego pod nazwą EPR (Einstein – Podolsky – Rosen), stanowiącego krytykę niekompletnego opisu rzeczywistości w mechanice pojedynczych cząstek[9].  To zabawne, że do rozwoju teorii kwantów przyczynili się ludzie, który do końca życia nie mogli się pogodzić z ich nieintuicyjnym działaniem. Schrödinger miał ponoć powiedzieć, że żałuje, iż kiedykolwiek się tym zajął[10].

Dlaczego pomysł zamknięcia kota w pudełku, ma tak wielkie implikacje filozoficzne oraz epistemologiczne, okaże się podczas analizy eksperymentu i konsekwencji wynikających z zaobserwowanych wyników[11].

Cały proces, wyłaniający się z artykułu Schrödingera wygląda mniej więcej tak: kota umieszczamy w stalowej komorze wraz ze źródłem promieniotwórczym emitującym średnio jedną cząstkę na godzinę, obok instalujemy dowolny detektor promieniowania, np. w postaci licznika Geigera – Mullera, który w momencie wykrycia cząstki uwalnia trujący gaz. Po odczekaniu określonego czasu, czyli godziny, mamy 50% prawdopodobieństwo na to, że kot będzie żywy, albo martwy. Ponieważ promieniotwórczość jest zjawiskiem kwantowym, podlega także prawom mechaniki dziwnego świata kwantów, które głoszą, że dopóki nie dokonamy pomiaru, obiekt (np. pojedynczy foton) jest w stanie permanentnej nieokreśloności. Kot jest jednocześnie żywy i martwy, ponieważ znajduje się w mieszaninie wszystkich stanów kwantowych. Według interpretacji kopenhaskiej, dopiero moment otworzenia pojemnika zadecyduje o tym, który z nich będzie się w stanie urzeczywistnić.

 

Schematyczna ilustracja eksperymentu.

Opisany eksperyment stawia ważkie pytania, np. o to kiedy system kwantowy przestaje być mieszaniną pozycji a określa się w sposób konkretny. Idąc dalej – czy kot, jako obserwator może być mieszaniną stanów żywy/martwy, czy – dajmy na to jego istnienie w jednym z nich wymaga obecności niezależnego obserwatora? W toku prac nad mechaniką kwantową ukazało się wiele interpretacji wspomnianego paradoksu, które omówione zostaną poniżej, zaraz po wyjaśnieniu pojęć kluczowych dla zrozumienia całego wywodu, czyli nieoznaczoności oraz superpozycji.

Zgodnie z newtonowską, zdroworozsądkową mechaniką klasyczną stan dowolnej cząstki (bądź zbioru cząstek) jest całkowicie definiowalny poprzez jednoczesne podanie jej położenia oraz pędu (prędkości). To, wraz ze znajomością warunków początkowych w układzie, powoduje, że możemy przewidzieć jego dalszy bieg, oraz przy znajomości rządzących nim praw – hipotetycznie go cofnąć[12]. W mechanice klasycznej mówi się, że żadna informacja nie ginie, a takie „zawracanie historii” potrafi doprowadzić nas do ułamków sekundy po Wielkim Wybuchu.  Zgodnie z tą logiką, stan wszechświata, składającego się przecież z cząstek, których los przy odpowiednich mocach obliczeniowych można przewidzieć, wydaje się być w dużej mierze określony od początku do końca. Einstein powiedziałby w takim wypadku „Bóg nie gra w kości”. Problem w tym, że może nie mieć racji, bowiem w układach składających się z pojedynczych cząstek, przy żadnej sposobności nie można określić jednoczesnego położenia i pędu tejże. Nie wynika to bynajmniej z niedokładności naszych pomiarów, ani błędów aparatury. Nieredukowalne minimum prawdopodobieństwa, a jakim będziemy wiedzieć „co robi” badany przez nas foton albo elektron, ustala słynne równanie nieoznaczoności, wprowadzone w 1927 przez genialnego niemieckiego fizyka Wernera Heisengberga[13]. Głosi ono, że Δx – nieokreśloność pomiaru położenia pomnożona przez Δpx – nieokreśloność pomiaru pędu, będzie zawsze większa bądź równa stałej Plancka podzielonej na dwa.

 

Okazuje się, że wystarczy sam akt pomiaru, aby zakłócić jedną z ustalanych wartości. Im lepiej znamy położenie, tym gorzej pęd i odwrotnie. Gdy chcemy ustalić np. Δx badanego atomu, naświetlamy go fotonami, które jednak w sposób nierozerwalny dla samego procesu badania nieuchronnie zmieniają pęd cząstki tak, że nie można go później precyzyjnie ustalić. Rozwiązaniem wydaje się użycia światła o mniejszej energii, albo krótszych fal, jak ma to miejsce w mikroskopach elektronowych. Jednak przy takim zabiegu, rozdzielność uzyskanego obrazu staje się słabsza, co powoduje niemożliwość ustalenia jego konkretnego położenia. Te komutujące się wielkości mogą wprowadzić w zakłopotanie niejednego filozofa, który uważał, że świat fizyczny jest jasny i precyzyjnie określony. Czyżby jednak Bóg grywał w kości?[14]

Aby zrozumieć, w jaki sposób cząstka (w tym wypadku foton) może być w dwóch stanach jednocześnie, musimy się posłużyć klasycznym już eksperymentem z dwiema szczelinami, zastosowanym przez angielskiego fizyka Thomasa Younga (1805), a następnie odrobinę go zmodyfikować[15].

Young, chcąc udowodnić falową naturę światła, zaplanował proces w taki sposób, aby jak najbardziej przypominał rozchodzenie się fal wodnych, a następnie ich interferencję. W tym celu użył świecy, oraz dwóch płacht nieprzezroczystego materiału, w pierwszej wyciął maleńką szczelinę, mająca za zadanie uporządkowanie rozchodzącego się światła zgodnie z zasadą Huygensa, a w kolejnej dwie szczeliny, mające za zadanie wzmocnienie i nałożenie na siebie obu źródeł światła o tej samej częstotliwości. W efekcie na ekranie otrzymano obraz kolorowych prążków interferencyjnych. Był to koronny dowód na falowy charakter natury światła, bowiem zgodnie z korpuskularną koncepcją Newtona, fotony powinny się zachować zupełnie inaczej. Dokładnie rzecz biorąc powinny przejść przez szczeliny nakładając się na siebie i utworzyć symetrię stożkową, z jasno oświetlonym centrum oraz ciemniejszymi bokami.

 

Schematyczny rysunek doświadczenia Younga z dwiema szczelinami.

Do tej chwili wszystko wydaję się jasne i czytelne, ale w momencie, w którym zamiast stałej wiązki świetlnej prześlemy pojedynczy foton, sprawy zaczynają się komplikować. Zgodnie z logiką, powinien on przejść przez jedną ze szczelin i nie pozostawić po sobie prążków, ponieważ odosobniona cząstka nie może interferować sama ze sobą. Okazuje się jednak, że nawet przepuszczając pojedynczy foton, będzie on w stanie wytworzyć takie samo zjawisko, jak przy większych ilościach. Feynman nazwał takie zachowanie cząstki wybieraniem przez nią „trajektorii alternatywnych”. Znaczy to, że może się ona znajdować w mieszaninie wszystkich stanów na raz, albo inaczej, posiadać w tej samej chwili spin skierowany w górę i w dół. Ponieważ w OTW masa skorelowana jest z energią[16], a tą wyrazić możemy za pomocą funkcji falowej Y, jesteśmy skazani na permanentne prawdopodobieństwo[17]. Wartość funkcji falowej zawsze ustalana jest z pewną amplitudą oraz gęstością prawdopodobieństwa, poza które, zgodnie z interpretacją kopenhaską nie można wyjść, aż do momentu dokonania pomiaru i zakłócenia stanu superpozycji. Taką ingerencję i ustalenie tego co nazywamy „rzeczywistością” nazywamy kolapsem funkcji falowej. Tym kolapsem będzie otworzenie pojemnika z kotem i sprawdzenie, czy wyskoczy przerażony, czy też wyzionął ducha w imię nauki.  Stanem superpozycji będziemy natomiast oznaczać „zawieszenie” kota pomiędzy życiem a śmiercią, podobne do pomieszanych ze sobą spinów atomowych[18].

Schrödinger, ze swoim pomysłem pół żywego kota, wsadził kij w mrowisko. Czy kot może być obserwatorem swojej własnej śmierci, czy jego obserwacja także dokonuje kolapsu funkcji falowej. A może funkcja ta rozpada się samoistnie, bez udziału człowieka (czy dowolnego przyrządu mierniczego)?

Na te i inne pytania starają się odpowiedzieć przeróżne interpretacje zjawisk fizyki kwantowej, warto prześledzić te najważniejsze. W 1972 Hugh Everett sformułował tak zwaną interpretację wielu światów (many-worlds interpretation of quantum mechanics). Zgodnie z tą wersją oba koty, żywy i martwy istnieją, ale są niekoherentne – jeden w stosunku do drugiego. Innymi słowy w momencie otwarcia pojemnika wszechświat wraz z obserwatorem rozszczepia się na dwie części – jedną z kotem żywym, drugą z kotem umarłym. W chwili dekoherencji tych stanów, niemożliwa staje się komunikacja między jednym a drugim. Wspomniana interpretacja nie odnosi się tylko do eksperymentu Schrödingera, ale w dużym skrócie można przyjąć, że zakłada ona negację obiektywności kolapsu falowego i przyjmuję taką wersję wydarzeń, która postuluje niezliczoną liczbę istniejących obok siebie czasoprzestrzeni, w których (parafrazując Schellinga) wszystko co możliwe musi się przytrafić.

Jedną z ciekawszych prób rozwiązania paradoksu jest teoria przedmiotowego (czy też obiektywnego) kolapsu, tzw. objective collapse theory. Okazuje się, że wedle jej założeń, superpozycje mogą przestać istnieć spontanicznie, bez udziału zewnętrznego obserwatora. Istnieją pewne wartości progowe (tresholds), takie jak np. czas, masa, temperatura, etc. Utrzymując takie założenia, stan kota jest określony na długo przed otwarciem pojemnika. W bardzo skrótowym ujęciu wygląda to tak, jak gdyby „kot spoglądał sam na siebie”, albo „wszechświat oglądał kota”. Teoria przedmiotowego kolapsu wymaga modyfikacji mechaniki kwantowej tak, aby superpozycje mogły przestać istnieć w wyniku procesu czasowo – ewolucyjnego. Zgodnie z tą koncepcją, jeśli jeden stan określany jest przez wcześniejszy i tak ad infinitum, nieuchronnie dochodzimy do pre-determinanty wszelkich procesów, nie tylko w świecie kwantów. Tym pierwszym warunkiem brzegowym byłby moment Wielkiego Wybuchu. Pomysł ten, wydaję się być niczym innym, jak powrotem do newtonowskiej, deterministycznej mechaniki klasycznej. Nad wykryciem podobnych, dyskretnych wartości określających nawet probabilistyczny moment kolapsu falowego do ostatnich lat pracował Einstein. Obecnie idea powraca pod postacią uniwersalnej teorii pola, mającej za zadanie stworzenie „wzoru na wszystko” i zunifikowanie wszelkich oddziaływań fizycznych w jedną, spójną teorię pola. Wydaje się, że jeśli jest to w ogóle możliwe, na długie lata znajduje się poza granicami naszej percepcji.

Prawda o zjawiskach fizycznych nie jest zatem diltheyowską prawdą ahistoryczną, znaczy to, że nie ma danego raz na zawsze punktu podparcia, z którego można by poruszyć Ziemię. Choć Jan Woleński w artykule pt. „Czy fizyka opiera się na założeniach metafizycznych?[19]” oponuje przeciwko mieszaniu tych dwóch porządków, tj. związanego z naukami ścisłymi – oraz filozofią – a w konsekwencji odniesieniami metafilozoficznymi do języka fizyki, pozwolę się z nim nie zgodzić. Jan Woleński pisze: „Wszelkie dyskusje o paradoksie Einsteina-Podolskyego-Rosena, parametrach utajonych i twierdzeniu von Neumanna czy nierównościach Bella winny być rozważane z tej właśnie perspektywy, [czyli naukowej- przyp. MM] a nie ogólnych intuicji filozoficznych. Jeśli funkcjonują one w ramach konkretnych teorii, nie mają bezpośredniego odniesienia filozoficznego, a jeśli je posiadają, znaczy to, że dyskusja wykracza poza fizykę”. Ale przecież dziejowość a zatem zmienność rozumienia procesów pozornie stałych – podparta także na refleksji filozoficznej, wkrada się i do nauk przyrodniczych. Inspiracje filozoficzne (warto wspomnieć choćby o książce Heisenberga „Filozofia a fizyka”), odgrywały i nadal odgrywają wielką role w kształtowaniu się naszych interpretacji wyników eksperymentalnych. Owszem, w procesie aksjomatyzacji i w języku metodologii nauk, nie znajdujemy realnych śladów tych wpływów, ale istnieje pozametodologiczny impuls, który pcha nas ku temu a nie innemu badaniu.

Albert Einstein zapytany w telegramie przez rabina Herberta Goldsteina o to, czy wierzy w Boga, odpowiedział: ”Wierzę w Boga Spinozy, który objawia się w porządku i harmonii tego co istnieje, a nie Boga, który miesza się w losy i troski ludzkości”. Z tej właśnie wiary wynikać będzie jego późniejsza praca nad tzw. Teorią Wszystkiego, negowanie indeterminizmu efektów kwantowych i głębokie przekonanie o tym, że „Bóg nie gra w kości”. John Hutchinson atakując teorię Newtona posługiwał się argumentacją sprzeczności nowej mechaniki z literą Starego Testamentu, Leibniz polemizując z Clarkiem w rzeczywistości prowadzi dysputę teologiczną. Gdyby teorie fizyczne nie były przekładalne, albo nie implikowałyby niczego w innych układach odniesienia (bądź inne układy nie miały na nie wpływu), w jaki sposób budowalibyśmy mosty, a zjawisko fotoelektryczne przyczyniałoby się do konstrukcji fotokomórek? Spójrzmy co napisał w liście z 15 czerwca 1935 roku Einstein do Erwina Schrödingera: „Prawdziwa trudność leży w tym, że fizyka stanowi rodzaj metafizyki; opisuje ona bowiem <<rzeczywistość>>. Nie wiemy jednak czym jest rzeczywistość; poznajemy ją jedynie przez opis fizyczny![20]”.

Tym mocniej dźwięczą w uszach słowa Gadamera: „Nie istnieją prawdy wieczne. Prawda jest współdaną z dziejowością jestestwa otwartością bycia”. Elegancko zacytować w tym miejscu wspomnianego już Pascala: „Zmysły nasze nie chwytają nic krańcowego; zbyt wielki hałas nas ogłusza, zbytnie światło oślepia (…)[21]”. Jest więc tak, że idąc ciągle naprzód widzimy więcej, ale jest to stale ten sam grząski grunt. Czy można zatem powiedzieć, że hermeneutyka każe się nam pożegnać z rozumowym „domem na skale”? Jeszcze groźniejsze wydaje się to pytanie wobec słów Bernarda d’Espagnata: „Doktryna, która głosi, że świat składa się z obiektów, których istnienie jest niezależne wobec ludzkiego poznania wydaje się być w sprzeczności z mechaniką kwantową oraz ustaleniami eksperymentów[22]”.

Powróćmy jednak do problemu korelacji horyzontalności prawdy w hermeneutyce i naukach przyrodniczych. Z całą pewnością nie jest tak, że hermeneutyka atakuje logicznie uargumentowany paradygmat z pozycji ograniczenia możliwości poznania całej prawdy o przedmiocie. Chodzi tutaj o coś znacznie głębszego – o antyfundamentalizm – próbę ukazania neopozytywistycznych ślepych uliczek absolutyzujących stosunek do niej właśnie. Taki sposób zagadnienia krystalizuje się ze specyficznego podejścia do samej istoty prawdy, które przyjmuje Gadamer, i co odróżnia go np. od Rortyego. Prawda u postawy nie jest własnością poznania albo nie zawiera się w strukturze zdaniowej, ale jest ontyczną cechą bytu. Sam byt przemawia do nas poprzez swoją prawdziwość, jest to starożytna aletheia, wobec której teoria jako poszukiwanie prawdy jest wtórna – stanowi odpowiedź na pierwotne wołanie. Chciałoby się krzyknąć za Demokrytem: „Naprawdę istnieją tylko atomy i próżnia”, jest jakaś nierozerwalna struktura materii, wobec której nasze teorie wydaję się wtórne, ukazują jej majestat z różnych pozycji – będąc niczym obraz natury, której nie sposób objąć wzrokiem w jednym tylko akcie widzenia.

Dlatego właśnie tak ważny jest paradygmat rozmowy, ontologicznego zrozumienia tak złożonej struktury. Gadamer określi ten proces jako „stapianie się rzekomo dla siebie istniejących horyzontów[23]”. Owo stapianie się występuje w akcie i procesie rozmowy. Sama źródłowość języka zmusza nas do takiego a nie innego podejścia. Człowiek nadając nazwy rzeczom, zaczyna panować nad własnym rzuceniem w świat. Wszyscy razem widzimy znakomitą większość obrazu, każdy z nas z osobna, jedynie jego znikomą część – dotarcie do możliwie najpełniejszej wizji tego, co wspólnie obserwujemy, będzie w takim razie znaczyło istotowo najpełniejsze urzeczywistnienie się potencji komunikacyjnej drzemiącej w języku. Język jest własnością wspólną, dlatego w jego bezpodmiotowości może się wyrazić zbliżenie do ontyczności i uniwersalności pierwotnej prawdy występującej poza językiem. Coraz szybciej dochodzimy do punktu, w którym zasadne zaczną być pytania nie o granice tego, co będziemy w stanie poznać, ale tego, w jaki sposób będziemy w stanie przetworzyć taką ilość informacji. Ortega y’Gasset ostrzegał przed przekleństwem specjalizacji – wizją zdehumanizowanego społeczeństwa technicznego, które w swojej indywidualności stapia się w formę mało wymagającej masy. Chcąc łączyć dostępną dla człowieka wiedzę szczegółową w system wyjaśniający najbardziej podstawowe pytania, potrzeba takiego języka, który elementy mozaiki nauk szczegółowych przetapiał w spójny obraz. Potrzeba hermeneutycznego heroizmu dotarcia do samych podstaw językowej nośności rozumienia – tylko wtedy odkrywanie nowego nie zaprowadzi nas na pustynie jałowej dyskusji.

Miejmy także świadomość bezpoczątkowości procesu rozumienia, który jak prosta nie ma ani początku ani końca, albo inaczej – dotarcia do jej końca wymaga nieskończonego czasu. Nie wyciągajmy jednak zbyt pochopnych wniosków; brak kresu – wcale nie oznacza braku celu. Gadamer stanowczo opowiada się za tym, aby „wstępne mniemania nie były dowolne”. Istotą tego procesu poznania (kręgu hermeneutycznego) nie jest brak ostatecznej odpowiedzi, ale jasny zwrot wektora myśli na prawdę. Wiemy zatem gdzie zmierzać, poprzez drogę która nie ma początku ani końca.  Nie jest jednak tak, że nasze niepełne poznanie bierze się z faktu ulotności naszego życia, albo ograniczonego czasu, który przychodzi nam spędzić na ziemi. Podobnie jak niemożliwe jest ustalenie dokładnego toru ruchu dymu papierosa, który z łagodnego słupka, przekraczając tak zwany próg Reynoldsa – wchodzi w stan chaotyczny, tworząc poszarpaną, charakterystyczną strukturę; tak samo nie jesteśmy w stanie dotrzeć do arche rozumienia, przynajmniej w ujęciu gadamerowskim. Potrzeba nieskończonego rozumu, mogącego ogarnąć nieskończoność, aby wypowiadać się o kompletnym poznaniu.

Fizyka i hermeneutyka mówią w tym miejscu jednym głosem – są rzeczy poza naszym zasięgiem, w których niemożliwość poznania wikła nas sama natura ludzka. Powtórzmy za Heideggerem – jesteśmy tym, czym możemy być. Niczym mniej, niczym więcej. Poznajemy tylko to, co jesteśmy w stanie poznać, jednak poza naszymi możliwościami świat się nie kończy. Wymiar absolutnego sensu przekracza możliwości poznania pojedynczej egzystencji. Trzeba mieć to zawsze na uwadze bowiem ani nauki przyrodnicze ani filozofia nie są wolne od  ograniczeń. Na koniec jeszcze raz oddajmy głos Pascalowi:

Oto nasz prawdziwy stan; oto co nas czyni niezdolnymi i do wiedzy pewnej, i do

zupełnej niewiedzy. Żeglujemy po szerokim przestworzu, wciąż niepewni i

chwiejni, popychani od jednego do drugiego krańca. Czegokolwiek chcielibyście

się uczepić, wraz chwieje się to i oddala; a jeśli podążamy za tym, wymyka się,

wyślizguje się i wiekuiście ulata. Jest to stan naturalny, najbardziej wszelako

przeciwny naszym skłonnościom; pałamy żądzą znalezienia oparcia i ostatecznej

podstawy, aby zbudować na niej wieżę wznoszącą się w nieskończoność; ale cały

fundament trzaska i ziemia rozwiera się otchłanią.

Nie szukajmy tedy pewności i stałości. Rozum zawsze pada ofiarą pozorów, nic nie

zdoła ustalić skończoności między dwiema nieskończonościami, które obejmują ją i

umykają jej[24].

 


[1] H.G. Gadamer, Prawda i metoda. Zarys hermeneutyki filozoficznej, Kraków 1993, s. 258.

[2] Tamże, s. 190.

[3] Tamże, s. 192.

[4] Tamże, s. 229.

[5] Tamże, s. 288.

[6] B. Pascal, Myśli, tłum. T. Boy-Żeleński, Warszawa 1983, s. 86.

[7] R.W. Emerson, Szkice, [w:] http://www.volny.com/mulford-pl/teksty/em1f.htm (data dostępu 22.04.2011).

[8] E. Schrodinger, Die gegenwärtige Situation in der Quantenmechanik, Naturwissenschaften, XI 1935.

[9] T. Bigaj, Kwanty, liczby abstrakty, Warszawa 2002, s. 209.

[10] J. Gibbin, W poszukiwaniu…, s. 5.

[11] Bardziej formalne ujęcie tego zagadnienia w: H. Narnhofer, W. Thirring, Why Schrodinger’s Cat is Most Likely to be Either Alive or Dead, Vienna 1996.

[12] Q. Ho-Kim, N. Kunmar, C. Lam, Zaproszenie do fizyki współczesnej, Poznań 1995, s 445 – 446.

[13] W. Bolton, Zarys fizyki, Warszawa 1982, s. 639 – 640.

[14] Zwięzłe omówienie zasady nieoznaczoności znajdzie czytelnik w słynnej książce S. W. Hawkinga, A Brief History of Time, Bantam Book, 1988, s. 53 – 63.

[15] P. Davies, J. Gribbin, The Matter Myth, Viking 1991, s. 203-206.

[16] Wszystkie cząstki posiadają albo masę i energię albo samą energię (np. fotony są bezmasowe), dlatego też wszystkie podlegają takim samym prawom grawitacyjnym oraz efektom falowym.

[17] Bardziej precyzyjne matematycznie ujęcie tego eksperymentu można znaleźć w książce: R. Shankara, Mechanika kwantowa, Warszawa 2006, s. 179.

[18] Bez wchodzenia w zbędne szczegóły, nieoznaczoność zachodząca podczas superpozycji nie ogranicza się do prostych proporcji 50% kota żywego 50% kota martwego, równe dobrze mogą to być dowolne wartości procentowe.

[19] Wszelkie kolejne cytowania z artykułu pochodzą ze źródła: J. Woleński, Czy fizyka opiera się na założeniach metafizycznych?, [w:] www.candela.strefa.pl/stronki/filofizyka.htm (data dostępu 24.04.2011).

[20] Letters on Wave Mechanics: Schrodinger-Planck-Einstein-Lorentz, Albert Einstein, Erwin Schroedinger, Max Planck, H. A. Lorentz, K. Przibram, Philosophical Library 1967, s. 5.

[21] B. Pascal, Myśli, tłum. T. Boy-Żeleński, Warszawa 1983, s. 52.

[22] Zob. B. d’Espagnat, The Quantum Theory and Reality, [w:] Scientific American, XII 1979.

[23] H.G. Gadamer, Prawda i metoda. Zarys hermeneutyki filozoficznej, Kraków 1993, s. 215.

[24] B. Pascal, Myśli, tłum. T. Boy-Żeleński, Warszawa 1983, s. 55.

clifford geertz i deszcz anty-antyrelatywizmu

Clifford Geertz i deszcz anty-antyrelatywizmu

Za oknem zawsze wydaje się być ciekawiej. Chyba, że zimny (z założenia) i przecinający (podobnie) deszcz akurat wali nam z charakterystycznym tylko dla siebie uporem w okna nie pozwalając zebrać myśli i zawiesić ich spokojnie nad praktycznymi kwestiami spokojnego życia w stabilnej i zrozumiałej (a przynajmniej podlegającej jasnym prawom) rzeczywistości. Tylko kwestią czasu wydaje się postawienie pytania czy ten irytujący odgłos i cale to ciągnące się wraz z nim monotonne, odcinające nas od postępów dudnienie jest akurat czystym (choć zbytnio przedłużającym się) zbiegiem okoliczności, a może podstawowym i właściwym stanem świata którego właśnie doświadczamy. Nie pamiętam kiedy ostatni raz nie padało, nie pamiętam czy kiedykolwiek istniała chwila wolna od całego tego stukania, nie wiem nawet skąd u innych pomysł że mogłoby być inaczej niż jest. A skoro zaznajemy owego nieustannego stuku w szyby, czy nie powinniśmy założyć, że pada zawsze i wszędzie? Klucz wydaje się zawarty w „powinniśmy”.

Forma ta nie oznacza rzecz jasna, że dopadł mnie potocznie-filozoficzny wirus zadawania pytań i snucia powiązanych z nimi metaforycznych wypowiedzi (lubię, ale teraz to nieistotne). Wszyscy jesteśmy relatywistami. Przepraszam, antyrelatywistami oczywiście. Jest nim i Geertz, choć w pelerynce (niewidce). Sam problem obydwu ujęć praktycznie i na potrzeby chwili najłatwiej osadzić w normatywnym obszarze regulacji kulturowych, choćby w oparciu o prostotę możliwych zestawień (właściwie rzecz w tym, aby nie demonizować świata podwójnie). „Zestawień” wydaje się być tu drugim słowem kluczowym. Prezentuje Geertz w rozdziale Anty-antyrelatywizm (w:”Zastane światło”,s.58-89) sposób budowania trwogi jako podstawę funkcjonowania poglądów antyrelatywistycznych względem relatywizmu, co za tym idzie postawienia problemu obrony NASZEJ kultury nie przed bezpośrednim wpływem innej, ale właściwie przed uboczną autosugestią ludzkości. Wydaje się, że relatywizm stwarza idealne pole do tego, aby stanowisko przeciwne mogło rozwinąć się na nim i wpisać w pewien model działania kultury strachu.

Wróćmy, zatem do wspomnianych zestawień, „Jeżeli nie wierzysz w mojego boga, musisz uwierzyć w mojego diabła” obowiązujące w formie wartościowania przerzuca ciężar z samego aktu jak np. wykonanie kary śmierci nie na porównanie społecznych ocen czynu w kulturze NASZEJ i innej (zakazy, nakazy, tabu, prawo, obyczaj), ale na zagrożenia płynące z przyjęcia konkretnego oglądu.

„Relatywiści, jak się ich nazywa, każą się nam obawiać prowincjonalizmu, a więc utraty ostrości spojrzenia, przyćmienia intelektu i ograniczenia zdolności odczuwania sympatii w wyniku dobrze przyswojonej i przesadnej akceptacji własnego społeczeństwa. Z kolei antyrelatywiści, jak sami się określają oczekują, że będziemy się bać, bać i jeszcze raz bać – jakby od tego zależało zbawienie naszych dusz – duchowej , rodzaju cieplnej śmierci umysłu, która wszystko zrównuje pod względem ważności, a więc wszystko czyni równie nie ważnym: w tym stanie wszystko jest dopuszczalne, każdy kieruje się własnym uznaniem, płaci więc wybiera, wybiera co lubi”[1].

Nie mogę jednak oprzeć się wrażeniu (całkiem możliwe, że popadając właśnie w ową relację) iż owe rozgraniczenie jest właściwie dosyć sztuczne. W tle dokonuję zatem postawienia zagadnienia, co należałoby uznać za nałożone. Inaczej mówiąc na ile relatywizm jest tylko równie(!) sensowną pochodną antyrelatywizmu (co byłoby nawet niezgodne z nazewnictwem). King Crimson śpiewali kiedyś (w piosence Lament)

Chyba starałem się ci pokazać jak

Porwałbym tłum moją gitarą

I producenci by klaskali rękoma

I ucinaliby kolejne tłuste cygaro

A wydawcy puszczaliby nowiny

Tłoczyliby moje płyty po całym świecie

A wszyscy młodzi co bluesa grali

Uczyliby się moich „ślizgów szyjką od butelki”

Jednak teraz zdaje się balon pęka

Chociaż wiesz, że były takie czasy

Gdy miłosne piosenki właziły mi do głowy

Poetyckie w każdym calu…”

Rzecz w tym, że domaganie się pewnego równouprawnienia kultur wymaga doprecyzowania własnej wartości. Zgoda, że nie poprzez bezpośrednie odniesienie do innych. W słowach przytoczonej wyżej piosenki można znaleźć obraz dążności i formy konsekwencji. Nie następuje w niej podciągnięcie się do najwyższego możliwego punktu i odrzucenie wniosków z weryfikacji własnego położenia. Przeciwnie, zawarte jest wskazanie według norm, które uznaje się za obowiązujące. Antyrelatywizmowi można zarzucić, że źle wartościuje pogląd, pytanie tylko, dlaczego nie zastosować do niego tez samego relatywizmu. Jeżeli oprzemy ocenę wyłącznie w obrębie własnych walorów i kręgów kulturowych może okazać się, że antyrelatywizm jest poglądem charakterystycznym i w kontekście zasadną opozycją, której istnienie w światopoglądzie wynika z uwarunkowań samego relatywizmu. Przyjmując, że funkcjonujemy w kulturze, której elementy oparte są na dominującej perspektywie strachu to wygenerowanie spełniającej kryteria odpowiedzi jest zupełnie naturalne i niemal symbiotyczne. Nie musi wszak chodzić o etnocentryzm, a jedynie o podtrzymanie warunków, w których dla zachowania norm konieczne jest poszukiwanie zagrożenia.

Geertz przywołuje dwa topowe środki w walce z relatywizmem: próba przywrócenia koncepcji bezkontekstowej „natury ludzkiej” oraz „ludzkiego umysłu”, dążące do akulturalistycznej wizji człowieka. Naturalizm ciągnie za sobą choćby socjobiologię i ewolucjonistyczną psychologię, a racjonalizm psychologię eksperymentalną czy badaia nad sztuczną inteligencją. Zapominając na chwilę o temacie samego sporu skupmy uwagę na konsekwencjach, które ostatecznie przejawiają się sprowadzaniem antropologii do (tu wstawić wybrany termin) … (genów, gatunków, struktury mózgu, seksualności itd.). W tym wypadku niepokojące zdaje się radykalne przywiązanie do słuszności objętych na owym gruncie założeń. Znów pozostaje kwestia czy inne ujęcie jest w ogóle wykonalne. Przyjmijmy, że całkowita obiektywność w ocenianiu kultur nie zahacza o możliwość i postawmy pytanie czy poszukiwanie „natury ludzkiej” da się wykorzystać jako argument antyrelatywistyczny, właściwie to anty-antyrelatywistyczny… kurcze, relatywistyczny też. Zostańmy jednak przy drugim.

Mówią, że nie wyważa się otwartych drzwi. Musi, zatem w tym coś być. Musi być cos w tym, że wszyscy turyści jeżdżą w te same miejsca, w tym, że wszyscy grają w World of Warcraft. Zatem teraz już mogę chodzić do kościoła. Dlaczego nie korzystać z instytucji, która podkładając pod głowę poduszkę pierze intensywnie po tyłku? To oczywiście z lekka zabsurdalizowany przykład odnoszący się do wczesnych badań (choćby łąpania niewolników w kontrolowanych warunkach i podejściu, przy nastawieniu na osiągnięcie konkretnych wyników. Nie daleko temu do perspektywy zbawiania reszty świata. W końcu doprecyzowanie oglądu na temat innych kultur już „nastąpiło”.

„Krótko mówiąc, wskrzeszenie umysłu ludzkiego czy to w postaci nieustępliwego zdrowego rozsądku (…), czy nostalgicznego ekumenizmu (…), czy agresywnego scjentyzmu (…) jako stałego punktu w pełnym zawirowań świecie, oddala groźbę kulturowego relatywizmu rozbrajając siły kulturowej różnorodności. Podobnie jak w przypadku natury ludzkiej, ceną prawdy okazuje się dekonstrukcja inności”[2].

Podobnie też jak antyrelatywiści demonizują skutki założeń relatywizmu, tak anty-antyrelatywista Geertz czyni z założeniami antyrelatywistów.  I podobnie czynię ja w stosunku do anty-antyrelatywizmu Geertza nadając sobie jednocześnie miano anty-anty-antyrelatywisty. Zresztą dokładnie w stylu autora, unikając przypisania do siebie terminów wcześniejszych.

Na początku żartobliwie wspomniałem, iż Geertz mimo wszystko jest antyrelatywistą i w tym sensie zrealizował zgodne z poglądem postulaty wskazując na strach i pomijając (własne przecież) zapytanie o jego znaczenie. Kpina czy wyzwanie, ironia czy gniew? Normalność żywi się strachem przed normalnością, każe walczyć o wyobcowanie, postawienie się w opozycji. Czasami żeby być normalnym trzeba wykazać jak najwięcej odbiegnięć. Nawet, jeżeli na cel bierzemy małe lokalne kultury utrzymujące swój status jedynie w celach zarobkowych, to w pewnym stopniu by zaistnieć muszą pokazać zgodność swoich norm z normami otoczenia, symboli z symbolami otoczenia, a także ująć siebie w możliwie skrajnej (jak na warunki) odmienności. Ujawnia się tu pospolity dylemat jak we współczesnym świecie być innym będąc takim samym. Relatywizm podobnie jak poszukiwanie „natury ludzkiej” i zatłoczone targowisko wartości (w którym coraz trudniej nie wpadać na siebie) pochlasta inności tworząc dodatkowy poziom. Taki banał, opis gęsty czy nie zawsze pozostaje subiektywny. Stąd ten deszcz z początku, skrót wszystkiego co dalej. W ostateczności nie ma pewności czy ktoś nie leje nam interdyscyplinarnym i interpretacyjnym (zakończonym spryskiwaczem) szlauchem po oknie i czy bardziej sensowny byłby anty-anty-anty-antyrelatywizm. Nie jest to odwołanie do ogólnego wątpienia, choć przyznaje, że kpię trochę z zestawienia poglądów. Codzienność z kolei nie jest wszak po to żeby ją łapać. Lepiej zwyczajnie dryfować, udawać że to co przeciw nie istnieje, że bodźców i wioseł już dawno nie ma… Nachalnie świta, ba już koło południa. Nieprzyzwoicie wręcz leżeć dalej, gdy w około świat dawno się obudził. Nawet, gdy nie ma nic po za mną, zemną.

Niezła piosenka o poranku potrafi zdziałać cuda, oczywiście czasami bywa i tak, iż pobudkowe plany psuje przerwa w dostawie prądu i ustawiane tuż przed snem radio o wyznaczonej godzinie budzenia śpi razem z właścicielem, odbierając mu zasłużoną premię wzorowego współobywatela i działacza ludu.

Po nic szukać bodźca. Proste akcje i reakcje w wyuczeniach Mamy. Świat w głowie tylko… Pora w takim razie otworzyć już oczy. Choć znów jesteśmy jak widzowie programów Discovery, zawsze mamieni nieustannym powtarzaniem poruszanych problemów i zostawiani jak zwykle bez odpowiedzi.

 


[1] C. Geertz, Zastane światło,  Kraków 2004, s.63

[2] Tamże, s. 85

krotka historia pismiennictwa

Wynalazkowa historia piśmiennictwa

To, że dziś możemy czytać książki, prasę, korzystać z internetu i zdobywać wiadomości z całego globu, a także  publikować oraz rozpowszechniać dzieła światowej literatury, czy wreszcie samemu pisać, chociażby najzwyklejsze pisma, zawdzięczamy na przestrzeni dziejów zaledwie kilku kluczowym wynalazkom. Każdy z osobna miał rewolucyjny wpływ na rozwój ludzkości, a wszystkie razem tworzą to, co dziś stanowi dla nas zwykłą codzienność, z której korzystamy nie zastanawiając się specjalnie nad pochodzeniem tego, bez czego nie wyobrażamy sobie współczesnej cywilizacji.

O wyjątkowości danej cywilizacji czy narodu stanowiła zawsze kultura przez nie tworzona, którą możemy poznawać dzięki pozostawionym źródłom. Wśród nich najbardziej znaczące są źródła pisane. Możemy je śledzić od momentu pojawienia się alfabetu. Pierwszym systemem znaków służącym do zapisywania wiadomości było pismo klinowe, czyli syntetyczne, stworzone ok. 3 000 r. p.n.e. przez Sumerów, na terenach obecnego Iraku. Jeden znak wyrażał w nim jakąś myśl lub całe zdanie, przez co jego interpretacja zawsze była niejednoznaczna. Posługiwanie się nim wymagało znajomości tysięcy symboli, przez co jego opanowanie było niezwykle trudne. Następnym etapem było pismo ideograficzne, w którym poszczególne znaki odpowiadały określonym słowom. Dużego postępu w rozwoju i rozprzestrzenieniu alfabetu dokonali ok. 1050 r. p.n.e. Fenicjanie, zamieszkujący tereny dzisiejszego Izraela, Libanu i Syrii. Stworzyli oni spółgłoskowy system znaków odpowiadających już nie słowom, a dźwiękom i zawierający zaledwie 24 litery. W takiej też formie wynalazek ten dotarł do Grecji, gdzie udoskonalono go dodając symbole odpowiadające samogłoskom, tworząc w ten sposób pierwszy prawdziwy alfabet. Kolejnego przełomu ok. 7 w. p.n.e.  dokonali Rzymianie, którzy zainspirowani przez Greków stworzyli własny alfabet, zawierający tylko dwadzieścia jeden liter[1], czyniąc go najprostszym ze wszystkich dotychczas znanych systemów. Tak znaczące uproszczenie alfabetu oraz ekspansywność Rzymian sprawiły, że szybko rozprzestrzenił się on w całym starożytnym świecie i do dziś jest najczęściej używanym alfabetem[2].

Pierwszym materiałem pisarskim była mokra glina. Formowano ją w tabliczki i przy pomocy rylca, żłobiono w niej znaki, utrwalające się po wypaleniu ich w piecu. Był to jednak materiał wyjątkowo niepraktyczny, gdyż po zaschnięciu wprowadzanie zmian stawało się niemożliwe, na dodatek tabliczki były ciężkie i zajmowały dużo miejsca, co nastręczało problemów z ich przechowywaniem. Dla skrybów, poetów i księgowych rewolucyjnym wynalazkiem okazały się więc tusz i papier. Pierwszą recepturę na tusz opracowano w Chinach. Składał się on początkowo  z sadzy, oliwy, żelatyny  ze skór osłów oraz piżma. Ok. 400 r. p.n.e. pojawił się inny przepis, zapewniający tuszowi większą wyrazistość i trwałość. Wyrabiano go z soli żelaza, tanin z żołędzi oraz z żywicy. Jednak receptury te okazały się niewystarczające, gdy w XV w. wynaleziono prasę drukarską. Tusz nie przywierał po prostu do metalowych czcionek i rozmazywał się na stronie. Problem ten rozwiązała nowa mieszanina sadzy, terpentyny i oleju z orzechów włoskich[3].

Mniej więcej w tym samym czasie co tusz, wynaleziono papier. Pierwszy był jednak papirus, wyrabiany przez Egipcjan z rośliny nazywanej pa-p-irus(nadrzeczna), której miękką tkankę wewnętrznej części łodygi rozgniatano na płaski pasek. Paski kładziono na desce zwilżonej wodą, w  poprzek nakładano taką samą, drugą warstwę. Następnie obie warstwy poddawano działaniu prasy i suszono na słońcu. Gotowe arkusze sklejano ze sobą brzegami za pomocą kleju z mąki, wody i octu, a chropowatości wyrównywano muszlą lub kością słoniową. Jeden zwój składał się przeważnie z dwudziestu arkuszy[4].  Papirus był materiałem lekkim, wygodnym do przenoszenia, a zarazem łatwym do przechowywania. Egipcjanie zapoczątkowali więc jego wyrabianie na szerszą skalę, a powstające zwoje szybko zyskały zbyt w innych krajach. Około 105 r. n.e. chiński minister rolnictwa Tsai Lun wynalazł papier. Wyrabiano go z liści morwy, lnianych szmat i konopi. Składniki te rozdrabniano i mieszano  z wodą. Gotową zawiesinę wlewano do kadzi i czerpano ją w płaskie sita z nici bambusowych. Gdy woda ściekła wykładano arkusze papieru na filc i przykrywano drugim kawałkiem filcu. Uzyskany w taki sposób stos papieru prasowano w przystosowanych do tego prasach. Następnie arkusze osuszano na wolnym powietrzu, wygładzano kamieniem i przycinano do odpowiednich rozmiarów. Do ósmego wieku metoda ta rozprzestrzeniła się we wszystkich krajach arabskich. Najstarsze okazy papieru znaleziono  na Pustyni Tybetańskiej i pochodzą z IV w.[5] Do Europy papier dotarł za sprawą krucjat w XII w., a w Polsce pojawił się dopiero w wieku XIV[6].  Do tego czasu do zapisywania używano pergaminu, czyli cienkich arkuszy skóry cielęcej, owczej i koziej. Stosowano go już sporadycznie w XII w. p.n.e., ale do powszechnego użytku wchodził stopniowo od III w. p.n.e[7]. Sposób jego wyrabiania polegał na moczeniu skóry w wodzie wapiennej, następnie usuwano sierść i znowu moczono. Skórę naciągano na drewniane ramy, suszono, gładzono pumeksem i posypywano sproszkowaną kredą[8]. Trzeba jednak zaznaczyć, że papirus, papier czy pergamin były materiałem drogim dlatego w życiu codziennym aż do średniowiecza dominowały tabliczki z metalu lub drewna. Malowano je na biało, pokrywano cienką warstwą wosku i na tak przygotowanym materiale sporządzano zapiski. Pojedyncze tabliczki tasiemkami łączono na grzbiecie tworząc w ten sposób wygodny w użyciu notes odpowiedni tak dla ucznia, jak i polityka, kupca czy pisarza[9].

Początkowo pismo było wykorzystywane do sporządzania dokumentów, utrwalania ważnych wiadomości, podań, zapisków kronikarskich itp. Sporządzaniem takich informacji zajmowali się skrybowie, księgowi czy kronikarze.  Stopniowo jednak umiejętność czytania i pisania była coraz bardziej powszechna i przestawała podporządkowywać się czynnościom stricte administracyjnym, stając się za sprawą pisarzy i poetów czynnikiem kulturotwórczym. Szybko pojawiła się konieczność masowego kopiowania dokumentów czy ksiąg. Do XV w. zajmowali się tym kopiści. Kopie sporządzano przeważnie ręcznie, co było zajęciem żmudnym, kosztownym i pracochłonnym, a na dodatek kopiści często robili błędy w przekładach przepisywanych tekstów. Wielkiego przełomu w rozwoju piśmiennictwa i literatury w ogóle dokonał więc Johannes Gensfleisch, zwany Gutenbergirm. W 1456 r.  skonstruował prasę drukarską, która zrewolucjonizowała proces druku i kopiowania. Już w starożytności dokonywano prób drukowania, które polegały na odbijaniu całych stronnic z pokrytych farbą glinianych tabliczek. W 1041 r. chiński kowal Pi Szeng wpadł na pomysł stosowania oddzielnych tabliczek dla każdego ideogramu, tworząc w ten sposób drewnianą lub metalową czcionkę drukarską. W Europie, prawdopodobnie niezależnie od Pi Szenga, pomysł ten przypisuje się Holendrowi L.J. Costerowi, który w 1423 r. przy użyciu czcionek wydrukował 8-stronnicową książeczkę zatytułowaną Horarium[10]. Główną innowacją wynalazku Gutenberga było odlanie z ołowiu ruchomych czcionek. Układano je w wąskich drewnianych rynienkach, z której każda stanowiła jedną linijkę tekstu. Następnie rynienki umieszczano w ramie, tworzącej matrycę strony, ołowiane czcionki pokrywano tuszem i odciskano na nich papier. Zastosowano także justunek, czyli materiał nieodbijalny do robienia odstępów między wierszami[11]. W ten sposób można było wydrukować szybko i tanio dowolną ilość kopii. W 1456 r. przy użyciu prasy Gutenberga wydrukowano Biblię zawierającą 1286 stronnic i swym wyglądem oraz jakością przewyższającą wszystkie księgi pisane dotychczas ręcznie[12]. Od tego momentu stopniowo wzrasta druk książek, pism czy prasy codziennej, a wprowadzane innowacje wciąż zwiększały możliwości drukarskie kolejnych maszyn, co z kolei miało przełożenie na stopniowo coraz szerszy dostęp do literatury i rozwój kultury w ogóle. Kolejny wielki postęp w dziedzinie drukowania nastąpił w 1814 r., kiedy to F. Koenig zbudował prasę drukarską z napędem mechanicznym, umożliwiającą druk 800 odbitek na godzinę[13]. Wraz z mechanizacją druku rozpoczyna się era masowej produkcji książek i prasy.

W dziejach piśmiennictwa kultowym wręcz narzędziem pozostaje maszyna do pisania, którą w 1868 r. wynalazł Christopher Sholes. Na wałek nawijało się i mocowało arkusz papieru. W miarę jak na papierze pojawiały się kolejne linijki tekstu, wałek przesuwał papier ku górze. Gdy wciskało się klawisz zawierający odpowiednią literę, cyfrę lub znak interpunkcyjny, unosiło się metalowe ramię odpowiadające wybranemu znakowi, które uderzało w pokrytą tuszem taśmę i odciskało literę na znajdującym się dalej papierze. Całość osadzona była na szafce zapożyczonej od maszyny do szycia. Ponieważ do produkcji maszyny do pisania potrzebne były precyzyjnie wykonane, drobne elementy metalowe, Sholes przyszedł ze swoim wynalazkiem do słynnej firmy produkującej broń – Remington Arms. Początkowo jednak produkcja nie przynosiła zysków. Błędnie nastawiono się na prywatnych odbiorców. Do 1880 r. sprzedano zaledwie 5000 egzemplarzy. Dopiero gdy zwrócono się do firm i korporacji, w ciągu sześciu lat sprzedaż wzrosła do 50 000. Z czasem maszyny zaczęły cieszyć się też dużym zainteresowaniem wśród prywatnych odbiorców. Na początku XX w. opracowano elektryczne maszyny do pisania. Pojawiła się też taśma korekcyjna, dzięki której można było usunąć błędnie zapisane znaki[14]. W Polsce pierwsze maszyny do pisania produkowały fabryki w Warszawie i w Radomiu[15]. Kres ery maszyn do pisania położył komputer. Jego wynalezienie uczyniło je sprzętem przestarzałym i niepraktycznym, przez co wycofano je z powszechnego codziennego użytku.

Kolejnym niezwykle znaczącym wynalazkiem, wprowadzającym piśmiennictwo na nowe tory był komputer osobisty. Pierwszy komputer w ogóle, czyli elektroniczną maszyną cyfrową nazwaną MARK-I, zbudowano w latach 1937-44 w USA. Seryjne wytwarzanie wciąż ulepszanych komputerów podjęto pod koniec lat czterdziestych. Wciąż należały one jednak do maszyn służących przede wszystkim do wykonywania skomplikowanych obliczeń matematycznych i balistycznych, na dodatek pobierały ogromne ilości mocy, wymagały stałego chłodzenia i zajmowały powierzchnię nawet 140 m²[16]. Nie były też przeznaczone dla odbiorców indywidualnych. W połowie lat sześćdziesiątych, wraz z zastosowaniem układów scalonych komputery zaczęły uzyskiwać coraz lepsze osiągi, a zarazem zmniejszały się ich rozmiary. Pierwszy komputer osobisty – Altair 8800 firmy MITS, zaprezentował w 1975 r. Ed Roberts i Bill Gates, ale pierwszym masowo produkowanym był ten stworzony rok później – Apple I, zaprojektowany w garażu przez Steve`a Woźniaka i Steve`a Jobsa. Oferował on konsumentom rozszerzoną pamięć, możliwość przechowywania danych, kolorową grafikę, klawiaturę oraz szesnastobitowy procesor[17]. Komputer Apple I można było nabyć za ok. 660 dolarów[18]. W 1981 r. wprowadzono do sprzedaży Apple II, który posiadał już prosty edytor tekstów oraz arkusz kalkulacyjny[19]. W Polsce pierwszy komputer osobisty zbudował Jacek Karpiński. Prototyp K-202, bo taką otrzymał nazwę, był gotowy już w 1971 r. Miał wielkość małej walizki, pracował z szybkością miliona operacji na sekundę i operował 150-cio kilobajtową pamięcią[20]. Niestety projekt nie uzyskał wsparcia władz PRL i mimo rozpoczętej już produkcji został zarzucony. Dziś mało kto wie, że jednym z pionierów w budowie minikomputera był Polak, a Polska mogła stać się jedną ze światowych potęg w dziedzinie komputeryzacji. Dla samego piśmiennictwa najbardziej przełomowe okazało się jednak wprowadzenie do komputerów edytorów tekstu. Pierwszym był Electric Pencil, pracujący na komputerze Altair[21]. Najbardziej popularnym okazał się Word, który ukazał się w 1983 r. Wciąż unowocześniany stopniowo dawał piszącemu coraz większe możliwości dokonywania nieograniczonej liczby operacji na jednym tekście, bez konieczności jego drukowania, kreślenia czy przepisywania[22].

Nie sposób nie wspomnieć też o wynalazku ściśle związanym z rozwojem piśmiennictwa, niejako mu podlegającym i będącym chyba jego najważniejszym przejawem. Mowa oczywiście o książce. Najbardziej typową jej postacią od VI w. p.n.e. był zwój papirusu. Jako nośnik do utrwalania i rozpowszechniania treści literackich pierwsi wykorzystali go Grecy[23]. Zwoje okazały się jednak wyjątkowo nieporęczne przy studiowaniu tekstu, zwłaszcza obszernego, dlatego w rozwoju książki bardzo znaczącym momentem jest wynalezienie pergaminu. Był wytrzymalszy od papirusu, można go było zapisywać z obydwu stron i podobnie jak drewniane tabliczki, zszywać na grzbietach tworząc kodeks. Powstanie pierwszych  kodeksów datuje się na ok. II w. p.n.e., ale popularność zaczęły zdobywać dopiero w I w. n.e., gdy zaczęto utrwalać na nich twórczość największych poetów i pisarzy. Pierwsze książki nie posiadały strony tytułowej, numeracji stron ani indeksów. Część informacji związanych z utworem umieszczano w kolofonie, czyli na ostatniej stronie[24]. Początkowo też dostęp do rękopisów był mocno ograniczony. Tworzono je przeważnie na zamówienie, często w pojedynczych egzemplarzach i głównie w ośrodkach przyklasztornych lub dworskich. Książki były też dobrem niezwykle cennym, tak że w bibliotekach przykuwano je łańcuchami do półek czy stołów[25]. Do laicyzacji skryptoriów przyczyniły się uniwersytety, przy których tworzono biblioteki zawierające materiały niezbędne do nauki, w tym także teksty wykładów. Materiały wypożyczano za odpowiednią opłatą[26]. Zarówno wygląd, jak i dostęp do książki zrewolucjonizował wynalazek druku. Pojawiły się strony tytułowe, zawierające nazwisko pisarza, tytuł dzieła, informację o wydawcy, drukarzu, miejscu i czasie wydania, zaczęto też numerować strony i wprowadzono indeksy. Wynalazek druku uwolnił książkę z klasztornych murów i łańcuchów, czyniąc ją dobrem publicznym, do którego dostęp stawał się coraz bardziej powszechny[27]. Jednak naprawdę masowa produkcja książek rozpoczęła się dopiero w XIX w., gdy proces druku został zmechanizowany. Wtedy też książki zaczęły być dobrem, na które rzeczywiście mógł sobie pozwolić niemal każdy, zwłaszcza, że coraz częściej rezygnowano z twardej oprawy. Współczesna książka  narodziła się w 1939 r. w Stanach Zjednoczonych, gdzie wydawca Robert F. de Graff założył Pocket Books, pierwszą firmę publikującą książki wyłącznie w miękkich oprawach. Jako pierwsze opublikowano w ten sposób m.in. Wichrowe wzgórza, czy powieści Agathy Christie[28].

Na rozwój piśmiennictwa miało również wpływ kilka mniejszych wynalazków, które na trwałe weszły do codziennego użytku i bez których trudno dziś się obejść. W 1795 r. francuski chemik Nicolas Conte wynalazł ołówek. Dokonał tego przez zmieszanie razem i wypalenie gliny z grafitem, które następnie umieścił w drewnianej oprawce. Conte odkrył również, że czas wypalania mieszanki gliny i grafitu określa twardość ołówka. Do rysowania lepszy był miękki, do pisania twardy. Błędnie zapisane znaki można było łatwo usunąć przy pomocy ośródki bułki lub chleba. Ołówek był bardzo przydatnym narzędziem do sporządzania szybkich, brudnopisowych notatek. Jego praktyczność wzrosła w 1858 r., gdy Hyman Lipman wpadł na pomysł przymocowania do górnej części ołówka kawałka wulkanizowanej gumy, a John Lee Love, ok. 1897 r. wynalazł małą kieszonkową temperówkę[29].

Do lat trzydziestych XX w. do sporządzania ręcznych ważnych zapisków używano pióra. Najstarszym przodkiem tego przyrządu pisarskiego jest rylec służący do pisania na tabliczkach i wyrabiany z kości słoniowej lub metalu. W przypadku papirusu stosowano pióra trzcinowe, a od V w. do pisania na pergaminie czy później papierze używano gęsiego pióra, moczonego w pojemniku z atramentem i ostrzonym specjalnym nożykiem[30]. Udręką była konieczność przerywania co kilka słów pisania aby uzupełnić wysychający na piórze atrament. Później powstało wieczne pióro, zawierające wewnątrz zbiorniczek z pompką, który co jakiś czas, ale już znacznie rzadziej, wymagał napełnia atramentem. W pełni dojrzały produkt stworzył w 1894 r. L. Waterman.[31] Pisanie piórem było jednak uciążliwe również dlatego, że pisarz zawsze brudził się atramentem, który na dodatek, na papierze wolno wysychał, przez co bardzo łatwo można było zamazać zapisywaną stronę. Tusze używane w drukarniach wysychały niemal natychmiast, ale ze względu na zbyt dużą gęstość nie można ich było zastosować w piórach. Z takimi problemami przy pisaniu zmagano się więc aż do 1939 r., kiedy to pochodzący z Bułgarii dziennikarz László Biró wymyślił długopis. Innowacja polegała na tym, że w piórze Biró znajdowała się rurka wypełniona kleistym, szybkoschnącym tuszem. Na jej końcu zamocował malutką stalową kulkę, która obracając się pobierała tusz z wkładu i przenosiła go na papier, gdzie niemal natychmiast zasychał[32]. Po wybuchu wojny Biró, ze względu na żydowskie pochodzenie, musiał uciekać przed represjami emigrując do Argentyny, gdzie opatentował swój wynalazek. Okazało się, że dzięki długopisowi miał on swój wkład w działania wojenne, ponieważ jako pierwszy na szeroką skalę jego wynalazek wykorzystał Departament Obrony Stanów Zjednoczonych, poszukujący akurat pióra, które można by używać w samolotach na dużych wysokościach. László Biró pozostał w Argentynie już do końca życia, a żeby uczcić jego pamięć, w dniu jego urodzin, czyli 29 września, obchodzi się tam „Dzień Wynalazcy”[33].

Niewątpliwie istniało jeszcze wiele innych wynalazków, które przyczyniły się do rozwoju piśmiennictwa. Niniejszy artykuł przedstawia jedynie te najważniejsze, subiektywnie dobrane przez autora. Gdyby jednak zebrać i opisać wszystkie, można by stworzyć osobną publikację na ten temat. Każda dziedzina związana z funkcjonowaniem człowieka we współczesnym świecie miała swój powolny proces dochodzenia do tego, co na co dzień obserwujemy i z czego dziś korzystamy. Podążanie śladami tej ewolucji, poznawanie jej mechanizmów oraz tych, którzy poruszali jej trybami, bez wątpienia jest czymś fascynującym.

 

 

Bibliografia:

Boorstin J. Daniel, Odkrywcy. Dzieje ludzkich odkryć i wynalazków, Warszawa 1998;

Craughwell J. Thomas, Wielka księga wynalazków, Warszawa 2010;

Encyklopedia odkryć i wynalazków chemia, fizyka, medycyna, rolnictwo, technika, red. Jezierska Krystyna, Warszawa 1979;

Głombiowski Karol, Szwejkowska Helena, Książka rękopiśmienna i biblioteka w starożytności i średniowieczu, Warszawa 1971;

Szymański Józef, Nauki pomocnicze Historii, Warszawa 2002;

 

Strony internetowe:

http://mat-inf-gim2.tbg.net.pl/ciekawostki.html

http://webcover.pl/historia-edytorow-tekstu.htm,

http://pl.wikipedia.org/wiki/Microsoft_Word

 


[1] Znaki G,J,U,W i Y dodano do niego wiele wieków później.

[2] Karol Głombiowski, Helena Szwejkowska, Książka rękopiśmienna i biblioteka w starożytności i średniowieczu, Warszawa 1971, s. 8; Thomas J. Craughwell, Wielka księga wynalazków, Warszawa 2010 r., s. 50.

[3] T. J. Craughwell, op.cit., s. 58.

[4] K. Głombiowski, H. Szwejkowska, op.cit., s. 21-22.

[5] Obecnie znajdują się w świątyni Tung Huan w Turkiestanie, w British Museum oraz Bibliothéque Nationale w Paryżu

[6] Józef Szymański, Nauki pomocnicze Historii, Warszawa 2002, s. 310.

[7] Encyklopedia odkryć i wynalazków chemia, fizyka, medycyna, rolnictwo, technika, red. Krystyna Jezierska, Warszawa 1979, s. 261.

[8] Ibidem, s. 309.

[9] K. Głombiowski, H. Szwejkowska, op.cit., s. 24.

[10] Encyklopedia odkryć i wynalazków(…), op.cit., s. 61.

[11] T. J. Craughwell, op.cit., s. 142.

[12] Encyklopedia odkryć i wynalazków(…), op.cit., s. 61.

[13] Ibidem, s. 281.

[14] Ibidem, s. 270.

[15] Ibidem, s. 196.

[16] Ibidem, s. 148-149.

[17] T. J. Craughwell, op.cit., s. 504.

[19] Ibidem.

[20] Ibidem.

[22]  http://pl.wikipedia.org/wiki/Microsoft_Word, dostęp: 26.07.2012, 9:57.

[23]  K. Głombiowski, H. Szwejkowska, op.cit., s. 26-27.

[24]  Daniel J. Boorstin, Odkrywcy. Dzieje ludzkich odkryć i wynalazków, Warszawa 1998, s. 485.

[25] Ibidem, s. 488.

[26] K. Głombiowski, H. Szwejkowska, op.cit., s. 132-133.

[27] D. J. Boorstin,  op.cit. s. 485-487.

[28] T. J. Craughwell, op.cit., s. 432.

[29] Ibidem, s. 190.

[30] J. Szymański, op.cit., s. 312.

[31] Encyklopedia odkryć i wynalazków(…), op.cit. s. 270.

[32] T. J. Craughwell, op.cit.,  s. 428.

[33] Ibidem.