Twoja wyszukiwarka

X.RUT
CZY CZASY CZASU, CZY CZAS CZASÓW
Wiedza i Życie nr 12/1996
Artykuł pochodzi z "Wiedzy i Życia" nr 12/1996

Nie wiem, jak Państwo, ale ja bardzo lubię na śniadanie zjeść jajko na miękko. Ugotowane jak należy. Żeby białko było ścięte, ale żółtko zachowało postać płynną. Odrobinę dłużej przetrzymane w wodzie - stałoby się jajkiem na twardo, którego nie cierpię, zwłaszcza na śniadanie. Wyjęte za wcześnie - byłoby "surowe", a takich niedowarzonych jaj nie jadam. Za to gdy jest w sam raz, ze szczyptą soli i delikatnie posypane białym pieprzem - o, to delikates przedni, z dań śniadaniowych chyba najbardziej atrakcyjna propozycja. Takie idealnie ugotowane jajko w hotelowych restauracjach nazywa się "trzyminutowe".

Kilkoro moich znajomych, świadomych mej słabości do jajek na miękko, obdarowało mnie wieloma urządzeniami do ich gotowania. Mimo różnych gadżetów do kalibrowania, aparaty te w zasadzie są jednakowe: przez ustalony czas jajka poddaje się działaniu temperatury około 90°C. Wspomniane gadżety służą właśnie do mnemotechnicznego ustalania czasu podgrzewania: najczęściej przyjmują postać liniowej skali, na której są obrazki mniejszych i większych jajek, pocieniowane w części, połowie lub całości. Chcesz ugotować średniej wielkości jajko na miękko - przesuwasz skalę aż do obrazka średnio wielkiego jaja w połowie zacieniowanego. Ustawia to grzejnik na... 3 minuty. A przecież inaczej będzie przyrządzone w tym samym aparacie i przez taki sam okres czasu jajko wyjęte wprost z lodówki, a inaczej takie, które nocowało w kuchni na stole, inaczej jajko prosto z kurnika, inaczej - tygodniowe. Konsumenta, a w każdym razie smakosza, interesuje nie to, ile minut było (czy ma być) gotowane jajko, lecz to, jaką konsystencję osiąga białko i żółtko.

Dobry aparat do gotowania jajek na miękko powinien mierzyć nie czas gotowania, który prawdę powiedziawszy jest mi zupełnie obojętny, lecz stan żółtka i białka. Niestety, bez rozbicia skorupki i zanurzenia łyżeczki wgłąb jajka, dość trudno ustalić aktualny stopień ścięcia się tych dwu warstw. Oczywiście, nie jest to niemożliwe, sam opracowałem kilka metod, które być może kiedyś opatentuję. Znacznie łatwiej jednak było skonstruować prostą zależność statystyczną, że w przeciętnych warunkach geograficznych (np. nie na szczycie Kilimandżaro!), przeciętnej świeżości i wielkości jajko gotowane przez 3 minuty mniej więcej odpowiada temu, co przeciętny konsument uznaje za "jajko na miękko". I tak z kryterium przedmiotowego (konsystencja białka i żółtka) przeszliśmy do kryterium czasowego.

W tym przypadku zamiana nastąpiła bardzo dawno - jedno z najpowszechniejszych zastosowań klepsydr (tych wciętych w pasie baloników z przesypującym się piaskiem) to właśnie odmierzanie czasu gotowania jajek na miękko. W wielu innych przypadkach podobna zamiana odbyła się w XIX wieku i oznaczała przejście od graniczącej z magią sztuki rzemieślniczej do procesu o dobrze określonym reżimie technologicznym.

Istota takich zamian jest bardzo głęboka, warto poświęcić jej chwilę zastanowienia. Często zdarza się, że w jakimś procesie wytwórczym albo obróbczym pewne działania należy podjąć (lub poniechać) dokładnie wtedy, gdy zaistnieją ściśle określone warunki. (Tak jak z naszym jajkiem: gdy białko i żółtko osiągną idealną dla smakosza konsystencję należy bezzwłocznie przerwać dalsze ogrzewanie jajka). Bywa jednak, że stwierdzenie zaistnienia owych warunków jest bardzo trudne albo tak czasochłonne, iż nie można się nimi posłużyć wprost. (Znowu jak z jajkiem gotowanym na miękko: jeśli w celu zbadania czy jest już dobrze ugotowane, zechcielibyśmy organoleptycznie zbadać konsystencję zawartości skorupki, skrajnie trudno by było kontynuować proces gotowania niedowarzonego jeszcze jajka). W takim przypadku staramy się zbudować odpowiedni model matematyczny interesującego nas procesu, na tyle precyzyjny by pozwolił wyliczyć, kiedy to zaistnieją te warunki, w których mamy podjąć wskazane działania.

Model taki najczęściej przyjmuje postać równań różniczkowych, których rozwiązanie opisuje przebieg procesu jako funkcję czasu. Jeśli dobrze ułożymy równania i poprawnie je rozwiążemy, uzyskamy jawną zależność wartości zmiennych charakteryzujących badany proces od upływu czasu (mierzonego zazwyczaj od umownej chwili początkowej). Nie zawsze zresztą uciekamy się do opisanego postępowania. Niekiedy wystarczy wykonać pewną liczbę prób i doświadczalnie ustalić, jakie konkretnie wartości przyjmują parametry procesu na przykład po upływie 5, 10, 15 itd. jednostek czasu od chwili jego rozpoczęcia. Możemy na przykład włożyć do kotła z wrzątkiem 25 jajek i wyjmować po jednym co 10 sekund, znacząc na skorupce czas wydobycia jajka z kąpieli. Po 250 sekundach, gdy wszystkie jajka są już wyjęte, próbujemy je po jednym i odnotowujemy wynik degustacji: 10 s - surowe, 20 s - surowe,..., 150 s - prawie dobre, 170 s - dobre, 180 s - dobre, 190 s - dobre, 200 s - trochę za twarde,..., 250 s - twarde.

Nie chciałbym wdawać się w rozważania, która droga uzyskiwania ostatecznej zależności parametrów od czasu jest "lepsza" czy "dokładniejsza". Ważne bowiem jest to, że obie (a reprezentują one znacznie bogatszą klasę podejść) są obciążone licznymi wadami, z których najważniejsze polegają na konieczności przyjmowania dodatkowych założeń (uproszczeń).

W metodzie "25 jajek" uproszczenia widać jak na dłoni: skąd wiadomo, że inne 25 jaj będzie zachowywać się podobnie? Co z jajkami większymi albo mniejszymi, świeższymi lub starszymi? Włożenie 25 zimnych jajek na raz obniża chwilową temperaturę "wrzątku" bardziej niż włożenie tylko 2 sztuk na raz, a zresztą zależy to od wzajemnego stosunku objętości wrzątku i jajek, więc wyniki "z kotła" niekoniecznie dają się przenieść na warunki domowego gotowania w małym garnuszku. O tych obiekcjach mówiliśmy już poprzednio.

W metodzie "równań różniczkowych" uproszczeń - z reguły - jest wcale nie mniej. Opisując zjawiska świata realnego w języku matematyki, najczęściej trzeba pominąć jedne aspekty, by uwypuklić inne. (Oczywiście, staramy się wybrać to, co najważniejsze, ale czasem kierujemy się także tym, co potrafimy opisać, mniej lub bardziej dyskretnie omijając to, czego teorią - tj. sposobem opisu - nie dysponujemy). Powstające równania nie zawsze dają się rozwiązać dokładnie, ba, szczerze powiedziawszy, dające się dokładnie rozwiązać równania różniczkowe należą do rzadkości. Stosuje się więc przybliżone metody rozwiązania, a w trakcie liczenia - przybliżone rachunki (bo komputery liczą zawsze z ograniczoną dokładnością).

Wszyscy poważni badacze są oczywiście w pełni świadomi tych uproszczeń. Powstały całe gałęzie wiedzy, zajmujące się ich analizą i przewidywaniem skutków, jakie mogą one spowodować. Bada się na przykład stabilność uzyskiwanych rozwiązań, czyli poszukuje odpowiedzi na pytanie, czy małe niedokładności (a także zaniedbania) w danych początkowych mogą prowadzić do niewspółmiernie wielkich błędów rozwiązania. Odpowiedź - jak pewnie Czytelnicy podejrzewają - jest niejednoznaczna: czasem tak, czasem nie. To, od czego zależy stabilność rozwiązań, jest przedmiotem głębokich i ważnych studiów.

Niestety, wielu "użytkowników" takich uproszczonych metod albo z nieświadomości, albo z głupoty, przyjmuje uzyskiwane rozwiązania za prawdy objawione, zwłaszcza gdy pojawiają się one na ekranie komputera, albo w postaci drukowanej. Sprzyja temu rozpowszechnienie "łatwych w obsłudze" programów komputerowych, które pozwalają szybko i bez wysiłku uzyskać rozwiązania, pomijając wszystkie kłopotliwe badania jakości i bezpieczeństwa uzyskanych wyników.

Nie mogę tu oprzeć się gorzkiej uwadze historycznej. Pierwszy dobrze zbudowany język programowania, Algol, stworzyła międzynarodowa grupa ekspertów, w skład której wchodziła cała prawie ówczesna światowa czołówka speców od analizy numerycznej (tak nazywa się dział matematyki badający wiele z wymienionych problemów). Jak ognia unikali wbudowania do Algolu czegokolwiek, co mogło by stworzyć pozory jednoznaczności i pewności w sytuacjach, w których stan wiedzy nie pozwalał ani na jednoznaczność, ani na pewność. Twórcy Algolu uważali, że tam gdzie wiedza nakazuje ostrożność, użytkownika komputera należy zmusić do świadomego wyboru drogi postępowania, choćby po to, żeby poczuł brzemię odpowiedzialności. W miarę upływu czasu, a minęło już lat bez mała czterdzieści, wszystkie pułapki na łatwowiernych i bezmyślnych, które twórcy Algolu starannie usunęli ze ścieżek, jakimi chadzają zwykli użytkownicy komputerów, zostały "odkryte" przez kolejne pokolenia nieodpowiedzialnych producentów masowego oprogramowania i - przy ryku fanfar głoszących "postęp" - gęsto rozsiane w "produktach", chronionych co prawda prawem autorskim, lecz tak niebezpiecznych, że wytwórcy explicite odmawiają przyjęcia jakiejkolwiek odpowiedzialności za konsekwencje ich stosowania. To, za co producent leku czy samochodu odpowiada całym majątkiem, w przypadku producenta oprogramowania wyjęte jest poza nawias odpowiedzialności. Że społeczeństwo taki stan rzeczy toleruje, świadczy dobitnie, jak mało poważnie traktuje ono cały ten infantylny "przemysł informatyczny", jak niewiele poza rozrywką po nim się spodziewa!

Powróćmy jednak do głównego wątku. Poznaliśmy już jedną z przyczyn rozkwitu metod zastępowania bezpośredniego pomiaru interesujących wielkości pomiarem czasu, w oczekiwaniu chwili, w której - na mocy przyjętego modelu - przewiduje się, że przyjmą one te czy inne wartości. Obok tej podstawowej przyczyny, tj. obok obiektywnej trudności dokonania pomiaru wartości parametrów przedmiotowych, ważną rolę odegrał prosty zbieg okoliczności. Otóż w XIX wieku udało się wdrożyć masową produkcję stosunkowo tanich i zupełnie dobrych zegarków.

Pomiar czasu z dokładnością wystarczającą do problemów dnia codziennego i zdecydowanej większości procesów produkcyjnych nie stanowił już żadnej trudności. Powstała przeto nieprzeparta wręcz pokusa zredukowania złożoności wielowymiarowego świata do dwuwymiarowych zależności czasowych. Pokusa tym silniejsza, że wsparta niczym jeszcze niezmąconą wiarą w pełność newtonowskiej mechaniki i solidnością jej filozoficznych kuzynów. To zaś, że przy posługiwaniu się tymi metodami prawie zawsze zastępujemy rzeczywisty problem jego nieuchronnie przybliżonym tylko modelem, nie wydawało się ceną zbyt wygórowaną. Także i dlatego, że - na dobrą sprawę - nie było żadnej innej rozsądnej drogi.

Dziś sytuacja uległa dość radykalnej zmianie, i to w kilku płaszczyznach naraz. Ani prosta newtonowska mechanika nie jest już alfą i omegą poglądu fizyki na świat, ani jej filozoficzne pochodne nie stanowią niewzruszonego kanonu. Sam czas przestał być jednolitym, neutralnym i wszechobecnym wymiarem trwania świata i przebiegu zjawisk w nim zachodzących. Poznaliśmy naturę przybliżonych rachunków i wiemy już, że niektórych błędów nie da się uniknąć w żaden sposób. A co najważniejsze dla naszych rozważań, dzięki prawdziwej erupcji środków i aparatury pomiarowej, obficie czerpiących z arsenału optyki laserowej i mikroelektroniki (by wspomnieć dwie tylko techniki zupełnie nieznane naszym XIX-wiecznym przodkom), umiemy mierzyć różne wielkości znacznie dokładniej i szybciej niż mogli zamarzyć nasi dziadkowie. Powinno to spowodować odwrót od metod sterowania opartych na przewidywaniu zjawisk na korzyść metod opartych na reagowaniu na spostrzeżenia. A przecież takiej zmiany nie widać, w każdym razie nie występuje ona w spodziewanej skali.

Wydaje się, że mamy tu do czynienia z uwikłaniem nauki w pęta własnego sukcesu. Zdarzało się to już i przedtem. Astronomowie przez długi czas doskonalili ptolomejski model Układu Słonecznego, dodawali do niego wciąż nowe epicykle i dyferenty, wciąż poprawiając dokładność obliczeń, aby dogonić wzrastającą precyzję pomiarów. Dziś, wyposażeni w wiedzę o szeregach trygonometrycznych, wiemy, że model ten można udoskonalać praktycznie bez granic, uzyskując dowolną potrzebną precyzję rachunków i zgodność z obserwacjami. Geniusz Kopernika, Keplera i Newtona polegał nie na poprawieniu zgodności obliczeń z obserwacjami, lecz na odrzuceniu pośrednictwa struktur, które stworzył Ptolomeusz (i jego wspaniali następcy), struktur zupełnie zbędnych.

Niewątpliwy sukces mechaniki newtonowskiej i jej potomstwa we wszystkich chyba dyscyplinach nauk ścisłych stosowanych uwikłał nas w pęta zależności czasowych. Procesy zachodzące w świecie realnym lubimy traktować jako zmiany wartości ich parametrów w czasie. Nieprzydatność tego rodzaju poglądów w kilku działach fizyki, zamiast pobudzić do refleksji o zasadności sztampowego traktowania wszystkich zjawisk na jedną modłę, sprowadziła inteligentnych skądinąd badaczy na manowce cieniutkiej filozofii i sprowokowała do rozważania takich pytań, jak na przykład: "co było przed Wielkim Wybuchem (tym od powstania Wszechświata)?", zupełnie jak gdyby czas mógł płynąć w materialnej nicości, albo jak gdyby przed powstaniem Wszechświata istniało coś materialnego. (Stawiając to pytanie faktycznie kwestionuje się hipotezę Wielkiego Wybuchu, ale to już zupełnie inna historia).

W mniej ezoterycznym aspekcie, przywiązanie do czasowej perspektywy zmusza inżynierów wielu specjalności (najdotkliwiej cierpią z tego powodu telekomunikanci!) do dosłownego traktowania hasła "real time" i wprowadzania całej masy zupełnie arbitralnych rozwiązań. Projektując zasady współdziałania procesów współbieżnych zgodnie z czasowym punktem widzenia, trzeba na przykład udzielić odpowiedzi na pytanie: "jak długo proces A ma czekać na zgłoszenie się procesu B, zanim uzna, że proces B się nie zgłasza?" Cokolwiek odpowiemy: 5 s, 7.2 s, dobę czy sto lat, będzie odpowiedzią arbitralną, o czym łatwo się przekonać, zadając pytanie pomocnicze: "dlaczego 7.2 s a nie, powiedzmy, 7.199 s?" Stawiam kawę z koniakiem Czytelnikowi, który od fachowca uzyska na to pomocnicze pytanie odpowiedź inną niż "nie bądź głupi" (lub równoważną, choć grzeczniejszą).

Aleksander Graham Bell, który uszczęśliwił wszystkie nastolatki tego świata, kładąc podwaliny systemu globalnego szczebiotu, tak zaprojektował protokół łączenia się dwu rozmówców, że każdy abonent musi na własną rękę rozstrzygać dylemat: "czy Jasio się nie zgłasza, bo jest w łazience, czy go nie ma w domu" i podejmować decyzję, po ilu "dzwonkach" odłożyć słuchawkę.

O tym, że możliwy jest inny, znacznie rozsądniejszy protokół, wie każdy biznesmen, którego stać na sekretarkę. Poleca jej łączyć z panem Janem i nie czeka na nic, tylko kontynuuje inne zajęcia, aż mu sekretarka zamelduje: "Pan Jan na linii". (Nowoczesne centrale telefoniczne umożliwiają każdemu abonentowi korzystanie z tego drugiego protokołu, ale ze względu na przyzwyczajenia klientów faktu tego nie reklamuje się powszechnie, przynajmniej nie czyni się tego na wszystkich rynkach).

Sterowanie zależne od zdarzeń zamiast od upływu czasu z reguły prowadzi do lepszej jakości procesów. Zamiast spustu stali po tylu a tylu godzinach od rozpoczęcia wytopu lepiej prowadzić stałą analizę (np. spektroskopową) zawartości pieca i spust rozpocząć dokładnie wtedy, gdy trzeba. Dzięki technice pomiarowej i obliczeniowej, którą dziś dysponujemy (a której nie było jeszcze kilkanaście lat temu), od chwili osiągnięcia optimum wsadu do rozpoczęcia spustu upłyną co najwyżej mikrosekundy; przewidywany moment wystąpienia optimum, a więc przewidywany moment rozpoczęcia spustu, może się różnić od rzeczywistego wystąpienia optimum nawet o kilkanaście minut, co wystarcza do wydatnego pogorszenia jakości produktu.

Nowoczesna informatyka teoretyczna rozwija metody programowania reaktywnego, w którym odchodzi się od schematu wykonywania instrukcji po kolei, w raz na zawsze ustalonym następstwie, na rzecz zasady wykonywania działań odpowiadających aktualnym warunkom. I w tym podejściu widać odwrót od pryncypiów przewidywalności, przedstawiania zjawisk w postaci czasowej prognozy. Jednolity, wszechobecny i równomiernie płynący czas, wytwór XIX-wiecznej myśli mechanistycznej, powoli rozpada się na wiele czasów lokalnych, płynących w rytmie wydarzeń charakterystycznych hic et nunc, wcale niekoniecznie ze sobą powiązanych. Prawo obywatelstwa zyskują metody badawcze, w których "oś czasu", zapamiętana z lat szkolnych jako prosta t, rozwidla się jak gałęzie choinki.

Nie opuszcza mnie nadzieja, że na którąś Gwiazdkę znajdę pod choinką kolejny aparat do gotowania jajek na miękko, który nareszcie nie będzie zakamuflowanym budzikiem!