Pamiętacie lęk przed rokiem 2000? A może nie było Was jeszcze wtedy na świecie? Przypominamy kulisy paniki związanej z pluskwą milenijną. Czy globalne obawy były uzasadnione?
Pod koniec lat 90. XX wieku w powietrzu czuć było podniecenie, ale i dziwną, irracjonalną nerwowość. Czekaliśmy na nowe – rok 2000. Nie chodziło tu wyłącznie o sylwestra i imprezy, które miały być ponoć większe i bardziej szalone niż kiedykolwiek wcześniej. Chodziło o coś, co sprawiało, że niektórzy specjaliści od IT, menedżerowie, a nawet zwykli szarzy użytkownicy komputerów (przynajmniej ci bardziej wkręceni w sprawy technologiczne) mieli pewne obawy. Tym „czymś” był problem roku 2000, znany również jako „pluskwa milenijna” (po angielsku: Y2K).
Dlaczego akurat „pluskwa”? Ano dlatego, że nazwa odzwierciedlała wyobrażenie o małej, aczkolwiek wyjątkowo upierdliwej usterce, która mogła wgryźć się głęboko w struktury systemów informatycznych i tam nieco narozrabiać. Podobnie jak pluskwa wchodząca w szczeliny łóżka, tak ten bug miał się wkręcać w kody, dane i pamięci komputerów. Media lubowały się w straszeniu możliwymi skutkami tego informatycznego robaka, a określenie „pluskwa” idealnie wpisywało się w atmosferę ukrytego zagrożenia, które może namieszać.
Pluskwa milenijna: Skąd to całe zamieszanie?
Na początku ery komputerów, gdy podzespoły były drogie i trzeba było oszczędzać każdy bajt danych, programiści stosowali trik, który wówczas wydawał się genialnie prosty i racjonalny: zamiast zapisywać pełne cztery cyfry roku (np. 1999), używali tylko dwóch (99). To było logiczne – w latach 60., 70. czy 80. żaden inżynier raczej nie myślał, że system napisany wtedy będzie wciąż działał w okolicach roku 2000. Niewielu przewidywało, że te same kody i bazy danych przetrwają aż do XXI wieku. A jednak tak się stało. Firmy, urzędy, banki, wojsko – wszyscy mieli gdzieś w swoich serwerowniach i systemach głęboko zakodowaną datę w formie „yy”, a nie „yyyy”.
Gdy zaczął zbliżać się rok 2000, pojawił się prosty problem: komputery, odczytując datę „00”, mogły uznać, że to rok 1900, a nie 2000. W efekcie całe oprogramowanie, które polegało na obliczeniach bazujących na datach, mogło się posypać. Brzmi błaho? Spróbujmy pomyśleć o skutkach. W systemach finansowych może nagle wszystko zwariować – odsetki, terminy płatności, a może i salda kont. W logistyce – pomyłki w dostawach, błądzenie w czasoprzestrzeni transakcji. A co z komputerami sterującymi infrastrukturą krytyczną? Nikt nie był do końca pewien, czy np. sterowniki przemysłowe, systemy regulacji ciśnienia w rurociągach czy kontrolery sygnalizacji świetlnej nie zaczną nagle zachowywać się nieracjonalnie. Możliwość, że takie „przeskoczenie” daty wywoła chaos, była realna i podsycała atmosferę niepewności.
Od histerii do mobilizacji
Pod koniec lat 90. firmy konsultingowe IT miały prawdziwe żniwa. Eksperci doradzali, jak zabezpieczyć systemy, przeprowadzali audyty i wskazywali, co trzeba poprawić. Programiści masowo aktualizowali oprogramowanie i poprawiali dane, aby komputery rozpoznawały rok 2000 jako „2000”, a nie „1900”. To był gigantyczny globalny projekt. Rządy największych państw przeznaczały pewnie sporo kasy na dostosowanie swoich systemów do nowej ery. Tysiące specjalistów przeglądały kody źródłowe, często bardzo stare i kiepsko udokumentowane, byle tylko mieć pewność, że w noc sylwestrową nie dojdzie do globalnej katastrofy.
Powstała wówczas wręcz „kultura Y2K” – w telewizji i prasie głośno było o możliwych czarnych scenariuszach. Media podkręcały atmosferę: zatrzymane pociągi, sparaliżowane banki, samoloty spadające z nieba, elektrownie atomowe powtarzające scenariusz z Czarnobyla. Wszyscy czekali na moment, w którym zegar wybije północ z 31 grudnia 1999 na 1 stycznia 2000, a świat nagle się zatrzyma.
Problem roku 2000: Moment prawdy
Nadszedł 1 stycznia 2000. Wielu informatyków spędziło sylwestra w pracy – siedzieli przed monitorami, gotowi gasić cyfrowe pożary. Tymczasem co się wydarzyło? W zasadzie niewiele. Zadziałały lata przygotowań: globalny wysiłek sprawił, że większość najważniejszych systemów przeskoczyła na nową datę gładko i bez dramatu. Owszem, pojawiły się jakieś drobne problemy: tu i ówdzie systemy pomyliły daty w raportach, gdzieś indziej automatyczna kasa wyświetliła dziwne komunikaty, a czasem jakiś program księgowy wstecznie podsumował bilans zysków i strat. Ale to były raczej incydenty, a nie globalna hekatomba.
Samoloty latały normalnie, bankomaty działały, prąd płynął, woda lała się z kranów, a ludzie z lekkim niedowierzaniem mogli wrócić do zwykłego życia. Pluskwa milenijna, nazywana straszakiem końca epoki, okazała się dużo mniej groźna, niż przewidywano.
Czy pluskwa milenijna była ściemą?
Po latach niektórzy stwierdzili, że Y2K było specjalnie nadmuchiwanym balonikiem, a w całym tym zamieszaniu chodziło tylko o wyciągnięcie kasy od firm i rządów. Jednak takie podejście jest sporym uproszczeniem. Prawdą jest, że gdyby nie ta gigantyczna mobilizacja i inwestycje, problem mógłby się okazać bardziej bolesny. To tak jak z zapobieganiem katastrofom: jeśli się ich uniknie, to niektórzy powiedzą, że nie było po co się starać. A jednak wszystkie starania poprzedzające pamiętną noc sylwestrową były chyba konieczne.
Pluskwa milenijna stała się rodzajem technologicznego egzaminu dojrzałości. Świat dowiedział się, że nad dużymi problemami warto pracować wcześniej, niż czekać na to, aż staną się katastrofą. Przy okazji zrozumieliśmy, że rola czasu w systemach informatycznych to nie drobnostka. Skoro taki prosty błąd w zapisie daty mógł zaszkodzić tylu systemom, to jakie efekty mogłyby mieć bardziej złożone problemy?
Lekcje na przyszłość
Dziś, po 25 latach, problem roku 2000 przypomina o tym, że w technologii warto przewidywać to, co będzie za dekadę, dwie, czy nawet trzy. Obecnie nikomu nie przyszłoby do głowy oszczędzanie na kilku bajtach, pomijając dwie cyfry w zapisie roku. Ale kto wie, co przyniosą kolejne lata? Na horyzoncie wciąż mamy przecież inne pułapki. Jest choćby tzw. „problem roku 2038”, związany z 32-bitowymi wartościami liczbowymi służącymi do pomiaru czasu w systemach uniksopodobnych. Gdy zegar dojdzie do pewnej granicznej daty w 2038 roku, niektóre starsze systemy mogą zacząć liczyć czas od nowa, jakby dopiero był rok 1901. Tym razem jednak mamy świadomość, że takie ryzyko istnieje. Dzięki lekcji Y2K firmy i programiści już dawno wzięli się za modyfikacje i aktualizacje systemów, aby uniknąć kolejnej „pluskwy” w innej odsłonie.
Y2K, zwane pluskwą milenijną, było chyba pierwszym globalnym testem cywilizacji technologicznej. Ostatecznie obyło się bez kataklizmu. Komputery nie stanęły, banki nie wyzerowały masowo kont, a samoloty nie spadały z nieba. Ale stało się tak głównie dzięki temu, że świat potraktował zagrożenie poważnie i odpowiednio wcześnie zareagował.
Dziś przyglądamy się tamtym wydarzeniom z dystansem, traktując je czasem jak anegdotę z dawnych lat. Warto jednak pamiętać, że pluskwa milenijna nie była tylko medialną wydmuszką. To była realna, choć w większości zneutralizowana, wada technologiczna, która przypomniała nam, że w informatyce, tak, jak w życiu, lepiej dmuchać na zimne niż płonąć w ogniu jak piesek na popularnym memie "this is fine".
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu