Ta witryna wykorzystuje pliki cookie, dowiedz się więcej Zgadzam się
>>> Strona główna >>> Archiwum wiadomości >>> Mundur, doktorat, pieniądze i pasja

Mundur, doktorat, pieniądze i pasja

Historia informatyki to przedziwny mariaż różnych środowisk i systemów wartości.
Ukazanie się książek "What the Dormouse Said: How the 60s Counterculture Shaped the Personal Computer" Johna Markoffa oraz "1968: The Year That Rocked the World" Marka Kurlansky'ego wywołało w mediach falę komentarzy na temat związku pomiędzy młodzieżową rewoltą lat 60. a rozwojem technologii informatycznych. W podobny ton uderzył w polskich mediach publicysta "Gazety Wyborczej" Wojciech Orliński, w artykule Kwiaty we włosach, ręce na klawiaturze, czyli prawdziwa rewolucja '68, ("Duży format", 02.01.2008), w którym stawia tezę, że do rozwoju informatyki znacząco przyczyniła się hipisowska rewolta lat 60.

Rzeczywiście, istnieją związki personalne i czasowe pomiędzy kontrkulturową rewoltą a rozwojem informatyki. Ale uogólnienie, jakoby komputer był "późnym osiągnięciem" dzieci-kwiatów, jest - oględnie mówiąc - naciągane. Komputery i informatyka powstały i szybko się rozwijały dzięki przedziwnemu mariażowi wojska, nauki, biznesu oraz chęci robienia ciekawych rzeczy przez gatunek człowieka, który dzisiaj określany jest mianem nerd.

Panie poruczniku, komputer

Komputer jest, co tu dużo mówić, dzieckiem wojny. A dokładniej mówiąc, dwóch wojen: II wojny światowej oraz zimnej wojny. Pierwsze komputery, takie jak Z3, Colossus i ENIAC, były budowane do zastosowań wojskowych. Niemiecki Z3, zaprojektowany przez Konrada Zusego, pierwsza maszyna kompletna w sensie Turinga, miał być używany do obliczania konstrukcji samolotów. W roku 1941, kiedy Zuse zaprezentował swoją maszynę, "samolot" znaczyło tyle co "bombowiec" albo "myśliwiec". Brytyjski Colossus, maszyna skonstruowana do łamania niemieckiego szyfru Lorenz, stał w legendarnym Bletchley Park - tajnym ośrodku kryptograficznym, który przez całą wojnę zajmował się opracowywaniem szyfrów i ich łamaniem. Pierwszy elektroniczny, w pełni programowalny i kompletny w sensie Turinga komputer, amerykański ENIAC, zaprojektowany był jako maszyna obliczeniowa ogólnego przeznaczenia. Jego pierwszym zastosowaniem było obliczanie tzw. tablic artyleryjskich.

Dodajmy jeszcze, że Alan Turing pracował we wspomnianym Bletchley Park, zaś John (János) von Neumann, twórca teoretycznych podstaw architektury komputerów, uczestniczył w Projekcie Manhattan. Po wojnie von Neumann aktywnie wspierał budowę broni nowej generacji: bomby wodorowej i rakiet balistycznych. Zasiadając w rządowych komitetach (m.in. Von Neumann Committee for Missiles oraz US Atomic Energy Commission), walnie przyczynił się do zimnowojennej strategii Zachodu wobec Związku Sowieckiego. Swoje poglądy określał jako "zaciekle antykomunistyczne i zdecydowanie militarystyczne". John von Neumann, którego uważamy za jednego z faktycznych prekursorów informatyki i komputera, idealnie wręcz personifikował wszystko to, z czym rewolta dzieci-kwiatów walczyła.

Wojsko jeszcze dwukrotnie odegrało kluczową rolę w rozwoju informatyki. Agencja DARPA ('D' jak Defense) była sponsorem pierwszej sieci pakietowej ARPANET, prekursora dzisiejszego Internetu. Fundamentalnym założeniem, które legło u podstaw ARPANET-u, była jego zdolność przetrwania sowieckiego ataku nuklearnego. Struktura sieci nie wskazywała żadnego węzła nadrzędnego, zaś algorytmy routingu pozwalały przekierować ruch, gdyby któryś z węzłów nie odpowiadał (czytaj: był zniszczony przez Sowietów). W listopadzie 1969 r., rok po studenckich zamieszkach, przesłano ARPANET-em pierwsze wiadomości.

Amerykański Departament Obrony był także sponsorem projektu prowadzonego przez Carnegie Mellon University Software Engineering Institute. Mark Paulk wraz ze swoim zespołem zebrał dane i najlepsze praktyki z biznesu i w latach 80. uogólnił je w model zwany od tego czasu CMM (Capability Maturity Model), odkrywając przy okazji jedną z najważniejszych prawd na temat oprogramowania: większość problemów z jakością systemów ma swoje źródło nie w technologii, a w organizacji i procesie. CMM i jego następca - CMMI - to dzisiaj standardowe modele referencyjne dla procesów rozwoju i akwizycji systemów. Nawet jeśli współczesne modele kontestują "ciężki" cykl rozwoju systemów, jednocześnie odnoszą się do poziomów dojrzałości zdefiniowanych przez CMM/CMMI.

Akademia przejmuje pałeczkę

W powyższych akapitach kilka razy pojawiły się nazwy instytucji naukowych. Po wojnie środek ciężkości w rozwoju informatyki zdecydowanie przesunął się w stronę szeroko pojętych jednostek akademickich. Nie sposób wymienić wszystkich - ale warto wymienić najważniejsze. Książka "The Art of Programming", fundamentalna pozycja nauki o algorytmach napisana przez Donalda Knutha, powstała na Uniwersytecie Stanforda. Uczelnia ta - zlokalizowana w samym środku Krzemowej Doliny - jest prawdziwą kuźnią kadr informatyki. Wykształcili się tam m.in. Douglas Engelbart, wynalazca myszki, ale także wielu spośród przedsiębiorców i wyższej kadry zarządzającej współczesnych koncernów informatycznych: Scott McNealy (Sun), Sergey Brin (Google), Jim Allchin (Microsoft) i Jerry Yang (Yahoo!).

Podobną galerią komputerowych sław i odkryć mogły poszczycić się inne wiodące uniwersytety w USA. Wspomniany już ENIAC został opracowany przez dwóch naukowców z University of Pennsylvania; pracownikiem MIT był Richard Stallman, założyciel projektu GNU, Free Software Foundation i "ojciec chrzestny" ruchu open source (nawiasem mówiąc, otwarcie przyznający się do wierności hipisowskim ideałom). UCLA to miejsce pracy wspomnianego już Leonarda Kleinrocka - wynalazcy pakietowego przesyłania informacji, stanowiącego dziś fundament Internetu; na Harvardzie narodził się komputer Mark II itd. Długo można by wymieniać zasłużone uczelnie i badaczy. Bez większego ryzyka popełnienia błędu można powiedzieć, że za każdym przełomowym wynalazkiem i technologią stoją: jakiś instytut, doktorat, konferencja naukowa albo publikacja.

Po drugiej stronie Atlantyku, w Europie, szczególną rolę pełni CERN - europejskie centrum nauki, znane przede wszystkim jako miejsce, w którym fizycy zderzają cząstki elementarne o wielkich energiach. CERN, jako pierwsza organizacja w Europie, przyjął protokół TCP/IP. Jednak z punktu widzenia informatyków najważniejszym wynalazkiem dokonanym na CERN jest WWW. Timothy Berners-Lee opracował język HTML i protokół HTTP początkowo jako sposób dostępu do rozproszonych zbiorów wiedzy zgromadzonych w CERN. Dopiero potem okazało się, że znakomicie sprawdzają się jako metoda lokalizowania wszelkich zasobów w sieciach IP.
Królewna i krasnoludki - biznes wchodzi do informatyki

Odkrycia i wynalazki byłyby jedynie ciekawostkami, gdyby nie trzecia grupa twórców informatyki i Internetu: wielki biznes. Thomas J. Watson, Sr., najczęściej cytowany jako autor cokolwiek niezręcznego stwierdzenia "światowy rynek komputerów mogę ocenić na najwyżej pięć sztuk" (nawiasem mówiąc, badacze kwestionują jego autentyczność), był jednak wizjonerem. Tuż po wojnie dostrzegł potencjał, jaki kryją maszyny obliczeniowe. W latach 60. IBM opracował System/360, którego rozwiązania do dzisiaj obecne są w tej czy innej formie, w niemal wszystkich systemach klasy enterprise.

Biznes komputerowy w latach 60. określano mianem "Królewna Śnieżka i siedmiu krasnoludków". IBM w 1964 r. posiadał ok. 70% rynku komputerów, pozostałych "siedmiu krasnoludków (UNIVAC, NCR, Borroughs, Control Data Corporation, Honeywell, RCA i General Electric) miało łącznie niemal resztę.

Ale biznes informatyczny rósł w siłę - warto powiedzieć, że wiele fundamentalnych technologii powstało w laboratoriach firm, w środowiskach może nie tak "wyluzowanych" jak akademickie, nie tak "sztywnych" jak wojsko, ale gdzieś pomiędzy. Najbardziej znane osiągnięcia tego czasu to opracowane w AT&T Bell Labs system Unix oraz język C (znaczenia obu dla rozwoju informatyki nie sposób przecenić). Współczesną myszkę komputerową (kulkową) opracowano w Xerox PARC - miejscu, gdzie narodziły się również Smalltalk, Ethernet, graficzny interfejs użytkownika czy drukarka laserowa. Jakkolwiek Xerox nie w każdym przypadku poradził sobie z komercjalizacją tych przełomowych osiągnięć, to nie da się ukryć, że dokonano ich w celu powiększenia dochodów zwykłej, działającej na zasadach komercyjnych, firmy.

W podobnie działających, tj. komercyjnych, laboratoriach firmy Digital Equipment Corporation (DEC) powstały takie przełomowe wynalazki informatyki, jak terminal VT100 (do dzisiaj standard komunikacji w nim zastosowany jest najpewniejszym, bo najbardziej uniwersalnym sposobem dostępu terminalowego do zdalnych systemów), architektura PDP-11, mikroprocesor Alpha itd. Jeśli dziś większość komputerów na świecie podłączona jest do sieci Ethernetem, to dzięki pracy specjalistów m.in. z firm Xerox i DEC, gdzie technologia ta narodziła się i dojrzewała.

Choć dziś mówiąc "informatyka", myślimy "hardware i software" (a - coraz częściej - również "serwisy online"), to w pierwszych dekadach rozwoju informatyki właściwie nie było firm stricte software'owych. Jedną z pierwszych był... Microsoft, założony w 1975 r., by rozwijać interpreter języka BASIC dla mikrokomputera Altair.

Pieniądze szczególnie mocno zaczęły "napędzać" rozwój informatyki na początku lat 80., kiedy na dobre zaczęła się rewolucja mikrokomputerowa. Za kilkaset dolarów każdy mógł stać się posiadaczem własnego komputera, traktowanego jako narzędzie służące nie tylko do zastosowań profesjonalnych, ale także do rozrywki. Reguły gry znowu się zmieniły - i tym razem rzeczywiście stało się to za sprawą entuzjastów w pomiętych koszulach, nie facetów z wielkich korporacji, wojska i akademii, zakładających do pracy garnitury i krawaty.

W grubych okularach

I tak doszliśmy do najważniejszego bohatera historii informatyki. Nie da się go nazwać z imienia i nazwiska, ale łatwo zaobserwować wokół siebie. Łatwo go poznać po nieco niestarannym ubiorze, grubych okularach, niezrozumiałym dla "zwykłego śmiertelnika" języku i przenikliwej inteligencji analitycznej (zgodnie z anegdotycznym stereotypem, powiązanej z brakiem normalnego życia społecznego).

To geek albo nerd - dobry duch rewolucji informatycznej. Nie napędzają go ani strach przed sowiecką ekspansją, ani pragnienie odkrywania tajemnic natury, ani chęć zdobycia uznania w środowisku akademickim, ani żądza zysku. Napędzają go pasja i przekonanie, że najciekawsze jeszcze przed nami i warto dla tego poświęcić swój czas i energię.

Znaczną część postępu w informatyce zawdzięczamy ludziom, którzy powzięli szalone postanowienie, że sami, własnymi rękami zrobią coś znacznie lepszego (albo to samo, tylko lepiej) niż wielkie korporacje i uznane autorytety naukowe. Tak powstały m.in.: system składu TeX, edytor Emacs, biblioteka GNU i wreszcie system operacyjny Linux. Znaczną część oprogramowania, służącego dzisiaj do szeroko rozumianego utrzymania i wykorzystywania Internetu, stanowi oprogramowanie powstałe i udostępnione na zasadach niekomercyjnych, którego "paliwem" jest sama tylko pasja tworzenia i skłonność wolnych ludzi do dzielenia się owocami tej pasji z innymi.

Pamiętajmy także o skłonności do zabawy. W istotnej mierze rozwój technologii informatycznych napędzany jest przez zastosowania związane z rozrywką. Ogranie człowieka w szachy przez wiele dziesięcioleci było marzeniem specjalistów od algorytmów. Grafika komputerowa i jej rozwój w znacznej mierze pozostają na usługach przemysłu gier komputerowych, który potrzebuje coraz doskonalszych motorów i możliwie wiernych wizualizacji (choć "poważni" informatycy chętniej mówią o zastosowaniach inżynierskich i analizie zdjęć satelitarnych).

Miejsce spotkania

Informatyka nie jest "późnym efektem" rewolucji społecznej lat 60. - choć pokolenie "dzieci-kwiatów", dzierżące dzisiaj rząd dusz w Ameryce i zachodniej Europie, chciałoby tak myśleć. Niewątpliwie, anarchistyczny, niepokorny duch przesyca informatykę - ale równie mocno przesycają ją porządek nauk matematyczno-przyrodniczych oraz ciągła potrzeba wykazywania przeliczalnej na pieniądze wartości. Oddając sprawiedliwość kontrkulturze, lepiej myśleć o informatyce jako o miejscu spotkania i arenie przenikania się środowisk, pokoleń i systemów wartości. Miejscu, nad którym unoszą się duch pasji i zabawy oraz dążenia do przełamywania barier i poszerzania granic.

Postęp, jakiego świadkami byliśmy przez ostatnich kilkadziesiąt lat, jest najlepszym dowodem, że takie środowisko po prostu dobrze działa.

 

Computerworld, 11.03.2008, Jakub Chabik

Robocik WWSI