Mundur, doktorat, pieniądze i pasja
Historia informatyki to przedziwny mariaż różnych środowisk i systemów wartości.
Ukazanie
się książek "What the Dormouse Said: How the 60s Counterculture Shaped
the Personal Computer" Johna Markoffa oraz "1968: The Year That Rocked
the World" Marka Kurlansky'ego wywołało w mediach falę komentarzy na
temat związku pomiędzy młodzieżową rewoltą lat 60. a rozwojem
technologii informatycznych. W podobny ton uderzył w polskich mediach
publicysta "Gazety Wyborczej" Wojciech Orliński, w artykule Kwiaty we
włosach, ręce na klawiaturze, czyli prawdziwa rewolucja '68, ("Duży
format", 02.01.2008), w którym stawia tezę, że do rozwoju informatyki
znacząco przyczyniła się hipisowska rewolta lat 60.
Rzeczywiście,
istnieją związki personalne i czasowe pomiędzy kontrkulturową rewoltą a
rozwojem informatyki. Ale uogólnienie, jakoby komputer był "późnym
osiągnięciem" dzieci-kwiatów, jest - oględnie mówiąc - naciągane.
Komputery i informatyka powstały i szybko się rozwijały dzięki
przedziwnemu mariażowi wojska, nauki, biznesu oraz chęci robienia
ciekawych rzeczy przez gatunek człowieka, który dzisiaj określany jest
mianem nerd.
Panie poruczniku, komputer
Komputer
jest, co tu dużo mówić, dzieckiem wojny. A dokładniej mówiąc, dwóch
wojen: II wojny światowej oraz zimnej wojny. Pierwsze komputery, takie
jak Z3, Colossus i ENIAC, były budowane do zastosowań wojskowych.
Niemiecki Z3, zaprojektowany przez Konrada Zusego, pierwsza maszyna
kompletna w sensie Turinga, miał być używany do obliczania konstrukcji
samolotów. W roku 1941, kiedy Zuse zaprezentował swoją maszynę,
"samolot" znaczyło tyle co "bombowiec" albo "myśliwiec". Brytyjski
Colossus, maszyna skonstruowana do łamania niemieckiego szyfru Lorenz,
stał w legendarnym Bletchley Park - tajnym ośrodku kryptograficznym,
który przez całą wojnę zajmował się opracowywaniem szyfrów i ich
łamaniem. Pierwszy elektroniczny, w pełni programowalny i kompletny w
sensie Turinga komputer, amerykański ENIAC, zaprojektowany był jako
maszyna obliczeniowa ogólnego przeznaczenia. Jego pierwszym
zastosowaniem było obliczanie tzw. tablic artyleryjskich.
Dodajmy
jeszcze, że Alan Turing pracował we wspomnianym Bletchley Park, zaś
John (János) von Neumann, twórca teoretycznych podstaw architektury
komputerów, uczestniczył w Projekcie Manhattan. Po wojnie von Neumann
aktywnie wspierał budowę broni nowej generacji: bomby wodorowej i
rakiet balistycznych. Zasiadając w rządowych komitetach (m.in. Von
Neumann Committee for Missiles oraz US Atomic Energy Commission),
walnie przyczynił się do zimnowojennej strategii Zachodu wobec Związku
Sowieckiego. Swoje poglądy określał jako "zaciekle antykomunistyczne i
zdecydowanie militarystyczne". John von Neumann, którego uważamy za
jednego z faktycznych prekursorów informatyki i komputera, idealnie
wręcz personifikował wszystko to, z czym rewolta dzieci-kwiatów
walczyła.
Wojsko jeszcze dwukrotnie odegrało kluczową rolę w
rozwoju informatyki. Agencja DARPA ('D' jak Defense) była sponsorem
pierwszej sieci pakietowej ARPANET, prekursora dzisiejszego Internetu.
Fundamentalnym założeniem, które legło u podstaw ARPANET-u, była jego
zdolność przetrwania sowieckiego ataku nuklearnego. Struktura sieci nie
wskazywała żadnego węzła nadrzędnego, zaś algorytmy routingu pozwalały
przekierować ruch, gdyby któryś z węzłów nie odpowiadał (czytaj: był
zniszczony przez Sowietów). W listopadzie 1969 r., rok po studenckich
zamieszkach, przesłano ARPANET-em pierwsze wiadomości.
Amerykański
Departament Obrony był także sponsorem projektu prowadzonego przez
Carnegie Mellon University Software Engineering Institute. Mark Paulk
wraz ze swoim zespołem zebrał dane i najlepsze praktyki z biznesu i w
latach 80. uogólnił je w model zwany od tego czasu CMM (Capability
Maturity Model), odkrywając przy okazji jedną z najważniejszych prawd
na temat oprogramowania: większość problemów z jakością systemów ma
swoje źródło nie w technologii, a w organizacji i procesie. CMM i jego
następca - CMMI - to dzisiaj standardowe modele referencyjne dla
procesów rozwoju i akwizycji systemów. Nawet jeśli współczesne modele
kontestują "ciężki" cykl rozwoju systemów, jednocześnie odnoszą się do
poziomów dojrzałości zdefiniowanych przez CMM/CMMI.
Akademia przejmuje pałeczkę
W
powyższych akapitach kilka razy pojawiły się nazwy instytucji
naukowych. Po wojnie środek ciężkości w rozwoju informatyki
zdecydowanie przesunął się w stronę szeroko pojętych jednostek
akademickich. Nie sposób wymienić wszystkich - ale warto wymienić
najważniejsze. Książka "The Art of Programming", fundamentalna pozycja
nauki o algorytmach napisana przez Donalda Knutha, powstała na
Uniwersytecie Stanforda. Uczelnia ta - zlokalizowana w samym środku
Krzemowej Doliny - jest prawdziwą kuźnią kadr informatyki. Wykształcili
się tam m.in. Douglas Engelbart, wynalazca myszki, ale także wielu
spośród przedsiębiorców i wyższej kadry zarządzającej współczesnych
koncernów informatycznych: Scott McNealy (Sun), Sergey Brin (Google),
Jim Allchin (Microsoft) i Jerry Yang (Yahoo!).
Podobną galerią
komputerowych sław i odkryć mogły poszczycić się inne wiodące
uniwersytety w USA. Wspomniany już ENIAC został opracowany przez dwóch
naukowców z University of Pennsylvania; pracownikiem MIT był Richard
Stallman, założyciel projektu GNU, Free Software Foundation i "ojciec
chrzestny" ruchu open source (nawiasem mówiąc, otwarcie przyznający się
do wierności hipisowskim ideałom). UCLA to miejsce pracy wspomnianego
już Leonarda Kleinrocka - wynalazcy pakietowego przesyłania informacji,
stanowiącego dziś fundament Internetu; na Harvardzie narodził się
komputer Mark II itd. Długo można by wymieniać zasłużone uczelnie i
badaczy. Bez większego ryzyka popełnienia błędu można powiedzieć, że za
każdym przełomowym wynalazkiem i technologią stoją: jakiś instytut,
doktorat, konferencja naukowa albo publikacja.
Po drugiej
stronie Atlantyku, w Europie, szczególną rolę pełni CERN - europejskie
centrum nauki, znane przede wszystkim jako miejsce, w którym fizycy
zderzają cząstki elementarne o wielkich energiach. CERN, jako pierwsza
organizacja w Europie, przyjął protokół TCP/IP. Jednak z punktu
widzenia informatyków najważniejszym wynalazkiem dokonanym na CERN jest
WWW. Timothy Berners-Lee opracował język HTML i protokół HTTP
początkowo jako sposób dostępu do rozproszonych zbiorów wiedzy
zgromadzonych w CERN. Dopiero potem okazało się, że znakomicie
sprawdzają się jako metoda lokalizowania wszelkich zasobów w sieciach
IP.
Królewna i krasnoludki - biznes wchodzi do informatyki
Odkrycia
i wynalazki byłyby jedynie ciekawostkami, gdyby nie trzecia grupa
twórców informatyki i Internetu: wielki biznes. Thomas J. Watson, Sr.,
najczęściej cytowany jako autor cokolwiek niezręcznego stwierdzenia
"światowy rynek komputerów mogę ocenić na najwyżej pięć sztuk"
(nawiasem mówiąc, badacze kwestionują jego autentyczność), był jednak
wizjonerem. Tuż po wojnie dostrzegł potencjał, jaki kryją maszyny
obliczeniowe. W latach 60. IBM opracował System/360, którego
rozwiązania do dzisiaj obecne są w tej czy innej formie, w niemal
wszystkich systemach klasy enterprise.
Biznes komputerowy w
latach 60. określano mianem "Królewna Śnieżka i siedmiu krasnoludków".
IBM w 1964 r. posiadał ok. 70% rynku komputerów, pozostałych "siedmiu
krasnoludków (UNIVAC, NCR, Borroughs, Control Data Corporation,
Honeywell, RCA i General Electric) miało łącznie niemal resztę.
Ale
biznes informatyczny rósł w siłę - warto powiedzieć, że wiele
fundamentalnych technologii powstało w laboratoriach firm, w
środowiskach może nie tak "wyluzowanych" jak akademickie, nie tak
"sztywnych" jak wojsko, ale gdzieś pomiędzy. Najbardziej znane
osiągnięcia tego czasu to opracowane w AT&T Bell Labs system Unix
oraz język C (znaczenia obu dla rozwoju informatyki nie sposób
przecenić). Współczesną myszkę komputerową (kulkową) opracowano w Xerox
PARC - miejscu, gdzie narodziły się również Smalltalk, Ethernet,
graficzny interfejs użytkownika czy drukarka laserowa. Jakkolwiek Xerox
nie w każdym przypadku poradził sobie z komercjalizacją tych
przełomowych osiągnięć, to nie da się ukryć, że dokonano ich w celu
powiększenia dochodów zwykłej, działającej na zasadach komercyjnych,
firmy.
W podobnie działających, tj. komercyjnych,
laboratoriach firmy Digital Equipment Corporation (DEC) powstały takie
przełomowe wynalazki informatyki, jak terminal VT100 (do dzisiaj
standard komunikacji w nim zastosowany jest najpewniejszym, bo
najbardziej uniwersalnym sposobem dostępu terminalowego do zdalnych
systemów), architektura PDP-11, mikroprocesor Alpha itd. Jeśli dziś
większość komputerów na świecie podłączona jest do sieci Ethernetem, to
dzięki pracy specjalistów m.in. z firm Xerox i DEC, gdzie technologia
ta narodziła się i dojrzewała.
Choć dziś mówiąc "informatyka",
myślimy "hardware i software" (a - coraz częściej - również "serwisy
online"), to w pierwszych dekadach rozwoju informatyki właściwie nie
było firm stricte software'owych. Jedną z pierwszych był... Microsoft,
założony w 1975 r., by rozwijać interpreter języka BASIC dla
mikrokomputera Altair.
Pieniądze szczególnie mocno zaczęły
"napędzać" rozwój informatyki na początku lat 80., kiedy na dobre
zaczęła się rewolucja mikrokomputerowa. Za kilkaset dolarów każdy mógł
stać się posiadaczem własnego komputera, traktowanego jako narzędzie
służące nie tylko do zastosowań profesjonalnych, ale także do rozrywki.
Reguły gry znowu się zmieniły - i tym razem rzeczywiście stało się to
za sprawą entuzjastów w pomiętych koszulach, nie facetów z wielkich
korporacji, wojska i akademii, zakładających do pracy garnitury i
krawaty.
W grubych okularach
I
tak doszliśmy do najważniejszego bohatera historii informatyki. Nie da
się go nazwać z imienia i nazwiska, ale łatwo zaobserwować wokół
siebie. Łatwo go poznać po nieco niestarannym ubiorze, grubych
okularach, niezrozumiałym dla "zwykłego śmiertelnika" języku i
przenikliwej inteligencji analitycznej (zgodnie z anegdotycznym
stereotypem, powiązanej z brakiem normalnego życia społecznego).
To
geek albo nerd - dobry duch rewolucji informatycznej. Nie napędzają go
ani strach przed sowiecką ekspansją, ani pragnienie odkrywania tajemnic
natury, ani chęć zdobycia uznania w środowisku akademickim, ani żądza
zysku. Napędzają go pasja i przekonanie, że najciekawsze jeszcze przed
nami i warto dla tego poświęcić swój czas i energię.
Znaczną
część postępu w informatyce zawdzięczamy ludziom, którzy powzięli
szalone postanowienie, że sami, własnymi rękami zrobią coś znacznie
lepszego (albo to samo, tylko lepiej) niż wielkie korporacje i uznane
autorytety naukowe. Tak powstały m.in.: system składu TeX, edytor
Emacs, biblioteka GNU i wreszcie system operacyjny Linux. Znaczną część
oprogramowania, służącego dzisiaj do szeroko rozumianego utrzymania i
wykorzystywania Internetu, stanowi oprogramowanie powstałe i
udostępnione na zasadach niekomercyjnych, którego "paliwem" jest sama
tylko pasja tworzenia i skłonność wolnych ludzi do dzielenia się
owocami tej pasji z innymi.
Pamiętajmy także o skłonności do
zabawy. W istotnej mierze rozwój technologii informatycznych napędzany
jest przez zastosowania związane z rozrywką. Ogranie człowieka w szachy
przez wiele dziesięcioleci było marzeniem specjalistów od algorytmów.
Grafika komputerowa i jej rozwój w znacznej mierze pozostają na
usługach przemysłu gier komputerowych, który potrzebuje coraz
doskonalszych motorów i możliwie wiernych wizualizacji (choć "poważni"
informatycy chętniej mówią o zastosowaniach inżynierskich i analizie
zdjęć satelitarnych).
Miejsce spotkania
Informatyka
nie jest "późnym efektem" rewolucji społecznej lat 60. - choć pokolenie
"dzieci-kwiatów", dzierżące dzisiaj rząd dusz w Ameryce i zachodniej
Europie, chciałoby tak myśleć. Niewątpliwie, anarchistyczny, niepokorny
duch przesyca informatykę - ale równie mocno przesycają ją porządek
nauk matematyczno-przyrodniczych oraz ciągła potrzeba wykazywania
przeliczalnej na pieniądze wartości. Oddając sprawiedliwość
kontrkulturze, lepiej myśleć o informatyce jako o miejscu spotkania i
arenie przenikania się środowisk, pokoleń i systemów wartości. Miejscu,
nad którym unoszą się duch pasji i zabawy oraz dążenia do przełamywania
barier i poszerzania granic.
Postęp, jakiego świadkami byliśmy
przez ostatnich kilkadziesiąt lat, jest najlepszym dowodem, że takie
środowisko po prostu dobrze działa.
Computerworld, 11.03.2008, Jakub Chabik