Pulsar - portal popularnonaukowy Pulsar - portal popularnonaukowy MP / Archiwum
Technologia

Komputer Alto, czyli przyszłość nadeszła 50 lat temu

Ten komputer zmienił komunikację między maszyną a człowiekiem. Ale dziś zwiastowana przez niego rewolucja przybrała paradoksalny, niepokojący kształt.

Uznawany za pierwszy komputer osobisty Alto zaopatrzony był w graficzny interfejs użytkownika i mysz. Można go było łączyć przez sieć z innymi komputerami oraz takimi urządzeniami jak drukarki. Nigdy nie trafił na sklepowe półki, ale określił kierunek rozwoju cyfrowych technologii. I choć już wtedy mówiono o sztucznej inteligencji, stawką technologicznego rozwoju nie miało być zastąpienie ludzkiego umysłu, tylko jego wzmocnienie.

Alto wyprzedził epokę o dekadę – w 1973 r. dostępne podzespoły elektro­niczne miały zbyt słabe parametry i były zbyt drogie, by umożliwić masową produkcję urządzenia. Nie mniejszą barierą dla jego upowszechnienia okazały się ograniczenia wyobraźni informatycznego i biznesowego establishmentu, który nie rozumiał, dlaczego ktokolwiek chciałby mieć komputer na biurku w pracy, a tym bardziej w domu.

Fenomen Xerox PARC

Alto powstał nie gdzieś w mitycznym garażu narwanych wynalazców z legend o Krzemowej Dolinie, tylko w laboratorium PARC, czyli Centrum Badawczym firmy Xerox w Palo Alto w Kalifornii. Koncern miał wtedy ugruntowaną pozycję biznesową wiodącego producenta systemów do kopiowania dokumentów. A to za sprawą kopiarki Model 914, która weszła na rynek w 1959 r. i zyskała miano jednego z najbardziej udanych osiągnięć amerykańskiego przemysłu. Miarą sukcesu był rosnący strumień pieniędzy płynący do korporacyjnej kasy oraz praktyczny monopol, możliwy dzięki patentom chroniącym kluczowe dla szybkiego kopiowania rozwiązania technologiczne. Patenty jednak nie są wieczne i w 1970 r. Xerox odczuł pierwsze oznaki końca dobrych czasów: konkurencję ze strony IBM czy Kodaka.

Zarządzający firmą Peter McCo­lough miał świadomość nadchodzącej zmiany. I już pod koniec lat 60. uznał, że najlepszą odpowiedzią będzie ucieczka w przyszłość, którą coraz wyraźniej kształtować miał rozwój informatyki. Odesłał więc na emeryturę Johna Dessauera, legendarnego głównego naukowca odpowiedzialnego m.in. za rozwój i sukces Modelu 914. Zatrudnił na to stanowisko fizyka Jacoba B. „Jacka” Goldmana. W 1969 r. kupił też za blisko miliard dolarów firmę komputerową Scientific Data Systems, by w ten sposób przyspieszyć przejście koncernu do rzeczywistości komputerowo-cyfrowej.

Ta decyzja okazała się pomyłką kosztującą Xerox setki milionów dolarów strat. Ale doprowadziła do powstania w 1970 r. PARC. Zgodnie z pierwotnym założeniem miał on wspierać informatyczną odnogę korporacji. W rzeczywistości stała się jednym z najbardziej kreatywnych na świecie miejsc zajmujących się rozwojem zaawansowanych technologii. Niezwykle istotna okazała się lokalizacja – z dala od kwatery głównej na Wschodnim Wybrzeżu. Odległość chroniła nie tylko od wścibskiego oka zarządu i księgowych, ale także od inercji korporacyjnej kultury.

Alto powstał w 1973 r. – w momencie, kiedy wiele osób nie rozumiało, dlaczego ktokolwiek chciałby mieć komputer na biurku w pracy, a tym bardziej w domu.MP/ArchiwumAlto powstał w 1973 r. – w momencie, kiedy wiele osób nie rozumiało, dlaczego ktokolwiek chciałby mieć komputer na biurku w pracy, a tym bardziej w domu.

Oczywiście, sama lokalizacja nie wystarczy, żeby tworzyć genialne wynalazki. PARC słynął z tego, że zatrudniał najwybitniejszych inżynierów i naukowców nieznających słowa „niemożliwe”. Jednym z nich był Alan Kay. Podczas rozmowy rekrutacyjnej dostał standardowe pytanie: co będzie jego największym osiągnięciem podczas pracy w laboratorium? Kay odpowiedział bez chwili wahania: „komputer osobisty”. „A cóż to takiego?” – zaczął dopytywać Richard Jones, dyrektor administracji w PARC. Kay wziął z biurka Jonesa papierową teczkę A4 i powiedział, że urządzenie tych rozmiarów zaopatrzone w płaski ekran, klawiaturę oraz moc dostateczną, by przechowywać i przetwarzać pocztę elektroniczną, muzykę, pliki z danymi, książki, grafikę. Masa nie przekroczy paru funtów – dodał.

Jones mruknął w odpowiedzi: „tak, pewnie”, bo w jego wyobraźni komputer ciągle oznaczał wielką szafę, która wraz z urządzeniami dodatkowymi wymagała sporego, klimatyzowanego pokoju. Zatrudnił jednak Kaya, mimo że nie rozumiał, o co mu chodzi.

W istocie za nabór talentów do powstającego PARC odpowiadał legendarny Bob Taylor, wcześniej dyrektor w ARPA – Agencji Rozwoju Nowych Technologii podlegającej Departamentowi Obrony. To właśnie on doprowadził do powstania ARPANetu – prekursora internetu. W 1968 r. opublikował wraz z Josephem Lickliderem artykuł „Computer as a Communication Device” („Komputer jako urządzenie komunikacyjne”). Można w nim przeczytać takie zdanie: „W ciągu kilku lat ludzie będą mogli porozumiewać się efektywniej za pomocą maszyn niż twarzą w twarz”.

Taylor nie miał więc problemu ze zrozumieniem Kaya, przeciwnie – obaj należeli do grona informatyków, których wyobraźnię ukształtował kultowy esej „As We May Think” („Jak możemy myśleć”) opublikowany w 1945 r. w „The Atlantic”. Napisał go Vannevar Bush, doradca naukowy prezydenta Franklina D. Roosevelta i jeden z pionierów rewolucji komputerowej. Przedstawił w nim wizję świata, w którym coraz szybciej przyrasta wiedza i informacja. Odpowiedzią na nadchodzący kryzys tego nadmiaru miał być Memex. Ten system organizował pracę z dokumentami – umożliwiał ich gromadzenie w sposób uporządkowany oraz automatyczne łączenie różnych tekstów poprzez aktywne odnośniki. Dziś nazywamy takie rozwiązanie hipertekstem.

Rama dla człowieka

Wizja Busha musiała poczekać na realizację wiele lat. Pokazała jednak u zarania epoki komputerów, że cyfrowe maszyny obliczeniowe, jak o nich mówiono, nie muszą być jedynie superszybkimi liczydłami. Mogą stać się podstawą systemów do przetwarzania informacji i symboli oraz pośredniczyć w międzyludzkiej komunikacji.

Ideę tę rozwinął Douglas Engelbart, genialny wizjoner i inżynier pracujący w Stanford Research Institute. W 1962 r. opublikował esej „Augmenting Human Intellect: A Conceptual Framework” („Wzmocnienie ludzkiego umysłu: rama koncepcyjna”). Rozwijał w nim intuicje Busha, przekonując, że rośnie nie tylko ilość wiedzy i informacji, ale także złożoność problemów, z jakimi musi mierzyć się człowiek. I to niezależnie od tego, czy zajmuje się światem nowych technologii, naukami społecznymi, doradztwem politycznym czy ekspertyzą prawną.

Engelbart inspirował się m.in. pracami Alfreda Korzybskiego, polsko-amerykańskiego twórcy semantyki ogólnej i badacza mechanizmów ludzkiego poznania. On przekonywał, że człowiek nie ma bezpośredniego dostępu do rzeczywistości, tylko postrzega ją świadomie poprzez translację sygnałów z układu nerwowego na abstrakcyjne symbole będące tworzywem dla pracy umysłu. A gdyby w ten proces włączyć system techniczny zwiększający efektywność pracy z symbolami? – zastanawiał się Engelbart. I wpadł na pomysł stworzenia wzmacniacza ludzkiego umysłu – który jednakże nie zastępowałby inteligencji.

Douglas Engelbart w 1968 r. zaprezentował działające w sieci komputery zaopatrzone w graficzne interfejsy, obsługiwane za pomocą klawiatury i myszy (na pierwszym planie), na których można było pracować wspólnie na odległość.Mark Richards/Zuma Press//ForumDouglas Engelbart w 1968 r. zaprezentował działające w sieci komputery zaopatrzone w graficzne interfejsy, obsługiwane za pomocą klawiatury i myszy (na pierwszym planie), na których można było pracować wspólnie na odległość.

Amerykański inżynier nie poprzestał na napisaniu eseju, tylko przystąpił do budowania działającego systemu. Zademonstrował go 9 grudnia 1968 r. w San Francisco. Podczas półtoragodzinnego show pokazał… przyszłość. A dokładnie – działające w sieci komputery zaopatrzone w graficzne interfejsy, obsługiwane za pomocą klawiatury i myszy, na których można było pracować wspólnie na odległość, współdzieląc ekran, wykonywać złożone operacje edycyjne, korzystać z hipertekstu, a nawet urządzać wideokonferencję.

Oniemiała publiczność patrzyła na ekipę Engelbarta jak na przybyszów z innej epoki. To, co pokazał, wydawało się jeszcze nieosiągalne technicznie (internet miał wystartować dopiero za rok, pierwszy mikroprocesor półprzewodnikowy Intel wprowadził na rynek dopiero w 1971 r.). A jednak system Engelbarta działał, choć oczywiście nie nadawał się jeszcze do komercjalizacji.

Tego dnia nieodwracalnie zostały przesunięte granice wyobraźni. Uczestniczący w prezentacji Alan Kay nie miał już żadnych wątpliwości, że przyszłość to komputer osobisty.

Alto i Ciasteczkowy Potwór

Nadeszła ona wiosną 1973 r., miała na imię Alto i była dziełem inżynierskiego i informatycznego geniuszu zespołu, w którym wiodącą rolę odgrywali Butler Lampson i Charles Thacker. Często za datę pierwszej prezentacji tego urządzenia podaje się 1 marca tamtego roku. Michael Hiitzik, autor książki „Dealers of Lightning: Xerox PARC and the Dawn of Computer Age” („Dilerzy błyskawic. Xerox PARC i świt epoki komputerów”) twierdzi, że pierwszy w pełni sprawny Alto ujrzał światło dzienne w kwietniu 1973 r., oznajmiając swoje narodziny pokazem animacji Ciasteczkowego Potwora z Ulicy Sezamkowej. Po nieco ponad czterech latach od prezentacji Engelbarta na scenie pojawiła się maszyna realizująca wszystkie założenia komputera osobistego rozumianego jako wzmacniacz ludzkiego umysłu. Po kolejnych czterech latach kierownictwo Xeroxa stwierdziło jednak, że nie będzie komercjalizować Alto, mimo że wyprodukowano ok. 2000 sztuk tego komputera.

W 1979 r. do Palo Alto zawitał Steve Jobs, współtwórca koncernu Apple. W przeciwieństwie do szefostwa Xeroxa nie miał wątpliwości odnośnie do rynkowego potencjału rozwiązań pokazanych w Alto. Zademonstrował je kilka lat później, wprowadzając na rynek najpierw komputer Lisa, a w styczniu 1984 r. pierwszego Macintosha. Prezentacja odbyła się, podobnie jak słynny show Engelbarta, w San Francisco. Pokazowi komputera, który mieścił się w podróżnej torbie, potrafił mówić i przywitać publiczność skromnym napisem na ekranie „insanely great” (szalenie wspaniały), towarzyszył religijny niemal entuzjazm.

Obejrzyj archiwalną reklamę Alto:

Xerox Parc - Office Alto Commercial

Podobny wybuch emocji Steve Jobs wywołał ponownie w styczniu 2007 r., kiedy również w San Francisco zademonstrował trzy urządzenia: telefon, terminal internetowy i odtwarzacz muzyczny. Nowość polegała na połączeniu tych trzech funkcji w jednej obudowie o nazwie iPhone, którym sterowało się za pomocą graficznego interfejsu dotykowego. Pomysł Jobsa wyśmiewał ówczesny szef Microsoftu, Steve Ballmer. Przekonywał, że żaden poważny biznesmen nie kupi urządzenia bez klawiatury. Inżynierowie królującej wówczas na rynku komórek fińskiej Nokii także zbagatelizowali koncepcję „faceta od Macintoshy”. Bo czy on mógł wiedzieć o telefonach i ich użytkownikach coś, czego by nie wiedzieli projektanci z Helsinek?

Okazało się, że to jednak Jobs znacznie uważniej przerobił lekcje, jakich udzielili Vannevar Bush i Douglas Engelbart. Smartfon zdefiniowany przez iPhone’a okazał się jeszcze lepszym wzmacniaczem umysłu niż komputer osobisty. Stale pod ręką (a raczej w ręku) tworzy ze swoim użytkownikiem – aktywnie uczestnicząc w jego byciu w świecie – całość na dobre i na złe.

Co dalej? Czy kolejnym przełomem będzie komunikacja mózgu z urządzeniem bez pośrednictwa interfejsu symbolicznego? Takie możliwości są już wykorzystywane w medycynie podczas prób przywracania zdrowia osobom z niepełnosprawnościami. Elon Musk ma w swym technologiczno-biznesowym portfelu start-up Neuralink. Pracuje on od lat nad opracowaniem połączenia mózg–maszyna „dla wszystkich”. Podobno w tym roku mają się rozpocząć testy na ludziach gotowych wszczepić sobie w mózg chip umożliwiający takie połączenie.

Kres złożoności

Chętnych pewno nie zabraknie, ale nie możliwości techniczne zdecydują o popularności ewentualnego nowego interfejsu. Znów warto sięgnąć do Engelbarta, który zwracał uwagę, że technika jest tylko środkiem do celu. Celem zaś jest skuteczna odpowiedź na wyzwanie, jakie tworzy rosnąca złożoność problemów wynikających z rozwoju współczesnej cywilizacji.

Paradoks polega na tym, że technologie komputerowe i informatyczne, które mają pomagać, jednocześnie są dziś głównym źródłem wzrostu owej złożoności. Jej przykładem są zarówno takie platformy komunikacyjne jak Facebook służące miliardom ludzi, jak i potrzebna do ich funkcjonowania infrastruktura techniczna – gigantyczne serwerownie, sieci teleinformatyczne i system produkcji mikroprocesorów, czyli najbardziej złożonych obiektów technicznych stworzonych przez człowieka.

Technooptymiści przekonują, że kolejne progi wzrostu złożoności pokonamy dzięki rozwojowi systemów sztucznej inteligencji. Będą one już nie tylko wzmacniać ludzki umysł, ale i go zastępować w coraz większej liczbie zadań. To wszystko za cenę… tak, dalszego wzrostu złożoności. Czy tak zdefiniowany postęp może trwać w nieskończoność? Nie może, co pokazał Joseph Tainter, autor klasycznego już dzieła „The Collapse of Complex Societies” („Upadek złożonych społeczeństw”).

Rosnąca złożoność jest coraz kosztowniejsza w utrzymaniu i wymaga nie tylko coraz większych mocy intelektualnych, ale także wiąże się ze wzrostem zużycia zasobów energetycznych i materiałowych. Gdy zabraknie energii, sztuczna inteligencja oraz inne wzmacniacze umysłu staną się bezużyteczne. Smartfonem bez zasilania nie da się nawet wbić gwoździa. Zacznie się to, co w historii wielokrotnie się już powtarzało. Upadek. Chyba że wykorzystamy pozostałe zasoby energii i wzmacnianego technologicznie intelektu do kontrolowanej zmiany modelu funkcjonowania cywilizacji na mniej złożony.

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną