Ramię w ramię. Ludzie i roboty wspólnie idą w przyszłość
W przyszłości maszyna-opiekun mogłaby delikatnie podnieść starszą osobę z łóżka o poranku i pomóc jej się ubrać. Robot sprzątający przetoczyłby się przez dziecięcy pokój, zbierając porozrzucane zabawki i odkładając je na miejsce, a brudne ubrania wyniósłby do kosza w łazience. W fabryce mechaniczne dłonie składałyby smartfony nowej generacji – od pierwszego, kruchego komponentu aż po ostatni, wykańczający detal.
To są migawki z możliwej przyszłości, w której ludzie i roboty żyliby i pracowali ramię w ramię. Część takich maszyn już istnieje w formie prototypów, inne pozostają nadal koncepcjami. Inżynierowie dostrzegają szansę dla robotów tam, gdzie ludzie doświadczają ryzyka, niewygody lub nadmiernego czy też niepotrzebnego wysiłku – mogłyby wykonywać rutynowe prace, realizować zadania, których nie potrafimy wykonać, lub docierać tam, gdzie my nie możemy.
Urzeczywistnienie takiej wizji wiąże się jednak z ogromnymi trudnościami – a jedną z największych jesteśmy my sami. Ludzie są nieprzewidywalni i chaotyczni. Roboty, podporządkowane regułom swojego oprogramowania, źle radzą sobie z nieporządkiem. Każdy robot, który ma współpracować z ludźmi lub choćby z nimi współistnieć, musi być elastyczny. Musi poruszać się w bałaganiarskim otoczeniu i reagować na nagłe zmiany środowiska. A także działać bezpiecznie w pobliżu podekscytowanych małych dzieci lub kruchych, starszych osób. Jego kończyny czy manipulatory powinny być wytrzymałe, zręczne i przymocowane do stabilnej konstrukcji nośnej, zapewniającej również źródło zasilania. A w dodatku nie może być drogi. Podsumowując – jest to niezwykle ambitne wyzwanie.
Choć niekoniecznie niemożliwe do realizacji. Aby sprawdzić, jak bardzo zbliżamy się do tej idei, odwiedzam Stanford Robotics Center – przeznaczony na eksperymenty ośrodek o powierzchni około 280 m2, otwarty w listopadzie 2024 roku na Stanford University. Wita mnie Steve Cousins, dyrektor wykonawczy centrum oraz założyciel firmy znanej obecnie jako Relay Robotics, dostarczającej roboty dostawcze do szpitali i hoteli. Cousins uważa, że roboty staną się we współczesnym życiu nieodzowne – zwłaszcza w obszarach takich, jak opieka, które wraz ze starzeniem się społeczeństw będą wymagały coraz większej liczby pracowników. „Robotyka polega na pomaganiu ludziom” – mówi.
W niektórych rolach zdolności robotów mogą przewyższać możliwości istot z krwi i kości. Jednocześnie istnieją zadania, które tylko ludzie mogą – lub powinni – wykonywać. Stanford Robotics Center podejmuje próbę zbadania tej granicy i ustalenia, jak wiele codziennych domowych czynności, a także zabiegów medycznych czy prac archeologicznych pod wodą najlepiej powierzyć asystentom z metalu i plastiku.
Jedna umiejętność w szczególności stanowi dla robotów poważną przeszkodę. „Największym wyzwaniem w robotyce jest kontakt” – mówi Oussama Khatib, dyrektor centrum. Wiele robotów ma ręce przypominające ludzkie – lecz nasze ręce są znacznie bardziej złożone, niż mogłoby się wydawać. Zginające się, składające się z paliczków palce należą do kończyny zbudowanej z 27 kości i ponad 30 mięśni, które działają w ścisłej synchronizacji. Zmysł dotyku jest w istocie syntezą wielu zmysłów, opartą na receptorach komórkowych wykrywających nacisk i temperaturę oraz na propriocepcji, czyli świadomości położenia i ruchu własnego ciała. Zmysł dotyku i zręczność pozwalają ludziom przewyższać obecne roboty w wielu zadaniach: na przykład dzieci zwykle opanowują wiązanie sznurowadeł między piątym a siódmym rokiem życia, podczas gdy czynność tę potrafią wykonać wyłącznie maszyny zaprojektowane specjalnie do tego jednego celu. Wiele robotów nie korzysta z dłoni, lecz z tzw. chwytaków szczękowych, które zbliżają do siebie dwa przeciwległe „palce”, by unieruchomić przedmiot.
Efektowne demonstracje robotycznych dłoni – takie jak nagranie z 2024 roku, na którym humanoidalny robot Optimus firmy Tesla łapie w powietrzu piłkę tenisową – często opierają się na teleoperacji, czyli zdalnym sterowaniu. Bez technika kierującego Optimusem zza kulis zabawa w łapanie piłki byłaby dla robota całkowicie niemożliwa.
Pierwsze przemysłowe ramię robota – masywną ważącą około 1,4 t maszynę – zainstalowano w zakładach General Motors w Trenton w stanie New Jersey na początku lat 60. Nazwane Unimate, zostało zaprojektowane do „programowanego transferu elementów”, jak określono w patencie. W praktyce oznaczało to, że robot używał chwytaka do podnoszenia gorących metalowych odlewów z linii montażowej. Propriocepcja Unimate’a była prymitywna. Operator musiał fizycznie poruszać ramieniem, aby wykonało pożądany ruch. Robot umiał robić proste rzeczy – w tym uderzać piłkę golfową i nalewać napój z otwartej puszki – co jeden z egzemplarzy Unimate’a zaprezentował Johnny’emu Carsonowi w programie The Tonight Show w 1963 roku.
Carson jednak zachowywał wyraźny dystans od ramienia maszyny. Utrzymywanie bezpiecznej odległości od robotycznych ramion jest zresztą od dawna normą – elementem ściśle kontrolowanych środowisk, które przez ostatnie 60 lat umożliwiały sukces robotów przemysłowych. Przeniesienie ich poza takie uporządkowane przestrzenie, co próbują robić robotycy ze Stanford University, jest niezwykle trudne.
Khatib mówi, że wraz ze współpracownikami „zabierają roboty do świata niepewności – świata, w którym nie wiadomo dokładnie, dokąd się zmierza, i w którym, dotykając obiektów, można je uszkodzić”. Inspirację czerpie z tego, co nazywa ludzką „podatnością” – zdolnością dostosowywania się do otoczenia poprzez czucie i dotyk. Kierując się tymi zasadami, opracował parę współpracujących ramion robota wyposażonych w chwytaki, nazwanych Romeo i Julia.
W laboratorium Khatiba dostrzegam Romea – wyłączonego i stojącego samotnie; Julia niedawno wróciła z muzeum w Monachium i wciąż pozostaje zapakowana w skrzyni. Khatib wspomina, że w latach 90. poczuł niepokój, gdy zamożny pionier informatyki odwiedził uniwersytet i zbliżył się do ramion robota, ponieważ „chciał z nim zatańczyć”. Na szczęście gość nie doznał obrażeń, choć taki finał wcale nie był nieprawdopodobny. „Na tym polega nasza praca: próbujemy odkrywać ludzkie strategie – mówi Khatib – a następnie przenosić je na roboty, które muszą funkcjonować w świecie pełnym zmiennych, takich jak spontanicznie tańczący ludzie.”
Aby pomóc robotom lepiej „wyczuwać” otoczenie, inżynier mechanik Monroe Kennedy III, profesor nadzwyczajny na Stanford University, opracowuje czujnik nazwany DenseTact. Urządzenie to udoskonala standardowe chwytaki, wyposażając je w półprzezroczystą końcówkę z silikonowego żelu. Gdy końcówka naciska na jakiś obiekt, ten pozostawia w żelu odcisk. Kamera umieszczona w czujniku rejestruje następnie światło emitowane przez diodę LED wbudowaną w sensor, odbijające się od wewnętrznej powierzchni silikonu. Robot wykorzystuje zmiany natężenia światła do stworzenia matematycznej reprezentacji powierzchni przedmiotu. Innymi słowy, DenseTact umożliwia robotowi „widzenie” tego, czego on dotyka. Jeden z robotów Kennedy’ego potrafi pocierać tkaninę między dwoma palcami i z dokładnością przekraczającą 98% określać, czy materiał składa się z jednej, dwóch czy trzech warstw jedwabiu.
Naukowcy z Massachusetts Institute of Technology stworzyli podobny system o nazwie GelSight. Sandra Liu jako doktorantka inżynierii mechanicznej wykazała, że GelSight potrafi dzięki dotykowi rozpoznać drobne litery tworzące napis LEGO na wtyku klocku. Odchodząc od innych projektów dłoni robotycznych, które zwykle są skoncentrowane na palcach, Liu umieściła czujnik GelSight w gumowej dłoni. „Dłonie są w robotyce niedoceniane – mówi Liu. – Gdy chwytam coś dużego, w rzeczywistości polegam bardziej na dłoni niż na palcach”. Liu i jej promotor przetestowali roboty z różnymi konfiguracjami palców i dłoni, każąc im chwytać plastikowe zabawki Fisher-Price pokryte farbą. Okazało się, że najlepszy chwyt zapewniała robotyczna elastyczna dłoń pokryta podatnym żelem.
Choć dłonie wydają się obiecujące, Liu przyznaje, że optymalna ręka robota wcale nie musi naśladować ludzkiej anatomii. „Toczy się sporo filozoficznych debat o tym, czy nie jesteśmy zbyt przywiązani do idei tworzenia humanoidalnych dłoni robotów, tracąc z oczu to, co naprawdę istotne – mówi – czyli po prostu dłoń robotyczną, która potrafi wykonywać wiele różnych zadań”.
Laboratorium Stanford Robotics Center musi być jednym z najpiękniejszych podziemi, jakie można znaleźć na wydziałach inżynieryjnych uniwersytetów. Jasne sztuczne światło bije z atrap świetlików w białym pofalowanym suficie. Pomieszczenia, oddzielone szklanymi ścianami, zaaranżowano jako przestrzenie mieszkalne i rekreacyjne lub stanowiska pracy. Jest tam kuchnia, w której robot smaży krewetki i odkłada na miejsce naczynia. W części medycznej znajduje się przezroczysta replika głowy poprzecinana przewodami wypełnionymi czerwonym płynem, naśladującymi ludzkie naczynia krwionośne. „Pomysł – jak wyjaśnia Cousins – polega na tym, że maleńkie roboty mogłyby być prowadzone za pomocą magnesów przez układ naczyniowy, aby na przykład usuwać zakrzepy.” Na korytarzu czworonożny robot spoczywa niczym śpiący pies na skraju sofy. „Chyba uczą go wskakiwać na kanapę” – mówi Cousins.
Jest tu także studio tańca z drewnianą podłogą i dużymi lustrami. Naukowcy rejestrują w nim ruchy ludzkich tancerzy, aby trenować roboty. „Roboty poruszają się w rzeczywistym świecie – mówi Cousins. – A kto rozumie ruch bardziej intuicyjnie niż tancerze i choreografowie?”
Obok, w sypialni urządzonej meblami z IKEA, dwóch robotyków testuje TidyBota. Jednoramienna maszyna, wyposażona w równoległy chwytak szczękowy, sprząta pomieszczenie. Kamery rozmieszczone wokół sufitu pomagają jej określić, który z porozrzucanych obiektów znajduje się najbliżej. Korzystając z kamery pokładowej, TidyBot klasyfikuje każdy przedmiot jako na przykład zabawkę, element garderoby lub nakrycie głowy. Następnie decyduje, gdzie dana rzecz powinna się znaleźć; robotycy ustalili, że TidyBot odkłada przedmioty na właściwe miejsce w około 85% przypadków (lepiej niż moje dzieci).
Patrzę, jak robot wrzuca koszulę do kosza na pranie. Potem znajduje kapelusz, chwyta go, podjeżdża do komody, odkłada kapelusz na podłogę, otwiera szufladę, chwytając za uchwyt, podnosi kapelusz, wkłada go do środka i zamyka szufladę. Następnie odwraca się, dostrzega plastikowy banan, podnosi go i kładzie na półce. W innych testach TidyBot – z różnym powodzeniem – wycierał blat kuchenny, ładował zmywarkę, zamykał lodówkę i podlewał roślinę.
Jeśli roboty mają rzeczywiście stać się partnerami ludzi, będą musiały opanować umiejętności znacznie bardziej ambitne niż pielęgnowanie fikusów. Podążam pod falującym sufitem Stanford Robotics Center korytarzem prowadzącym do dużego basenu, wciąż będącego w budowie, który ma gościć robota OceanOne o sylwetce przypominającej morską syrenę.
Ta ważąca około 230 kg maszyna podwodna ma dwa ramiona oraz antropomorficzną twarz, zaprojektowaną – jak mówi Khatib – tak, by działać uspokajająco na nurków w mętnej wodzie, a jej tylna część zwęża się ku rybopodobnemu ogonowi wyposażonemu w wielokierunkowe pędniki. Jej ręce mają gumowe palce, które pod naciskiem lekko ustępują. Robota zaprojektowano z myślą o schodzeniu na głębokości znacznie przekraczające możliwości człowieka. „To jedyny robot na świecie zdolny dotrzeć do dna morskiego – mówi Khatib – i wyczuwać je za pomocą sprzężenia haptycznego”.
OceanOne poruszał się już w najgłębszym basenie świata, w Dubaju, gdzie Khatib wykorzystał go do rozegrania partii szachów z nurkiem. U wybrzeży Korsyki badał zatopiony rzymski statek z II wieku n.e. Tam Khatib, przebywając na pokładzie statku badawczego na powierzchni, zdalnie sterował miękkimi palcami robota, aby wydobyć delikatną oliwną lampę ze starożytnego wraku. On i jego współpracownicy pracują obecnie nad udoskonaloną wersją maszyny, nazwaną OceanOneK, która będzie zdolna zanurzać się na głębokość 1000 m.
Podczas nurkowania OceanOne jego dłonie są sterowane za pośrednictwem przewodu łączącego robota z systemem kontroli oraz pilotem, który zakłada gogle 3D, by widzieć świat z perspektywy maszyny. Khatib wychodzi ze swojego biura i prowadzi mnie do zestawu podobnych manipulatorów sterujących. Urządzenie przypomina parę równoległych joysticków do gier wideo, lecz jest smuklejsze i oferuje większą liczbę stopni swobody. Chwytam po jednym kontrolerze w każdą rękę. Na ekranie komputera przede mną pojawia się scena przedstawiająca kulę spoczywającą na płycie przypominającej galaretę. Khatib prosi mnie, abym przetoczył kulę po żelu. Popycham kontroler do przodu, a kula reaguje. To, co dla mnie wydaje się płynne i natychmiastowe, wymaga ogromnej mocy obliczeniowej. „To jest naprawdę trudne, ponieważ w czasie rzeczywistym symulujemy odkształcanie się membrany, a jednocześnie ty jej dotykasz i fizycznie ją wyczuwasz – mówi. – Teraz proszę przejść do środka i mocno nacisnąć – mocno!” Stosuję się do poleceń i gdy wciskam kulę, symulowana membrana pęka. Reakcja przekazywana przez sprzężenie haptyczne jest zdumiewająca: dokładnie tak wyobrażam sobie wrażenie wciskania bilardowej kuli w tackę z galaretką.
Marzeniem Khatiba jest przekazanie większej liczby takich kontrolerów, połączonych z większą liczbą robotów podobnych do OceanOne, w ręce wielu naukowców. Umieściłby te roboty w różnych punktach dna oceanicznego, tworząc podwodną flotę rozproszoną po całym świecie. Program funkcjonowałby podobnie do obserwatoriów kosmicznych, gdzie specjaliści z wielu instytucji mogą przyjeżdżać, wykonywać pomiary za pomocą wyspecjalizowanych czujników i wracać do domu z uzyskanymi danymi. „Proszę sobie wyobrazić, co można by zrobić – mówi – dla raf koralowych, dla środowiska, dla mórz. Można by rozwiązać problemy z plastikowymi odpadami!”.
Choć te wizje mnie urzekają, muszę się do czegoś przyznać: trudno mi sobie wyobrazić korzystanie z robotów w codziennym życiu (choć chętnie przyjąłbym pomocnika w stylu radośnie pikającego R2-D2). Być może wynika to z faktu, że moja jedyna relacja z domowym robotem – automatycznym odkurzaczem wielkości talerza obiadowego – zakończyła się katastrofą. Osoba, która u mnie gościła, w dobrej wierze włączyła robota przed swoim wyjściem, nie wiedząc, że mieszkanie należy wcześniej odpowiednio przed maszyną „zabezpieczyć”. Robot najechał na miskę z jedzeniem mojego kota i częściowo połknął pasztet z łososia; zanim wróciłem do domu, rozmazał resztę w postaci brązowej lepkiej smugi po dywanie i podłodze. Już wcześniej nie byłem pewien, czy to urządzenie faktycznie oszczędza mi czas sprzątania, a po incydencie z kocim jedzeniem schowałem robota do szafy i nigdy więcej go nie uruchomiłem.
Także w maszynach ze Stanford University – jakkolwiek imponujących – wciąż pozostaje wiele do poprawy. W jednym z obserwowanych przeze mnie testów TidyBot miał odłożyć żółty klocek LEGO, lecz nie potrafił go odnaleźć, gdy ten był zasłonięty łóżkiem. Podczas innej demonstracji w kuchni centrum robot do mycia naczyń, który wcześniej działał prawidłowo, uległ awarii. Po krótkim dochodzeniu okazało się, że został zdezorientowany przez niezwykle dużą liczbę obserwujących go osób – otoczenie było tak zatłoczone, że maszyna nie potrafiła już rozpoznać, gdzie ma odkładać naczynia. Robot jest trenowany metodami uczenia maszynowego, więc – jak mówi Cousins – jednym z rozwiązań może być częstsze jego szkolenie w obecności publiczności.
Pod koniec mojej wizyty, trochę dalej od kuchni, w hali Field Robotics Bay, jeden z robotyków uruchamia niewielkiego, cylindrycznego drona o nazwie Firefly. Maszyna startuje pionowo z dźwiękiem przypominającym suszarkę do włosów ustawioną na maksymalną moc. Nietypowo jak na dron Firefly ma tylko jedno wirujące śmigło i polega na systemach samostabilizacji, aby utrzymywać pionową orientację. Cousins szturcha monocopter, a ten chwieje się i automatycznie wraca do pionu. Kolejne pchnięcie okazuje się jednak zbyt mocne. Dron przechyla się, po czym wystrzeliwuje w bok i z trzaskiem uderza w ścianę.
Cousins zatrzymuje się na chwilę. „Prawdopodobnie powinien się wyłączać, gdy przechodzi w pozycję poziomą” – mówi. Robotyk obsługujący dron nie wydaje się zaniepokojony, zbierając porozrzucane kawałki plastiku; taka jest zaleta umieszczenia eksperymentalnego robota w wymiennej obudowie wydrukowanej w technologii 3D. Ten drobny wypadek stanowi jednak przypomnienie dwóch fundamentalnych prawd: robotyka jest dziedziną skomplikowaną, a dla robotów ludzie są dodatkowym źródłem komplikacji. Pozostaje poczekać i przekonać się, czy człowiek jest problemem, który kiedykolwiek da się rozwiązać.