Porozmawiać ze zwierzętami. Tylko po co
Naukowcy próbują porozumieć się ze zwierzętami od dziesięcioleci. Bez powodzenia. Przykładem słynny eksperyment z lat 60. ubiegłego wieku, w który zaangażowano delfina imieniem Peter. Projekt współfinansowany przez NASA, zakrojony na dużą skalę, zapowiadał się świetnie. Jednak już jego podstawowe założenia zostałyby dziś podważone przez każdego, kto ma jakiekolwiek pojęcie o etologii – nauce o zachowaniach zwierząt.
Uczestnicy programu uznali, że skoro delfiny wydają dźwięki we własnej, naturalnej komunikacji, to będą w stanie nauczyć się ludzkiej mowy. Wystarczy, że podda się je intensywnemu treningowi (codziennie dwie sesje powtarzania dźwięków) i zacznie naukę w młodym wieku. Słowem – jeśli potraktuje się delfiny jak ludzkie dzieci. Tyle że mechanizm wydawania dźwięków przez oba te gatunki jest diametralnie inny, podobnie jak sposób artykułowania głosek (np. delfiny w ogóle nie mają ruchomych mięśni ust).
Nic dziwnego, że projekt nie przynosił wymiernych rezultatów. A dodatkowo towarzyszyły mu liczne kontrowersje (bez skonkretyzowanego planu zwierzętom podawano LSD). W końcu wstrzymano finansowanie badań, a po całym przedsięwzięciu pozostał niesmak. Był on tak silny, że naukowy mainstream porzucił temat porozumiewania się ze zwierzętami. Powrócono do niego dopiero w latach 80. Ówczesne projekty też jednak nie skupiały się na tym, by zrozumieć, co właściwie komunikują zwierzęta.
Alex, papuga żako współpracująca przez wiele lat z naukowcami z uniwersytetów Harvarda i Brandeisa, nauczyła się wokalizować ludzkie słowa. Gorylica Koko, biorąca udział w naukowym projekcie działającym przy The Gorilla Foundation, „rozmawiała” w języku migowym. A szympans Kanzi (jako jedyny nadal żyje) porozumiewa się z badaczami z Iowa Primate Learning Sanctuary za pomocą leksygramów, czyli specjalnych symboli rozmieszczonych na tablicach. Specjaliści byli i nadal są podzieleni w kwestii oceny tych umiejętności. Jedni nie mają wątpliwości, że badane zwierzęta używały prawdziwego języka; inni sądzą, że raczej nauczyły się komunikatów adekwatnych do okoliczności, a to za mało, by nazwać ich reakcje mową.
Niezależnie od tych opinii zastrzeżenia budzi przede wszystkim to, że naczelne, walenie czy ptaki biorące udział w takich projektach funkcjonowały w sztucznych okolicznościach. Ponadto sposób komunikacji został im narzucony i miał niewiele wspólnego z typowymi sygnałami wysyłanymi przez ich dzikich pobratymców. Nawet przedmioty, z którymi obcowały i na podstawie których uczyły się „mówić”, to były klucze, klocki i cyfry, a nie kamienie, patyki lub liście.
Wielka baza
Koko czy Kanzi nie dają nam więc prawdziwego wglądu w zwierzęcy świat wewnętrzny. Dlatego współcześnie naukowcy odwracają tę perspektywę. Na przykład grupa zoologa Yossiego Yovela z uniwersytetu w Tel Awiwie, która od kilku lat prowadzi projekt poświęcony komunikacji nietoperzy, monitoruje kolonię żyjącą wolno, ale korzystającą – swobodnie – z przestrzeni przygotowanych przez uczonych (wyłożonych pianką akustyczną, wyposażonych w mikrofony). Przez całą dobę badacze nagrywają wszystkie odgłosy wydawane przez te latające ssaki i mają nadzieję, że po uzyskaniu odpowiedniej ilości danych (zdjęcia z fotopułapek, nagrania audio) będą w stanie odczytać komunikaty wysyłane przez poszczególne osobniki. Jednak czeka ich sporo wyzwań. Pierwszym z nich jest tzw. efekt przyjęcia koktajlowego – wszystkie nietoperze w kolonii wydają dźwięki w tym samym momencie. Jednak uczeni dysponują narzędziem, którego nie mieli ich poprzednicy – sztuczną inteligencją, która uczy się, jak wyodrębniać poszczególne sygnały z morza danych.
System jest również szkolony do interpretacji sygnałów: naukowcy prezentują mu dźwięki nietoperzy wydawane w znanych im kontekstach (np. podczas żerowania, rozrodu czy w czasie komunikacji z młodymi). AI odnajduje cechy charakterystyczne każdego sygnału i przekłada je potem na nowe tłumaczenia. Jeśli odtworzy mu się dźwięki kolonii, system „zrozumie”, co poszczególne osobniki chciały przekazać.
Tylko że to podejście niesamowicie żmudne. Wydaje się nowoczesne, ale bazuje na motywie kamienia z Rosetty: znane komunikaty z jednego „języka” przekładane są na inny. W ten sposób trudno jest nauczyć się czegoś nowego. Część zespołów badawczych stosuje więc inną strategię.
Wielka sieć
Modele generatywne AI dowiodły, że maszyny nie muszą rozumieć języka, by skutecznie się nim porozumiewać lub go tłumaczyć. Wykonują analizy statystyczne: jak często dany wyraz występuje, jakie sformułowania z nim korelują, jaka jest jego pozycja w danym języku. W ogromnej trójwymiarowej chmurze danych każdej „cząsteczce” mowy przypisywane są konkretne właściwości statystyczne i pozycja.
Kształty tych zbiorów lingwistycznych są prawie identyczne w każdym ludzkim języku, niezależnie od gramatyki czy składni. Dlatego sztuczna inteligencja jest w stanie przełożyć „Ala ma kota” na dowolny język, nie tylko nie rozumiejąc, co to znaczy, ale też nie potrzebując nadzoru człowieka ani „kamienia z Rosetty”. Takie rozwiązanie daje szansę na osiągnięcie czegoś znacznie poważniejszego, niż tylko przetłumaczenie sygnału: „rozród” albo „żerowanie”.
Na to właśnie liczył Roger Payne, biolog i przyrodnik, związany z uniwersytetami Harvarda i Cornella. Zmarły w czerwcu 2023 r. naukowiec (zasłynął odkryciem, że humbaki tworzą pieśni) powołał do życia projekt CETI – Cetacean Translation Initiative. Realizatorzy tego przedsięwzięcia uważają, że jeśli każdy ludzki język da się przedstawić jako lingwistyczną galaktykę danych, to inne złożone systemy komunikacji (np. te stosowane przez walenie) również powinny dać się w ten sposób zapisać. Chcą więc przyjrzeć się językowym podobieństwom ludzi i kaszalotów.
Czy to samo da się zrobić dla wróblaków, słoni czy pszczół? Naukowcy z Earth Species Project, organizacji typu non profit zajmującej się wykorzystaniem AI do dekodowania komunikacji innej niż ludzka, twierdzą, że byłoby to możliwe. Tę inicjatywę powołano do życia w 2017 r. m.in. przez Aza Raskina, projektanta interfejsów i syna Jefa Raskina, nieżyjącego już specjalisty od interakcji człowiek–maszyna, inicjatora projektu Macintosh w Apple.
Zespoły z Earth Species pracują nad różnymi zadaniami, ale ogólny plan jest taki, by najpierw zgromadzić jak najwięcej danych dotyczących sygnałów wydawanych przez różne zwierzęta, a następnie stworzyć na ich podstawie modele fundamentalne, które będą punktami odniesienia dla AI. Kolejny krok (na razie odległy) to dekodowanie: tworzenie „chmur lingwistycznych”, odnajdywanie w nich wzorów i interpretowanie ich. Ostatecznie realizatorzy projektu marzą o tym, by móc wysyłać zwierzętom sygnały zwrotne.
Założenia tego projektu bardzo odbiegają od wcześniejszych. Pierwsza różnica polega na tym, że ich twórcy zakładają minimalny udział człowieka. Badacze nie tylko nie zawiadują „słownikiem” sztucznej inteligencji, ale też nie tworzą mapy behawioralnej (wykorzystywanej np. w projekcie prowadzonym na uniwersytecie w Tel Awiwie). W Earth Species zachowanie zwierząt będzie „etykietowane” przez AI w oparciu o terabajty danych pozyskiwanych z tzw. bio-loggerów, czyli miniaturowych urządzeń noszonych przez zwierzęta i nagrywających nieustannie.
Drugą różnicą jest rozmach przedsięwzięcia. Ambicje naukowców z Earth Species są ogromne i dotyczą w zasadzie całej ziemskiej komunikacji wewnątrzgatunkowej i międzygatunkowej. Obecnie mowa tu przede wszystkim o „języku” wokalnym. Ale niewykluczone, że ten translator rozstanie rozszerzony na mowę ciała, sygnały chemiczne czy inne – związane z takimi zmysłami, których my, ludzie, w ogóle nie używamy.
Wielka wątpliwość
Załóżmy, że opisane projekty zakończą się powodzeniem. Nawet jeśli dowiemy się, o czym te zwierzęta „mówią”, niekoniecznie zrozumiemy – niestety – jak przekłada się to na ich świat wewnętrzny.
W naszym myśleniu o innych organizmach wciąż popełniamy bowiem ten sam błąd – niepoprawnie ukierunkowanego antropocentryzmu. Myślimy tak, jak przystało na hiperspołeczną małpę naczelną, którą ewolucja ukształtowała w taki sposób, by dzielić się z innymi osobnikami refleksjami na temat siebie samej i otaczającego ją świata. Tymczasem na przykład ośmiornice są bardzo inteligentne, ale źle znoszą towarzystwo innych przedstawicieli swojego rzędu i z pewnością nie będą chciały relacjonować, jak minął im dzień. Zresztą czyja to miałaby być opowieść: niewielkiego mózgu centralnego, który stanowi nie więcej niż 40 proc. układu nerwowego tych zwierząt, czy któregoś z półautonomicznych „mózgów”, które te głowonogi mają w swoich zwinnych ramionach?
Jeśli z jednokierunkowego tłumaczenia „mowy” zwierząt przejdziemy do próby nawiązania dwukierunkowej komunikacji, problemów pojawi się znacznie więcej. Weźmy język kaszalotów. Wiadomo, że te zwierzęta „rozmawiają” ze sobą niemal nieustannie, a do tego są bardzo inteligentne. Czy jednak będziemy umieli prawidłowo używać wielorybich kontekstów? Nawet tak prosty komunikat, jak „chodź do mnie”, może mieć zupełnie inne znaczenie, gdy zostanie wykrzyczany (tak jak to robi agresywny rodzic do niesfornego dziecka), a inne, gdy się go wypowie miłym, pocieszającym tonem („to musiał być ciężki dzień, no chodź do mnie”). Istotne jest również, kto wypowiada te słowa. Kaszaloty używają do swoich komunikatów różnych częstotliwości, „mówią” co innego na poszczególnych głębokościach. Jak więc rozpoznać, która z tych zmiennych jest kluczowa dla intencji?
Poza tym – czy w ogóle powinniśmy mówić do zwierząt? Już teraz bardzo ingerujemy w ich komunikację: zanieczyszczamy morza i oceany hałasem, utrudniając wodnym zwierzętom porozumiewanie się. Nasz ruch uliczny zagłusza kompozycje godowe ptaków śpiewających, a jazgot naszych siedlisk odstrasza dzikie gatunki z sąsiednich terytoriów. Czy wolno nam tworzyć dodatkowy bełkot?