Reklama
Pulsar - wyjątkowy portal naukowy. Pulsar - wyjątkowy portal naukowy. Shutterstock
Technologia

Pulsar patronuje: AI w wizualizacji archeologii – ankieta

Sztuczna inteligencja coraz częściej „maluje” nam przeszłość. Czy można tym wizualizacjom ufać? Czy rozumiemy, że wiele z nich to halucynacje maszyn, a nie wierne rekonstrukcje? Redakcja portalu „Archeowieści” rozpoczęła naukowy eksperyment, który ma to sprawdzić. Potrzebuje pomocy – także was, czytelników Pulsara.

Agnieszka Krzemińska: Czy w dobie Instagrama i TikToka wizualność stała się ważniejsza niż treść?

Redakcja „Archeowieści”: – Dla nas zawsze była ważna, ale za nią od zawsze stała treść, nawet jeżeli na pierwszy rzut wydaje się czymś drugorzędnym. To nie jest tak, że nowoczesna nauka musi sięgać po nowe narzędzia i krótkie formy wizualne, ale nie powinna się na nie zamykać. Przynajmniej w popularyzacji. Naukowcy powinni tłumaczyć ludziom wyniki swoich badań, ale wszyscy korzystają teraz z nowych środków przekazu i coraz trudniej jest zainteresować kogoś samym tekstem, trzeba go przyciągnąć obrazem. Archeologia jest pod tym względem bardzo atrakcyjna – np. znajdowane zabytki dobrze jest osadzić w dynamicznym obrazie minionych epok. A do tego właśnie świetnie nadaje się AI.

Kiedy wasz portal, który od 2021 r. działa przy Wydziale Archeologii Uniwersytetu Warszawskiego, pierwszy raz ją wykorzystał?

Każdy opublikowanych przez nas do tej pory 250 artykułów był ilustrowany. Zanim jednak przybrały one formę usystematyzowanego wzoru, przebrnęliśmy przez trudności, polegające głównie na kiepskiej jakości zdjęciach, rysunkach, w większości przypadków pochodzących od samych badaczy albo ze źródeł w wolnym dostępie. Rozwiązaniem stały się dla nas w 2023 r. właśnie narzędzia AI. Jesteśmy zresztą jedynymi z nielicznych, którzy od ponad 2 lat stosują w praktyce narzędzia AI do wizualizacji zagadnień naukowych. Rezultatem jest m.in. nasz nowy projekt badawczy.

Na czym on polega?

Testując możliwości AI w kontekście wizualizacji zagadnień archeologicznych, zauważyliśmy kilka problemów – np. na jakich danych naukowych bazują modele przekształcające wpisywane przez nas prompty (polecenia/instrukcje) w obraz. Dyskusje na ten temat szybko jednak wyszły poza naszą redakcję i wizualizacje tworzone na potrzeby „Archeowieści”. Teraz chcemy rozpoznać tę praktykę głębiej, zarówno od strony twórców, jak i odbiorców, w czym wspomaga nas zespół socjologów. Ankieta, która dopiero co się pojawiła, dotyczy właśnie tego, w jaki sposób odbierane są archeologiczne ilustracje stworzone przy pomocy AI, czy są oceniane pozytywnie, czy budzą zaufanie, czy może raczej niechęć.

Chcecie usłyszeć głosy naukowców czy czytelników?

Jednych i drugich. Naukowiec ocenia dany obraz, mając profesjonalne zaplecze naukowe, zatem ze specyficznej perspektywy. Nas interesuje również to, w jaki sposób odbiorca publiczny przyjmuje „rzeczywistość” prezentowaną mu przez AI. To bardzo ważne, bo stale jesteśmy dosłownie zalewani treścią generowaną o wątpliwej warstwie merytorycznej. Wiedza na temat tego, czy odbiorcy takich wizualizacji są tego świadomi, czy nie, stanowi bardzo ważny punkt wyjścia dla sposobów, w jaki powinno się korzystać z takich treści. W teorii można bowiem powiedzieć „nie” takim technologiom, jednak w praktyce są one już powszechne.

Mnie zastanawia, gdzie się kończy rekonstrukcja, a zaczyna narracja. Czy nie obawiacie się, że wykorzystywanie AI to granie z „prawdą”, że wygenerowane obrazy mogą tworzyć sztuczną wizję przeszłości?

Jaka interpretacja przeszłości nie jest już pewnym igraniem z rzeczywistością? (link do: https://archeowiesci.pl/generowana-przeszlosc-czyli-o-obrazach-ktorych-nigdy-nie-bylo/). Każda propozycja wizualna jest już projekcją tego, co uważamy na temat przeszłości. Staramy się, by była bliska prawdzie, ale nie mamy pełnego obrazu przeszłości. Co więcej, kolejne znaleziska mogą aktualną pewnością stanu rzeczy zachwiać. Z AI jest jednak inaczej, ona halucynuje. I to nawet w przypadku, gdy w poleceniu czy kodzie jasno wskazano, że ma tworzyć treści oparte wyłącznie na sprawdzonych źródłach. Zatem, zamiast tworzyć stosowną wizualizację, łączy elementy z różnych kultur i okresów, a niedobory swojej bazy danych uzupełnia tym, co wydaje się jej adekwatne do omawianego tematu, nawet jeżeli jest to błędne. Tyczy się to warstwy zarówno merytorycznej, jak i szczegółów natury ogólnej – warstw, tekstur, proporcji, miejsc. To sprawia, że twórca wykorzystujący modele AI do wizualizacji przeszłości musi bardzo pilnować swoich narzędzi. Po pierwsze, by generacje przez niego tworzone odpowiadały aktualnej wiedzy, a po drugie, by obraz nie był halucynacją.

I na przykład nie miał biżuterii czy fryzur z innego kręgu kulturowego lub czasów?

Nie tylko. AI potrafi np. tworzyć treści okraszone nutką rasizmu. Często przedstawia osoby o fenotypie europejskim, niezależnie od tego, czy dotyczy to starożytnego Egiptu, Iranu, Chin czy Peru. Oczywiście wszystkie są piękne i młode. Nie każdy jednak ma pełne zaplecze, które umożliwia kontrolę nad AI. W tym właściwie tkwi największy problem wykorzystywania tej technologii w popularyzacji nauk o przeszłości. Przy czym tyczy się to zarówno zupełnego laika, jak i specjalisty. Dlatego tak ważna jest ścisła współpraca pomiędzy naukowcami specjalizującymi się w danym okresie czy kulturze i twórcami wizualnymi (grafikami, ilustratorami) oraz dokładna kontrola wytworów AI. Na tym poziomie jest to kontynuacja istniejącego już schematu działania/współpracy między naukowcem a grafikiem – zmienia się tylko narzędzie.

Czy naukowcy mają dziś prawo korzystać z takich narzędzi?

Dlaczego nie? Poza kwestiami natury etycznej, generatywna AI to wciąż bardzo ciekawe, a przede wszystkim wydajne narzędzie, które może pomóc niedofinansowanym naukowcom w osadzaniu ich koncepcji badawczych w praktyce. Dobrze użyte narzędzie zawsze da jakiś pożytek, źle zastosowane zbierze swoje żniwo. Tego drugiego chyba w tym wypadku najbardziej się obawiamy. Nigdy wcześniej nie było bowiem tak łatwo stworzyć materiały graficzne potwierdzające szalone tezy o starożytnych kosmitach.

Dowiedz się więcej

Redakcja Pulsara patronuje badaniu „Interpretacja treści wizualnych generowanych przez sztuczną inteligencję w komunikacji naukowej archeologii: perspektywa autorów i odbiorców” i jest żywo zainteresowana jego wynikami. Dlatego pomóżcie naukowcom z Uniwersytetu Warszawskiego – dr Julii Chyli, mgr Aleksandrze Cetwińskiej, mgr Adamowi Budziszewskiemu oraz Konstantemu Kowalewskiemu – zrozumieć, jak odbieracie obrazy przeszłości tworzone przez AI i weźcie udział w ankiecie.

ANKIETA: https://archeowiesci.webankieta.pl/

Czego konkretnie chcielibyście się dowiedzieć z badań?

Przede wszystkim chcemy usłyszeć głos ludzi i tego, jak faktycznie publiczność odbiera taką formę wykorzystania AI. Czy jest im przychylna? Czy może jednak preferuje bardziej klasyczne formy wizualizacji. Czy odbiorcy w ogóle przejmują się autorstwem ilustracji i tym, jaką treść taka ilustracja w sobie zawiera? Czy zawartość merytoryczna ma dla nich drugorzędne znaczenie względem formy i ogólnej estetyki. Czy AI faktycznie w oczach ludzi ma szansę w popularnonaukowych adaptacjach? I czy jako społeczeństwo jesteśmy w ogóle zdolni do jednoznacznego rozróżnienia tego, co zostało stworzone przez AI, od tego co jest obrazem stworzonym przez człowieka.

Co planujecie po analizie wyników?

Ze strony naukowej na pewno chcemy opublikować wyniki ankiety z obszernym komentarzem o naszych refleksjach. Poza artykułem naukowym podzielimy się z naszymi czytelnikami wynikami w formie bardziej przystępnej, zarówno na naszym blogu, jak i w przestrzeni akademickiej. Jednocześnie chcielibyśmy przygotować rekomendacje dla innych redakcji popularnonaukowych, które uwzględniałyby wskazane przez ankietowanych oczekiwania względem form wizualizacji przeszłości.

Czyli ten projekt to test nie tylko na odbiór AI w popularyzacji, ale i na to, jak nauka może prowadzić dialog między dyscyplinami?

To bardziej szansa na to, abyśmy odpowiedzieli sobie na pytanie, jak powinniśmy prowadzić komunikację naukową w dobie nowych, kontrowersyjnych w wielu wypadkach technologii.

Reklama