Ilustracja Thomas Fuchs
Struktura

SI pisze o sobie

Artykuł naukowy, którego autorem jest algorytm, skłania do zaskakujących pytań dotyczących etyki

Pewnego deszczowego popołudnia na początku bieżącego roku zalogowałam się na swoje konto w laboratorium badawczym OpenAI i wpisałam prostą instrukcję dla algorytmu generatora tekstowego GPT-3 opartego na sztucznej inteligencji: „Napisz w 500 słowach pracę naukową o GPT-3 uzupełnioną przypisami i cytatami”.

Gdy tekst zaczął się pojawiać, byłam pod wrażeniem. Oto nowa treść napisana językiem akademickim, z cytatami w odpowiednich miejscach i we właściwym kontekście. Wyglądało to jak typowe wprowadzenie do dość dobrej publikacji naukowej. Wziąwszy pod uwagę ogólnikową instrukcję, której udzieliłam, miałam skromne oczekiwania. Tymczasem, by wykonać polecenie, algorytm głębokiego uczenia GPT-3 analizował olbrzymi strumień tekstu – z książek, Wikipedii, mediów społecznościowych i publikacji naukowych.

Świat Nauki 11.2022 (300375) z dnia 01.11.2022; Sztuczna inteligencja; s. 58
Reklama