Anna Amarowicz / pulsar
Struktura

Podkast 74. Piotr Sankowski: Nie bójmy się AI, róbmy własną

Czy duże modele językowe myślą? Odpowiada David Chalmers
Struktura

Czy duże modele językowe myślą? Odpowiada David Chalmers

Moje analizy skłaniają do twierdzenia, że jeśli LLM-y będą mogły kiedykolwiek myśleć, to napotkają na pewne ograniczenia w tym, o czym będą w stanie myśleć – pisze David Chalmers, filozof umysłu i języka, kognitywista, uczestnik największych debat o naturze świadomości.

Czy modele językowe są świadome? Odpowiada David Chalmers
Struktura

Czy modele językowe są świadome? Odpowiada David Chalmers

Wielką katastrofą byłoby bezwiedne i bezmyślne spotkanie ze sztuczną inteligencją obdarzoną świadomością – mówi David Chalmers, filozof umysłu i języka, kognitywista, uczestnik największych debat o naturze świadomości.

Zarząd OpenAI zwolnił Sama Altmana. Dlaczego?
Technologia

Zarząd OpenAI zwolnił Sama Altmana. Dlaczego?

Zamach stanu w firmie, która zainicjowała wyścig zbrojeń na polu sztucznej inteligencji, to próba zagnania dżina do butelki.

Co się stało w świecie sztucznej inteligencji w ciągu ostatnich miesięcy? Co się dzieje teraz? Co wydarzy się wkrótce? Opowiada prof. Piotr Sankowski, fizyk i informatyk z Uniwersytetu Warszawskiego, prezes IDEAS NCBR.

Opery mydlane to jedna z amerykańskich specjalności. Popularnością cieszą się na całym świecie. Także ta ostatnia – której bohaterem jest Sam Altman, szef firmy OpenAI, tej, która powiła wielki model językowy o nazwie GPT. Wiele o niej pisaliśmy, nie raz w podkaście pulsara rozmawialiśmy.

Altmana najpierw zwolniono – powodując wrzenie mediów – po czym ponownie zatrudniono, ale już w innym kontekście, bo sprytny Sam działać będzie z innym niż wcześniej zarządzie. Wcześniej składał się on z ludzi cechujących się refleksją filozoficzną, teraz – z osób ukierunkowanych ściśle biznesowo. Kapitaliści stają za sterem OpenAI – piszą komentatorzy. Kończy się epoka wątpliwości etycznych, zaczyna czas robienia pieniędzy.

Tyle doniesienia prasowe. W ich tle rozgrywają się rzadziej opisywane procesy o szerszym charakterze, o których opowiada nasz gość. Relacjonuje przebieg ostatnich badań nad sztuczną inteligencją. Wyjaśnia, co w istocie dzieje się – najprawdopodobniej – w Dolinie Krzemowej. Snuje – umocowane w solidnej wiedzy – przypuszczenia, czego możemy się w związku z tym spodziewać.

W ciągu ostatnich kilku miesięcy krajobraz AI bardzo się zmienił. Pojawiły się jej modele lokalne, dostrojone do kultury, w której przyjdzie im funkcjonować, odbijające tamtejsze idiosynkrazje. Udostępnione zostały modele otwarte dla każdego, wstępnie wytrenowane, gotowe do eksperymentowania. AI wykorzystywana jest coraz intensywniej w nauce, stając się jej coraz użyteczniejszym, wręcz oczywistym narzędziem. Modele generatywne zmieniają systemy edukacji.

Jeden z zasadniczych wniosków na przyszłość? Albo w tej grze o kształt przyszłości weźmiemy – my, czyli polska nauka i gospodarka – udział już teraz, albo zostaną nam tylko miejsca na dalekich trybunach. O tym również opowiada Sankowski.

Piotr Sankowski.Anna Amarowicz/pulsarPiotr Sankowski.

Cieszymy się, że słuchacie naszych podkastów. Powstają one także dzięki wsparciu naszych cyfrowych prenumeratorów.
Aby do nich dołączyć – i skorzystać w pełni z oferty pulsara, „Scientific American” oraz „Wiedzy i Życia” – zajrzyjcie tutaj.

WSZYSTKIE SYGNAŁY PULSARA ZNAJDZIECIE TUTAJ