Gdy systemy tworzące obraz, takie jak DALL-E 2, popełniają błędy, efekt bywa zabawny. Gdy systemy tworzące obraz, takie jak DALL-E 2, popełniają błędy, efekt bywa zabawny. Imagen
Struktura

Koń jedzie na astronaucie, czyli czego wciąż nie umie sztuczna inteligencja

Maszyny mogą być kiedyś tak inteligentne, jak ludzie, a może nawet bardziej, ale do końca gry jest daleko. Wciąż mamy dużo pracy do wykonania w tworzeniu maszyn, które naprawdę potrafią zrozumieć otaczający je świat i wyciągać wnioski. To, czego teraz potrzebujemy, to mniej pozowania, a więcej podstawowych badań.

Przeciętnemu człowiekowi może się wydawać, że postęp w dziedzinie sztucznej inteligencji jest ogromny. Według niektórych fascynujących relacji medialnych i komunikatów prasowych system DALL-E 2 z firmy OpenAI może tworzyć spektakularne obrazy na podstawie dowolnego opisu tekstowego. Inny system z OpenAI o nazwie GPT-3 potrafi o wszystkim mówić, a nawet pisać o sobie [patrz s. 58]; zaś system zwany Gato, opracowany w maju przez DeepMind (oddział Alphabet Inc.), podobno radził sobie dobrze z każdym zadaniem, jakie mu zlecono. Jeden z dyrektorów wysokiego szczebla w DeepMind posunął się nawet do przechwałki, że w dążeniu do stworzenia sztucznej inteligencji, dorównującej giętkością i zaradnością ludzkiej – „the game is over”.

Nie dajmy się zwieść.

Świat Nauki 11.2022 (300375) z dnia 01.11.2022; Sztuczna inteligencja; s. 62
Oryginalny tytuł tekstu: "Sztuczna pewność siebie"
Reklama