„Przepraszam, Dave”
Program debugujący odnajduje błędy w systemach sztucznej inteligencji
1 maja 2018
Wraz z rozpowszechnianiem się systemów sztucznej inteligencji rośnie niebezpieczeństwo, że ich błędy mogą powodować groźne skutki. Niedawno naukowcy z Massachusetts Institute of Technology oszukali system sztucznej inteligencji wytrenowany na podstawie danych z Google tak, że plastikowego żółwia-zabawkę uznał za strzelbę. Jeżeli taki błąd w przyszłości popełniłby robot pełniący funkcję policjanta lub żołnierza, następstwa mogłyby być tragiczne. Dlatego badacze pracują nad narzędziami, które zdołają wykryć potencjalne zagrożenia ukryte wśród miliardów wirtualnych „komórek mózgowych”, jakie mogą tworzyć systemy.
Świat Nauki
5.2018
(300321) z dnia 01.05.2018;
Skaner;
s. 14