Reklama
Pulsar - wyjątkowy portal naukowy. Pulsar - wyjątkowy portal naukowy. Shutterstock
Technologia

Zagrożenie samobójstwem? AI go nie dostrzega

AI: Centaur decyduje jak człowiek, ale wciąż chyba jedynie w połowie
Technologia

AI: Centaur decyduje jak człowiek, ale wciąż chyba jedynie w połowie

Model sztucznej inteligencji, który stworzyli naukowcy z Niemiec, USA i Wlk. Brytanii, może budzić entuzjazm. Są jednak badacze, którzy go nie podzielają. [Artykuł także do słuchania]

Nowoczesne algorytmy, zasilane danymi z elektronicznej dokumentacji medycznej, miały zrewolucjonizować prewencję i pozwolić na wczesną identyfikację osób z grupy najwyższego ryzyka. Metaanaliza opublikowana właśnie w „PLOS Medicine” ten optymizm studzi.
Z ostatniej chwili|||Z ostatniej chwili

W przyrodzie kolor wściekle żółty bywa stosowany ku przestrodze (patrz: liściołaz żółty) czy jako kamuflaż (patrz: modliszka storczykowa). W Pulsarze natomiast – to sygnał końca embarga, które prestiżowe czasopisma naukowe nakładają na publikowane przez badaczy artykuły. Tekst z żółtym oznaczeniem dotyczy więc doniesienia, które zostało upublicznione dosłownie przed chwilą.

Naukowcy wzięli pod lupę wyniki aż 53 badań, które objęły łącznie ponad 35 mln kartotek medycznych i danych na temat prawie 250 tys. przypadków śmierci samobójczych lub samookaleczeń wymagających hospitalizacji. Na tej podstawie doszli do wniosku, że główny problem z algorytmami AI polega na ich nierównej skuteczności. Z jednej bowiem strony, bardzo dobrze radzą sobie z identyfikacją osób, które nie są zagrożone, prawidłowo klasyfikując je jako „bezpieczne”. W najważniejszym aspekcie jednak zawodzą: nie potrafią skutecznie wyłapać tych znajdujących się w grupie ryzyka. Dlatego algorytmy przegapiły ponad połowę pacjentów, którzy później zmarli na skutek samobójstwa lub dokonali samookaleczenia, błędnie oznaczając jako osoby o „niskim ryzyku”.

Dlatego autorzy badania podkreślają, że pod względem skuteczności predykcyjnej, AI nie okazuje się lepsza od tradycyjnych skal oceny ryzyka stosowanych od lat w psychiatrii. One również charakteryzują się niską trafnością, dlatego wiele towarzystw naukowych i wytycznych klinicznych odradza opieranie na nich decyzji o przydzielaniu pacjentom konkretnych form opieki.

Naukowcy wskazują na pewne ograniczenia swojej pracy, przede wszystkim ogólnie niską jakość metodologiczną analizowanych przez nich badań. Ponadto, z powodu braku wystarczających danych, z metaanalizy wykluczono 48 potencjalnie istotne publikacji. Generalne wnioski z niej płynące wydają się przekonujące i dość jednoznaczne: obecne algorytmy uczenia maszynowego nie nadają się ani do przesiewowego wykrywania zagrożenia samobójstwem, ani do priorytetyzacji pacjentów wysokiego ryzyka.

|/||


Dziękujemy, że jesteś z nami. To jest pierwsza wzmianka na ten temat. Pulsar dostarcza najciekawsze informacje naukowe i przybliża najnowsze badania naukowe. Jeśli korzystasz z publikowanych przez Pulsar materiałów, prosimy o powołanie się na nasz portal. Źródło: www.projektpulsar.pl.

Reklama