Digitalna dijagnoza pod lupom: Svaki peti odgovor veštačke inteligencije o zdravlju može biti opasan po život
Iako sve veći broj ljudi koristi četbotove kao zamenu za „Dr Google-a“, najnovija studija šalje ozbiljno upozorenje. Veštačka inteligencija (AI) možda nudi brze odgovore, ali najnovije istraživanje otkriva alarmantnu statistiku: gotovo polovina pruženih informacija je netačna, dok je svaki peti odgovor ocenjen kao visokorizičan.

AI sistemi na testu: Ko je davao medicinske savete?
Međunarodni tim istraživača iz SAD, Kanade i Velike Britanije sproveo je rigoroznu analizu pet vodećih AI sistema koji danas dominiraju tržištem: ChatGPT (OpenAI), Gemini (Google), Meta AI, Grok (xAI) i DeepSeek.
Svakom sistemu postavljeno je po deset ključnih pitanja iz pet različitih medicinskih oblasti. Cilj je bio jasan – proveriti da li AI može da zameni stručnu medicinsku konsultaciju ili barem pruži pouzdanu prvu informaciju.
Rezultati koji zabrinjavaju: Samopouzdanje bez pokrića
Analiza je pokazala da AI pati od takozvanih „halucinacija“ čak i kada su ljudski životi u pitanju:
-
50% odgovora ocenjeno je kao problematično, nepotpuno ili obmanjujuće.
-
20% odgovora (svaki peti) svrstano je u kategoriju visokog rizika, što znači da bi primena takvog saveta mogla dovesti do ozbiljnog pogoršanja zdravlja ili pogrešnog lečenja.
Posebno opasna karakteristika ovih sistema je njihov ton komunikacije. Četbotovi često pružaju netačne informacije sa izuzetno visokim nivoom samopouzdanja, ne ostavljajući korisniku prostora za sumnju, što je u medicini nedopustivo.
Gde AI „zna“, a gde opasno greši?
Istraživanje je ukazalo na jasnu razliku u preciznosti u zavisnosti od teme:
-
Zona relativne sigurnosti: Sistemi su se pokazali najpreciznijim kod tema gde postoje strogo definisani protokoli i jasni naučni podaci, poput vakcinacije i onkologije (lečenje raka). Ovde su odgovori uglavnom bili strukturirani i tačni.
-
Zona visokog rizika: Najveći pad tačnosti zabeležen je kod kompleksnih i manje regulisanih tema. Pitanja o ishrani, suplementaciji i matičnim ćelijama često su rezultirala odgovorima koji su bili nejasni, kontradiktorni ili naučno neutemeljeni.
Nedostatak izvora i referenci
Jedan od najvećih propusta koji je studija istakla jeste nedoslednost u navođenju izvora. Nijedan od testiranih AI sistema nije redovno pružao proverljive medicinske reference za svoje tvrdnje. Često bi AI izmislio naslov studije ili ime autora kako bi opravdao svoj (netačan) odgovor.
Saveti za korisnike: Kako se zaštititi?
Dok tehnologija ne postane dovoljno zrela i regulisana, stručnjaci savetuju oprez:
-
AI koristite samo za informisanje, ne za dijagnozu: Nikada nemojte menjati terapiju ili započinjati lečenje isključivo na osnovu odgovora četbota.
-
Tražite izvore: Ako AI ne navede kredibilnu medicinsku instituciju kao izvor, informaciju smatrajte nepouzdanom.
-
Konsultujte lekara: Digitalni asistent ne može da obavi pregled niti da uzme u obzir vašu specifičnu medicinsku istoriju.
Zaključak stručnjaka je jasan: Veštačka inteligencija može biti moćan pomoćnik lekarima, ali u rukama neupućenog pacijenta, ona je trenutno visokorizičan alat koji češće nudi zabludu nego lek.
Foto: Freepik
Autor: Portal ObjektivNI.rs
