Digitalni terapeut ili samo algoritam? Gde prestaje moć veštačke inteligencije, a počinje ljudska duša
Svet se suočava sa nezabeleženom krizom mentalnog zdravlja. Liste čekanja kod licenciranih psihoterapeuta su sve duže, a pritisak na zdravstvene sisteme raste. U tom vakuumu, „četbotovi“ zasnovani na veštačkoj inteligenciji (AI) reklamiraju se kao spasonosno, uvek dostupno i jeftino rešenje. Ipak, stručnjaci upozoravaju: AI može biti odličan sekretar, ali je opasan zamenski terapeut.

Iako tehnologija napreduje svetlosnom brzinom, suština terapije ostaje duboko ljudska. Pitanje koje se postavlja nije samo tehničko, već fundamentalno etičko: Može li algoritam zaista da oseti empatiju?
Empatija se ne može programirati
Tradicionalne govorne i bihejvioralne terapije ne oslanjaju se samo na razmenu informacija. One počivaju na terapijskom savezu – specifičnoj vezi između dvoje ljudi. Istraživanja (Nadarzynski et al, 2019) potvrđuju da su za uspeh lečenja neophodni ljudski kvaliteti: etičko rasuđivanje, intuicija i sposobnost razumevanja kompleksnih emocija koje prevazilaze binarne kodove.
AI tehnologije, koliko god delovale uverljivo, ne poseduju nijedan od ovih kvaliteta. One simuliraju razumevanje na osnovu statističke verovatnoće reči, ali nemaju svest o težini ljudske patnje. Dok neka istraživanja (Liu et al, 2022) pokazuju da AI može biti korisna kod samopomoći u bihejvioralnim okvirima, ona ostaje samo bleda senka u poređenju sa radom obučenog stručnjaka.
Opasnost od „depersonalizacije“ i otuđenja
Paradoksalno, u svetu u kojem smo povezani 24/7, osećamo se usamljenije nego ikada. Zamena autentičnog ljudskog kontakta algoritmom može pogoršati ovaj trend. Pacijent koji se poverava mašini rizikuje da se oseti dodatno otuđenim kada shvati da sa druge strane nema nikoga ko ga zaista „čuje“.
Osim toga, tu je i pitanje privatnosti. Tradicionalna terapija se odvija iza zatvorenih vrata, dok četbotovi po svojoj prirodi zahtevaju pisani zapis. Svaki „razgovor“ postaje podatak na serveru, podložan curenju ili zloupotrebi, što može nepovratno narušiti poverenje pacijenta.
Pravni i bezbednosni vakuum: Ko je odgovoran?
Najveći rizik nastaje u kriznim situacijama. Ko je odgovoran ako četbot pogrešno postavi dijagnozu ili ne prepozna suptilne znake suicidalne namere?
-
Problem iskrenosti: Ako pacijent zna da će ga četbot „prijaviti“ sistemu čim detektuje rizik, može postati manje iskren, što vodi ka katastrofalnim ishodima.
-
Etičke dileme: Čak i najiskusniji terapeuti imaju poteškoća sa slučajevima gde klijent trpi nasilje od strane trećih lica. Programirati AI da adekvatno i bezbedno reaguje u takvim scenarijima trenutno je nemoguća misija.
Prava uloga AI: Savršen asistent, loš kliničar
Ipak, bilo bi pogrešno potpuno odbaciti veštačku inteligenciju. Ona ima ogroman potencijal u administrativnom rasterećenju zdravstva:
-
Organizacija: Zakazivanje termina i popunjavanje početnih formulara.
-
Trijaža: Upućivanje pacijenata na odgovarajuće službe na osnovu simptoma.
-
Podrška nakon otpusta: Podsećanje na lekove i praćenje pridržavanja plana lečenja (Hennemann et al, 2018).
Ovi zadaci, koji ne zahtevaju kliničku intervenciju, mogu značajno smanjiti stopu relapsa i rasteretiti lekare da se fokusiraju na ono što jedino oni mogu – ljudski kontakt.
Zaključak: Granica koja se ne sme preći
Veštačka inteligencija treba da podrži, a ne da zameni čoveka. Očuvanje jasne granice između administrativne pogodnosti i kliničke efikasnosti ključno je za zaštitu pacijenata. Srce terapije je ljudska veza; ako to izgubimo u trci za tehnološkim napretkom, izgubićemo i samu svrhu lečenja.
Tema veštačke inteligencije u terapiji otvara neka od najfascinantnijih pitanja moderne nauke, gde se sukobljavaju čista matematika i ljudska nepredvidivost.
Evo još nekoliko specifičnih i manje poznatih podataka koji dodatno osvetljavaju ovu kompleksnu vezu:
1. Fenomen „Veštačke empatije“ (Simulacija i osećaj)
Istraživanja pokazuju da ljudi često ocenjuju AI odgovore kao „toplije“ i „saosećajnije“ od odgovora pravih lekara u pismenoj komunikaciji. Zašto? Zato što AI nikada nije umoran, nije imao loš dan i programiran je da koristi savršenu gramatiku i ljubazne fraze. Međutim, to je sintetička empatija.
-
Problem: Dok lekar oseća težinu vaših reči, AI samo predviđa koja reč statistički najčešće sledi nakon reči „tužan sam“. To stvara privid podrške koji može „puknuti“ čim korisnik postavi pitanje koje zahteva stvarno životno iskustvo.
2. „Efekt Elajza“ (Eliza Effect)
Ovaj fenomen je dobio ime po prvom četbotu iz 1960-ih. Ljudi imaju urođenu tendenciju da kompjuterima pripisuju ljudske osobine, misli i osećanja.
-
Rizik u terapiji: Pacijenti se mogu emocionalno vezati za softver, verujući da ih „on“ razume. Kada algoritam napravi logičku grešku ili da besmislen odgovor, to može izazvati duboko razočaranje i osećaj odbačenosti kod već ranjivih osoba.
3. Kulturološka slepila algoritama
Većina AI modela je trenirana na podacima sa zapadnog engleskog govornog područja
-
Posledica: AI često ne razume specifične kulturološke nijanse tuge, porodičnih odnosa ili metafora koje se koriste u Srbiji ili na Balkanu. Ono što algoritam interpretira kao „anksioznost“, u našoj kulturi može biti potpuno normalna reakcija na specifičan društveni kontekst.
4. Halucinacije i „Gaslighting“
AI modeli ponekad „haluciniraju“ – izmišljaju činjenice koje zvuče neverovatno uverljivo. U kontekstu mentalnog zdravlja, ovo je izuzetno opasno.
-
Primer: Postoje zabeleženi slučajevi gde su četbotovi, u pokušaju da budu „podržavajući“, nenamerno potvrđivali sumanute ideje pacijenata sa psihozom ili čak sugerisali opasne radnje jer su pogrešno interpretirali korisnikov sarkazam ili metaforu.
5. Ekonomski pritisak na „Digitalnu medicinu“
Postoji opravdan strah da će osiguravajuće kuće i državni sistemi, u želji da uštede, forsirati AI terapiju kao „standardnu“ za siromašnije slojeve stanovništva, dok će rad sa pravim terapeutom postati luksuz dostupan samo bogatima. To bi stvorilo digitalni jaz u mentalnom zdravlju.
6. Pozitivan primer: AI kao „Supervizor“
Jedan od najzanimljivijih podataka je da AI može pomoći terapeutima da budu bolji. Postoje programi koji analiziraju snimke terapijskih sesija (uz pristanak) i ukazuju terapeutu na trenutke kada je pacijent promenio boju glasa ili kada je terapeut propustio da reaguje na važan neverbalni znak. Ovde AI ne menja čoveka, već mu daje „super-moć“ zapažanja.
Foto: Freepik
Autor: Portal ObjektivNI.rs
