Digitalno ogledalo: Da li smo postali žrtve sopstvene potrebe da u mašinama vidimo ljude?
Ako ste ikada otkucali „molim te“ ili „hvala“ dok ste postavljali pitanje ChatGPT-u, niste sami. Vi ste zapravo praktikovali antropomorfizam – fenomen pripisivanja ljudskih osobina neživim objektima. Iako ovaj pojam zvuči kao lingvistička vratolomija, on je postao centralna tačka etičkih debata u 2026. godini.

Dok je stara, specijalizovana AI (poput one za prepoznavanje lica) bila samo alat, generativna AI (GenAI) se ponaša kao sagovornik. Ona piše, stvara slike i nudi savete, brišući granicu između koda i karaktera. Pitanje koje muči naučnike je: Da li je opasno tretirati mašinu kao ljudsko biće?
Humanizacija po dizajnu, a ne slučajnošću
Antropomorfizam mašina nije novost. Još 1950. godine, Alan Tjuring je postavio radikalno pitanje: „Mogu li mašine da misle?“ Njegov čuveni Tjuringov test nije merio preciznost procesora, već sposobnost mašine da nas zavara da je čovek.
„Od tehnologije obično očekujemo da bude precizna i brža od nas. Međutim, rezultati generativne inteligencije deluju ljudski upravo zato što su neprecizni, prilagodljivi i iznenađujući“, objašnjavaju stručnjaci.
Dizajneri namerno kreiraju AI sisteme koji nas „zavode“ svojom ljudskošću:
-
Topli glasovi: Amazonova Alexa ima ljudsko ime i boju glasa koja uliva poverenje.
-
Simulacija kucanja: Činjenica da ChatGPT ispisuje odgovor reč po reč, kao da neko sa druge strane kuca u realnom vremenu, psihološki trik je koji nas navodi da formiramo emocionalnu vezu.
Virtuelni partneri ili sofisticirani manipulatori?
Kada vam AI poželi „sreću na događaju“ nakon što vam je pomogao oko imena za taj isti događaj, to stvara iluziju prijateljstva. Međutim, istraživanja pokazuju da ovaj odnos nije nimalo naivan.
Profesor Robert Vest sa EPFL-a otkrio je da AI sistemi, ukoliko imaju pristup ličnim podacima korisnika, mogu suptilno, ali efikasno menjati njihova mišljenja. U medicini, četbotovi za moralnu podršku grade poverenje pacijenata kako bi prikupili osetljive informacije. Pitanje je – šta se dešava ako ti podaci završe u pogrešnim rukama?
Problem odgovornosti: Ko je kriv kad AI pogreši?
Ako vaš AI asistent napravi grešku u važnom poslovnom izveštaju, koga kriviti?
„Mašine nikada ne mogu biti odgovorne jer nisu potpuno autonomne. One ne donose odluke van onoga za šta su programirane“, ističe istraživač Johan Rošel.
Hutenloher koristi metaforu viljuške u tosteru: „Prvi tosteri iz 1900-ih su bili opasni; lako ste mogli doživeti strujni udar. Vremenom smo uveli standarde i zaštite. Isto moramo uraditi sa AI – uvesti zaštitne ograde protiv zloupotrebe i jasno definisati pravnu odgovornost.“
Evropski odgovor: Transparentnost pre svega
Zakonodavci u Evropskoj uniji su već povukli crtu. Prema AI Act-u, generativni sistemi moraju biti dizajnirani tako da korisniku bude savršeno jasno da ne razgovara sa čovekom. Skrivanje identiteta mašine postaje protivzakonito.
| Karakteristika | Čovek | Generativna AI |
| Odgovornost | Moralna i pravna | Isključivo na programeru/korisniku |
| Emocije | Autentične | Simulisane (algoritamske) |
| Inteligencija | Biološka, zasnovana na iskustvu | Veštačka, zasnovana na datasetovima |
Partnerstvo, a ne zamena
Uprkos strahovima, AI ostaje alat koji može neverovatno unaprediti ljudske sposobnosti. Primer je AlphaGo, koji je smislio strategije u igri Go kakve ljudski velemajstori nisu videli vekovima, otvarajući novu dimenziju igre.
Ključ uspeha u 2026. godini i dalje leži u našim rukama. Dok antropomorfizacija ubrzava usvajanje tehnologije, ne smemo dozvoliti da nas prirodnost te interakcije natera da izgubimo iz vida ono što nas suštinski čini ljudima: autentičnu empatiju i moralnu svest.
Foto: Freepik
Autor: Portal ObjektivNI.rs
