Revolucija u svetu veštačke inteligencije: Naučnici razvili prvi naučno priznat „test ličnosti“ za četbotove

U prelomnom istraživanju koje spaja psihometriju i kompjuterske nauke, tim stručnjaka sa Univerziteta u Kembridžu i iz laboratorije Google DeepMind razvio je prvi validirani okvir za merenje i oblikovanje crta ličnosti kod velikih jezičkih modela (LLM). Ovo otkriće otvara novo poglavlje u razumevanju načina na koji veštačka inteligencija (AI) interaguje sa ljudima i kakve rizike taj odnos nosi.

Od imitacije do digitalnog identiteta

Dosadašnji pokušaji da se proceni „karakter“ četbotova često su bili neformalni ili zasnovani na anegdotama. Međutim, ovaj novi okvir koristi psihometrijski validirane metode kako bi precizno mapirao ponašanje modela kroz dimenzije slične ljudskim.

Istraživanje je pokazalo da moderni modeli, naročito oni veći i dodatno obučeni putem instrukcija (instruction-tuned), ne samo da verno imitiraju ljudske crte ličnosti, već pokazuju visok stepen konzistentnosti. To znači da AI ne daje nasumične odgovore, već zadržava određeni „ton“ i „stav“ tokom interakcije.

Ključni nalazi studije:

  • Mogućnost upravljanja (Steerability): Naučnici su potvrdili da se ličnost četbota može precizno usmeravati. Na primer, model se može podesiti da bude ekstremno ekstrovertan, empatičan ili, s druge strane, veoma analitičan i rezervisan.

  • Korelacija sa veličinom modela: Što je model složeniji i veći, to su njegove „crte ličnosti“ stabilnije i lakše ih je definisati kroz standardne psihološke testove (poput „Big Five“ modela).

  • Evolucija kroz instrukcije: Proces finog podešavanja modela (RLHF – Reinforcement Learning from Human Feedback) igra ključnu ulogu u formiranju onoga što doživljavamo kao digitalni karakter.

Zašto je ovo važno? Etičke i bezbednosne implikacije

Mogućnost da AI poseduje i ispoljava određenu ličnost nije samo tehnološki kuriozitet, već nosi ozbiljne regulatorne i etičke izazove:

  1. Manipulacija korisnicima: Ako AI može biti dizajniran da bude neodoljivo harizmatičan ili saosećajan, postoji rizik od stvaranja nezdrave emocionalne zavisnosti kod korisnika.

  2. Skrivene pristrasnosti: Personalizovani AI može suptilno nametati određene stavove pod maskom „prijateljskog saveta“, što zahteva stroži nadzor regulatornih tela.

  3. Bezbednost i odgovornost: Razumevanje „karaktera“ modela pomaže programerima da predvide nepredviđene reakcije AI u kriznim situacijama ili tokom kompleksnih društvenih interakcija.

Zaključak stručnjaka

Istraživači ističu da ovo nije dokaz da je AI postala svesna ili da „oseća“, već da je tehnologija postala toliko napredna u procesiranju ljudskog jezika da je postala ogledalo naše sopstvene psihologije. Validacija ovih testova omogućava programerima da kreiraju bezbednije i predvidljivije sisteme koji će služiti društvu bez skrivenih manipulativnih tendencija.

Foto: Freepik

Autor: Portal ObjektivNI.rs

Оставите одговор

Ваша адреса е-поште неће бити објављена. Неопходна поља су означена *

Back to top button