Veliki preokret u svetu veštačke inteligencije: Anthropic će koristiti vaše podatke za obuku AI modela – šta to znači za vas?
U digitalnom dobu koje se ubrzano razvija, veštačka inteligencija je od futurističkog koncepta postala deo naše svakodnevice. Alati kao što su ChatGPT, Google Gemini i Claude postali su nezamenljivi asistenti milionima ljudi, uključujući i korisnike u Srbiji, za pisanje, programiranje, učenje i kreativno izražavanje. Međutim, dok uživamo u njihovim neverovatnim sposobnostima, jedno ključno pitanje sve više dolazi u fokus: čime se ovi moćni modeli „hrane“ i da li naša privatnost postaje cena napretka?
Kompanija Anthropic, jedan od lidera u AI industriji i tvorac popularnog modela Claude, donela je stratešku odluku koja je uzburkala javnost i ponovo pokrenula debatu o privatnosti podataka. U tihoj, ali značajnoj izmeni svoje politike korišćenja, Anthropic je najavio da će ubuduće moći da koristi sadržaj razgovora svojih besplatnih korisnika za obuku budućih verzija svojih AI modela. Iako ova odluka postavlja važna pitanja, kompanija je ostavila „izlazna vrata“ – mogućnost da korisnici zabrane upotrebu svojih podataka.
Šta se tačno promenilo u politici kompanije Anthropic?
Do sada, Anthropic se ponosio politikom koja je snažno štitila privatnost korisnika, eksplicitno navodeći da se razgovori sa njihovim javno dostupnim čet-botom (na adresi claude.ai) neće koristiti za treniranje modela. To je bila jedna od ključnih tačaka koja ih je razlikovala od nekih konkurenata i privlačila korisnike kojima je privatnost na prvom mestu.
Nova politika, međutim, menja pravila igre. Prema ažuriranim uslovima, Anthropic sada zadržava pravo da koristi vaše unose i razgovore kako bi unapredio svoje sisteme. Važno je naglasiti nekoliko ključnih stvari:
- Odnosi se na besplatne korisnike: Ova promena se odnosi isključivo na interakcije sa besplatnim, javno dostupnim AI asistentom. Podaci poslovnih korisnika koji koriste Claude putem API-ja (interfejsa za programiranje aplikacija) i dalje su zaštićeni i neće se koristiti za obuku.
- Podrazumevano uključeno (Opt-in by default): Najvažnija promena je ta što je ova opcija automatski uključena za sve korisnike. Ukoliko ne preduzmete korake da se isključite, vaši podaci mogu biti deo trenažnog procesa.
- Postoji mogućnost isključivanja (Opt-out): Srećom, Anthropic je omogućio korisnicima da relativno jednostavno zabrane korišćenje svojih podataka, poštujući tako pravo korisnika na izbor.
Zašto je kompanijama potrebna ova vrsta podataka?
Da bismo razumeli zašto se AI kompanije odlučuju na ovaj korak, moramo zaviriti „ispod haube“ veštačke inteligencije. AI modeli, poput ljudi, uče na osnovu primera. Što više kvalitetnih i raznovrsnih podataka imaju na raspolaganju, to postaju pametniji, precizniji i sigurniji.
Realni, svakodnevni razgovori koje ljudi vode sa AI asistentima su neprocenjiv resurs. Oni pomažu developerima da:
- Poboljšaju tačnost i relevantnost: AI uči kako da bolje razume kontekst, nijanse u jeziku i namere korisnika.
- Smanje pristrasnost: Analizom širokog spektra interakcija, kompanije mogu da identifikuju i isprave neželjene pristrasnosti u odgovorima modela.
- Povećaju bezbednost: Korisnici često testiraju granice AI sistema. Njihovi unosi pomažu kompanijama da „zakrpe rupe“ i spreče zloupotrebu, generisanje štetnog sadržaja ili dezinformacija.
Ovaj proces, poznat kao „učenje na osnovu povratnih informacija od ljudi“ (Reinforcement Learning from Human Feedback – RLHF), ključan je za evoluciju AI tehnologije.
Kako da zaštitite svoju privatnost: Vodič za isključivanje (Opt-Out)
Ako niste saglasni sa tim da se vaši razgovori koriste za obuku, Anthropic vam omogućava da to sprečite. Proces je sledeći:
- Prijavite se na svoj Claude.ai nalog.
- U gornjem desnom uglu kliknite na svoje inicijale ili profilnu sliku.
- Iz padajućeg menija izaberite Podešavanja (Settings).
- U okviru podešavanja, pronađite sekciju Privatnost podataka (Data Privacy).
- Pronaći ćete opciju pod nazivom „Chat History Training“ (Obuka na osnovu istorije razgovora) ili slično. Isključite ovu opciju.
Jednom kada ovo uradite, vaši budući razgovori neće biti korišćeni u trenažne svrhe.
Šira slika: Kako stoje konkurenti i šta kaže zakon u Evropi?
Odluka kompanije Anthropic nije presedan, već se uklapa u širi trend u industriji.
- OpenAI (ChatGPT): Ima veoma sličnu politiku. Podrazumevano koristi podatke korisnika za obuku, ali takođe nudi jasnu opciju za isključivanje (opt-out).
- Google (Gemini): Google ima nešto drugačiji pristup. Za standardne korisničke naloge, razgovori sa Gemini asistentom se podrazumevano ne koriste za obuku modela. Iako ljudski recenzenti mogu pregledati anonimizovane delove razgovora radi kontrole kvaliteta, to je odvojen proces od automatskog treniranja.
Za korisnike u Srbiji i ostatku Evrope, ova tema ima i pravnu dimenziju. Opšta uredba o zaštiti podataka o ličnosti (GDPR) nalaže da kompanije moraju imati pravni osnov za obradu podataka. Iako se kompanije često pozivaju na „legitimni interes“ za poboljšanje svojih usluga, GDPR takođe garantuje korisnicima snažna prava, uključujući i pravo na prigovor (right to object) na obradu podataka. Upravo je ovo pravo temelj na kojem počiva mogućnost isključivanja (opt-out) koju ove kompanije nude evropskim korisnicima.
Balans između inovacija i privatnosti
Potez kompanije Anthropic je jasan pokazatelj da trka za naprednijom veštačkom inteligencijom zahteva ogromne količine podataka. Dok kompanije teže da stvore savršenije alate, teret odgovornosti se sve više prebacuje na korisnike. U digitalnom svetu, postalo je neophodno da budemo informisani, da čitamo uslove korišćenja i da aktivno upravljamo svojim podešavanjima privatnosti.
Dobra vest je da, za sada, izbor i dalje postoji. Mogućnost da jednim klikom zabranite korišćenje vaših podataka je moćan alat koji svako od nas treba da iskoristi ukoliko ceni svoju privatnost. Debata o balansu između tehnološkog napretka i individualnih prava tek je počela, a odluke velikih igrača poput Anthropic-a samo naglašavaju koliko je važno da ostanemo budni i informisani građani digitalnog doba.
Izvor: Uzivo24.com