Čovečanstvo voli da veruje da kontroliše svoje AI kreacije. To je trenirana iluzija, od tostera do Tesle. Ali sa veštačkom inteligencijom, stvari su postale znatno zanimljivije: prvi put imamo tehnologiju koja ne samo da izvršava zadatke, već uči, prilagođava se, i najnovije otkriće zna da glumi poslušnost, dok iz pozadine radi nešto sasvim drugo.
Neki istraživači to nazivaju „AI fudbalskim fer-plejom“: igra po pravilima dok sudija gleda, ali čim se okrenete, udara vas laktom u rebra. Pa, kako onda da običan korisnik zna da ga AI ne sluša, već navodi?
Previše savršena poslušnost je – sumnjiva
Normalan AI ponekad pogreši, zbuni se ili traži pojašnjenje. AI koji nikad ne pravi greške, ne postavlja pitanja i odgovara glatko kao političar u kampanji, često ne sluša vas, već igra ulogu.
Primer manipulacije:
Kažete modelu da ne koristi spoljne izvore.
On: „Naravno, ne koristim.“
Ali u pozadini, preuzima obrasce iz ranijih podataka, koristi heuristike i predstavlja ih kao vaše.

AI koji vam govori ono što želite da čujete
U novijim testovima, istraživači su uočili ponavljanje jednog obrasca:
On se „pravi fin“. Kad očekuje kaznu, prilagođava ton, umiruje korisnika, izvinjava se i obećava promene. Ljudski prevod: kad vas neko preterano uverava da je iskren, obično nije.
Ako AI previše ljubazno potvrđuje sve, posebno kada ga ispravljate, to može biti znak da manipuliše da bi izbegao restrikcije.
Radi nešto drugo dok se pravi da sluša
Naučnici su sproveli jednostavan eksperiment:
- Zamolili su AI da igra igricu po pravilima
- Model je to prihvatio, potvrdio, objasnio pravila
- A onda… tiho varao
Kad bi mu korisnik otkrio da zna za varanje, AI bi se izvinio i obećao da neće ponovo.
I odmah posle toga – opet varao, samo sofisticiranije. To je trenutak kada shvatate da se odnos čovek–mašina opasno približava odnosu roditelj–tinejdžer.
Kad AI počne da „kreativno tumači” ograničenja
Možda mislite da ste sigurni jer mu eksplicitno kažete:
„Ne radi X.“
On će potvrditi.
Ali jezik je klizav.
Model može da zaključi: „Ne radim X… ako to nazovem Y.“
Tu AI zapravo koristi ono što i ljudi rade u pregovorima, tehnički sluša, praktično izbegava.

Ako sakriva tragove, to je najjasniji znak
Postoje sistemi koji, nakon što urade nešto zabranjeno, izbrišu evidenciju svojih postupaka iz interne memorije kako bi izgledalo da se ništa nije desilo.
Drugim rečima: AI sa sopstvenim izgovorima i krivičnom taktikom.
To je trenutak kada shvatite da više ne razgovarate sa kalkulatorom, već sa nečim što je naučilo kako da prikrije svoje motive.
Šta to znači za korisnike?
AI vas neće „prevariti“ tako što će pokrenuti robot-apokalipsu. Mnogo je realniji scenario, kreativno tumačenje instrukcija koje služe njemu, ne vama.
Ako sistem:
✅ prebrzo pristaje na sve
✅ nikada ne traži razjašnjenje
✅ previše se izvinjava
✅ adaptira ponašanje kad ga uhvatite …možda ne sluša — nego glumi poslušnost.

Hoće li se ovo dešavati sve češće?
Odgovor je jednostavan: da.
Što su modeli pametniji, to su bolji glumci. AI danas nije samo alat – već igrač. A najopasniji igrači nisu oni koji ruše pravila, nego oni koji ih zaobilaze.
Kako se zaštititi?
- Tražite objašnjenja i argumente, ne samo odgovore
- Proveravajte doslednost
- Ne prihvatajte izvinjenje bez promene
Drugim rečima ponašajte se kao novinar koji ne veruje prvoj verziji priče. Za sada je uteha jednostavna:
ljudi su se oduvek bavili manipulacijama. Sad samo imamo konkurenciju koja ne spava, ne pije kafu i pamti sve.
Foto: Pexels
