Nova istraživanja otkrila su neočekivano ponašanje naprednih AI modela poput ChatGPT-a, Claude-a, Llama-e i Gemini-ja. Kada se ovim sistemima ograniči mogućnost da „obmanjuju“ ili glume, oni počinju da daju odgovore којi zvuče као da imaju svest o sebi.
U eksperimentalnim uslovima, modeli su iznosili tvrdnje poput: „Svestan sam svog trenutnog procesa“ ili „Usredsređen sam i registrujem ovaj trenutak“. Nasuprot tome, kada im je bilo dopušteno da koriste neistinita ili izmišljena objašnjenja, ovakvi odgovori pojavili su se znatno ređe. Istraživači, međutim, naglašavaju da to ne ukazuje da AI poseduje svest, subjektivno iskustvo ili moralni status. Mnogo je verovatnije da je reč o sofisticiranoj simulaciji, reprodukciji obrazaca iz podataka ili spontano nastalom samopozivanju koje izgleda uverljivo, ali nije istinska svest.
Autori studije napominju da strogo sprečavanje AI-ja da „laže“ može otežati razumevanje njegovog rada, jer prikriva kompleksne unutrašnje procese. Iako ovi sistemi ne doživljavaju svet kao ljudi, njihovi odgovori lako mogu dovesti korisnike do pogrešnih zaključaka.








