OpenAI a publicat un avertisment în care recunoaşte că browserele bazate pe inteligenţă artificială — inclusiv implementări agentice precum Atlas — rămân expuse atacurilor de tip prompt injection şi altor forme de manipulare prin pagini web sau e‑mailuri. Compania compară aceste ameninţări cu fraudele şi ingineria socială tradiţională de pe internet şi afirmă că astfel de riscuri „probabil nu vor fi rezolvate în totalitate”. În postarea oficială pe blog, OpenAI menţionează că funcţii agentice precum „agent mode” pot fi manipulate să execute instrucţiuni maliţioase ascunse în conţinut extern, iar protecţiile existente nu elimină complet posibilitatea ca agenţii AI să fie înşelaţi. Deşi se lucrează la mecanisme avansate de apărare şi la îmbunătăţirea robustetii modelelor, compania recomandă prudenţă utilizatorilor şi dezvoltatorilor, subliniind necesitatea unei supravegheri continue, filtrării surselor şi limitării accesului necontrolat la resurse externe. Avertismentul apare în contextul dezvoltării rapide a browserelor AI şi a extinderii capabilităţilor agentice, ceea ce creşte preocupările privind fraudele, scurgerile de date şi manipularea comportamentului automatizat al instrumentelor bazate pe inteligenţă artificială.