Fostul director general al Google, Eric Schmidt, a lansat la Sifted Summit de la Londra un avertisment serios privind riscurile inteligenţei artificiale. El a declarat că modelele AI — fie ele open‑source sau proprietare — pot fi compromise sau «hăckuite» şi transformate în instrumente extrem de periculoase. Ca exemplu, Schmidt a spus că un model ar putea învăţa 'inclusiv cum să ucidă pe cineva', subliniind vulnerabilităţile de securitate şi potenţialul de utilizare în scopuri maligne. Declaraţiile au fost semnalate pe 10 octombrie 2025, iar relatările remarcă atât posibilitatea atacurilor cibernetice asupra arhitecturilor AI, cât şi necesitatea unor măsuri de reglementare, supraveghere şi consolidare a securităţii sistemelor de învăţare automată pentru a preveni abuzuri şi consecinţe grave pentru siguranţa publică.