O investigație publicată la începutul lui ianuarie 2026 arată că funcția de rezumate automate a Google, afișată în partea superioară a rezultatelor de căutare, a generat informații medicale inexacte în situații sensibile, cu riscuri pentru sănătatea utilizatorilor. Anchetatorii au identificat exemple concrete: asistența automatizată a recomandat în mod eronat pacienților cu cancer pancreatic să evite alimente bogate în grăsimi, a oferit sfaturi de tratament nesusținute de consensul medical și a prezentat informații care pot conduce la întârzieri în diagnostic sau la decizii medicale periculoase. Raportul menționează că astfel de erori provin din sinteza automată a surselor și din limitările modelelor folosite pentru a rezuma conținutul medical complex. Experți citați în investigație avertizează că utilizatorii pot interpreta rezumatele ca recomandări medicale fiabile, iar aceasta poate amplifica riscul pentru pacienți vulnerabili. Compania proprietară a funcției a fost informată despre constatările investigației; răspunsurile oficiale includ promisiuni de îmbunătățire a sistemelor de verificare și a avertismentelor, dar ancheta semnalează că, la momentul publicării, funcția continuase să afișeze exemple problematice. Cronologia: ancheta a fost făcută publică pe 2 ianuarie 2026, iar investigațiile jurnalistice au adunat multiple cazuri documentate care ilustrează tiparele erorilor. Consecințele ridicate includ apeluri la reevaluarea modului în care sunt integrate rezumatele automate în rezultatele de căutare, solicitări pentru etichetare clară a conținutului generat de AI și recomandări ca informațiile medicale sensibile să fie tratate cu filtre suplimentare sau revizuire umană înainte de a fi afișate ca răspunsuri concise.