Investigadores de Mount Sinai advierten de que modelos como ChatGPT-4o, Llama o Gemma dan por válidas afirmaciones falsas sobre salud el 32% de las veces. El estudio publicado en ‘The Lancet Digital Health’ revela que la IA es vulnerable a bulos médicos de internet.