Un estudio de Oxford advirtió sobre los riesgos de usar ChatGPT para buscar consejos médicos
La investigación, publicada en Nature, incluyó un ensayo aleatorio con casi 1300 participantes.
:format(webp):quality(40)/https://cdn.eleco.com.ar/media/2026/02/medicos.jpg)
La inteligencia artificial atraviesa toda la vida, pero parecería que no es buena consejera en todos los ámbitos. Uno de estos espacios es el de la salud, lugar donde está despertando polémica, luego de que un estudio realizado por la Universidad de Oxford y publicado en la revista científica Nature Medicine develara lo que todos sospechan: la IA no está lista para suplantar el trabajo del médico.
Recibí las noticias en tu email
Accedé a las últimas noticias desde tu emailEl estudio revela una importante brecha entre la promesa de los grandes modelos lingüísticos (LLM) y su utilidad para quienes buscan consejo médico. Dirigido por el Oxford Internet Institute y el Departamento Nuffield de Ciencias de la Salud de Atención Primaria de la Universidad de Oxford, y realizado en colaboración con MLCommons y otras instituciones, explica que si bien los modelos de IA hoy destacan a la hora de hacer pruebas estandarizadas de conocimiento médicos, pueden generar riesgos en usuarios reales que consultan por sus propios síntomas médicos; en otras palabras, es posible que brinden diagnósticos erróneos y que no sepan reconocer cuándo se necesita ayuda urgente.
En el estudio, los participantes utilizaron una inteligencia artificial para identificar posibles problemas de salud y decidir qué hacer a partir de eso (desde consultar a un médico de cabecera, ir al hospital, entre otros). ¿El resultado? “Quienes utilizaban LLM no tomaban mejores decisiones que los participantes que recurrían a métodos tradicionales, como búsquedas en línea o su propio criterio”, explican desde la Universidad de Oxford.
