ChatGPT ofrece recomendaciones peligrosas para tratar el cáncer

Un estudio de Harvard revela que el chatbot de OpenAI da recomendaciones erróneas y peligrosas sobre tratamientos contra el cáncer.

El famoso chatbot de inteligencia artificial (IA) “ChatGPT”, puede resultar en una herramienta de gran utilidad, pero definitivamente no para elaborar tratamientos médicos. Así lo ha demostrado un estudio hecho por la Escuela de Medicina de Harvard, que ha revelado errores graves en las recomendaciones de tratamiento contra el cáncer que daba el chatbot de OpenAI.

El estudio, publicado por la revista JAMA Oncology, encontró que el chatbot podía dar algunas sugerencias correctas de acuerdo con los lineamientos de tratamientos contra el cáncer, pero estas se mezclaban con otras inapropiadas o incluso peligrosas. Esto es tal vez lo más preocupante, ya que puede ser difícil distinguir una recomendación correcta de una incorrecta.

El chatbot mezcla información correcta e incorrecta

“ChatGPT habla en algunas ocasiones de una manera que refleja seguridad y que parece tener sentido. La manera en la que mezcla información correcta e incorrecta es potencialmente dañina”, explicó Danielle Bitterman, una oncóloga especializada en el estudio de la IA y su potencial aplicación en la medicina.

“Es difícil, incluso para un experto, identificar una recomendación incorrecta”, recalcó.

El estudio se basó en una serie de preguntas sobre casos clínicos de cáncer que se le hicieron al chatbot, y se compararon sus respuestas con las guías clínicas establecidas. Los resultados mostraron que el chatbot podía dar al menos una recomendación acertada en el 68% de los casos, pero también daba sugerencias incorrectas en el 32% de los casos.

Además, un 12% de las respuestas del chatbot tenían “alucinaciones”, es decir, información falsa o inventada que no tenía nada que ver con el caso clínico. Este es un problema latente en la IA, que a veces genera contenido sin sentido o irrelevante.

ChatGPT da recomendaciones peligrosas para el tratamiento del cáncer, según estudio de Harvard. 

El chatbot no es un médico ni un asistente médico

Para Bitterman, igual sigue siendo impresionante que ChatGPT pueda dar algunas buenas recomendaciones, considerando que no tiene ningún conocimiento médico específico. “Pareciera que ChatGPT estudió Medicina, pero no hizo su residencia”, bromeó.

Sin embargo, la investigadora advirtió que este tipo de chatbots no deben usarse para fines médicos, ya que pueden poner en riesgo la salud de los pacientes. “ChatGPT no es un médico, ni siquiera un asistente médico. Es solo un programa informático que intenta imitar el lenguaje humano, pero sin entender lo que dice”, concluyó.

Te puede interesar: La peligrosa razón por la que NO deberías tener ChatGPT en WhatsApp

Noticias Relacionadas

TE PUEDE INTERESAR

MÁS NOTICIAS

MÁS NOTICIAS