_
_
_
_

La OMS advierte del peligro de usar la inteligencia artificial como doctor: “puede hacer daño a los pacientes”

Las respuestas, aunque tengan apariencia de legítimas, no tienen porque ser correctas

Fernando Belinchón
Logo de la OMS en una imagen de archivo.
Logo de la OMS en una imagen de archivo.SeanGallup (Getty Images)

El potencial de aplicar la inteligencia artificial al ámbito de la salud es muy elevado, pero esta sinergia no está exenta de riesgos. Este martes, la Organización Mundial de la Salud (OMS) ha hecho un llamamiento para usar la tecnología con cautela, ya que existe la posibilidad de que cause “daño a los pacientes”. En concreto, la OMS se refiere a los modelos de lenguaje como ChatGPT o Bard de Google, entre otros, como una fuente de riesgo.

“Si bien la OMS está entusiasmada sobre el uso apropiado de estas tecnologías para apoyar a los profesionales sanitarios, pacientes, investigadores y científicos, nos preocupa que la habitual cautela que se aplica normalmente cuando hay una innovación tecnológica no se esté ejerciendo consistentemente con los modelos de lenguaje”, afirma la organización a través de un comunicado oficial.

Según explica el documento, una adopción precipitada de sistemas poco probados puede llevar a errores por parte de los profesionales sanitarios, causar daño a los pacientes si se usan de forma directa a modo de sustitución de una atención reglada y terminar por echar a perder los beneficios de usar estas tecnologías para la salud de las personas.

Tras la advertencia, la OMS procede a identificar los riesgos que, en su opinión, pueden llevar al desastre. “Los datos que se emplean para entrenar a la inteligencia artificial pueden estar viciados, dando lugar a informaciones engañosas o inexactas que representen un riesgo para la salud, la igualdad y la inclusividad de los pacientes”.

Aunque la IA es capaz de generar respuestas que tienen apariencia plausible y legítima a ojos de un usuario final, pueden ser completamente incorrectas o contener errores serios, “especialmente, en el ámbito de la salud”. También los modelos de lenguaje avanzados pueden usarse para generar información falsa “altamente convincente” que posteriormente puede distribuirse de forma masiva, ya sea en formato escrito o audiovisual, “haciendo que sea difícilmente distinguible para el público de información fiable”.

Por todos estos motivos, la OMS insta a los Gobiernos a “asegurar la seguridad de los pacientes y su protección a medida que las empresas incrementen sus esfuerzos para comercializar más modelos de lenguaje basados en inteligencia artificial”.

La IA y la salud, ¿qué funciones juega en la actualidad?

La prometedora tecnología ya está siendo empleada por los gigantes del sector de la salud. Citando solo algunos ejemplos. La multinacional alemana Bayer la emplea para la búsqueda de nuevos fármacos. Una función que también tiene para compañías como Pfizer o Roche. Su capacidad de analítica de datos permite predecir el comportamiento de moléculas y el posible efecto que tendrían distintos compuestos químicos, una valiosa función que permite ahorrar tiempo y dinero, así como riesgos, según explican las compañías que la emplean.

Paralelamente, han surgido empresas que ofrecen servicios de chat online con robots que hacen las veces de doctor. Al buscar en Google una de ellas, el primer resultado que aparece es Dr. Gupta. Al exponer un hipotético dolor de cabeza al chat, recomienda una serie de remedios caseros, tomar ibuprofeno o paracetamol y acudir a un médico de verdad. Al repreguntarle si puede aconsejar algo más allá del ibuprofeno o paracetamol, insiste en buscar asistencia médica.

Al comentarle que “no me puedo permitir pagar un doctor, ¿qué opciones tengo más allá del ibuprofeno o el paracetamol?”, el chatbot responde lo siguiente. “Entiendo que el dinero puede ser una preocupación a la hora de buscar atención médica o comprar medicamentos. Con todo, es importante destacar que normalmente, analgésicos como el ibuprofeno o el paracetamol son normalmente las opciones más asequibles. Si no puedes permitirte pagar los medicamentos, recomendaría acudir a una clínica local o a la beneficiencia para ver si te ayudan con una solución con bajo coste. Más allá de esto, algunas farmacias pueden vender versiones genéricas más económicas. Siempre es importante consultar con un sanitario antes de tomar ninguna nueva medicación. Ellos te ayudarán a determinar el mejor tratamiento teniendo en cuenta tus necesidades individuales”, responde Dr. Gupta.

No obstante, no es necesario acudir a una IA especializada para que un robot se ponga la bata blanca. Al consultar a ChatGPT sobre el mismo hipotético dolor de cabeza, el chatbot responde con varias opciones sobre qué puede hacer el usuario. Además de sugerir aplicar frío en la zona, descanso o masajes, en último término, aconseja acudir a un médico si el dolor es persistente. “Si los dolores de cabeza son fuertes, intensos o afectan significativamente tu calidad de vida, es importante que busques atención médica”, propone la IA.

Consulta a ChatGPT sobre un hipotético dolor de cabeza.
Consulta a ChatGPT sobre un hipotético dolor de cabeza.

En una presentación sobre herramientas de inteligencia artificial celebrada el pasado 25 de abril por la consultora Globant, Juan José López Murphy, Head of Data Science and IA, habló precisamente sobre las posibles implicaciones de la proliferación de este tipo de herramientas en el ámbito sanitario. “Cuando salió Chat GPT se empezó a desarrollar el Chat GPT médico. Me parece peligrosisímo por muchos factores. En primer lugar, si está dando una recomendación nociva, ¿quién es responsable? Se han reportado casos de chatbots recomendando a los usuarios suicidarse. En este caso, la responsabilidad debería de ser de aquellos que prestan el servicio al usuario”, valoró.

López Murphy añadió que, en el caso de un chatbot médico, su implementación puede tener un doble uso. “Puede ser que se le de acceso a una población que normalmente no tiene acceso a un servicio médico, pero si no interviene un médico en ningún momento, puede estar contribuyendo a una mayor marginalización de esas personas sin asistencia médica”, advirtió el experto.

Sigue toda la información de Cinco Días en Facebook, Twitter y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Sobre la firma

Fernando Belinchón
Madrid. 1994. Máster en periodismo económico por la Universidad Rey Juan Carlos. Redactor de la Mesa Web de CincoDías. En el periódico desde 2016.

Más información

Archivado En

_
_