Cómo evitar que la inteligencia artificial falle más con las mujeres en los diagnósticos médicos | Tecnología

Cómo evitar que la inteligencia artificial falle más con las mujeres en los diagnósticos médicos | Tecnología

Aburrida en un hospital de Nueva Jersey, Diane Camacho le contó a ChatGPT los síntomas que sufría, y le pidió que hiciera una lista con los posibles diagnósticos médicos. Tenía dificultad para respirar, dolor en el pecho, y la sensación de que su corazón “se paraba y arrancaba”. El chatbot de OpenAI le dijo que la ansiedad era el diagnóstico más probable. Camacho pidió de nuevo el pronóstico para un hombre con los mismos síntomas, con la sorpresa de que la inteligencia artificial le advirtió de la posibilidad de que sufriera embolia pulmonar, un síndrome coronario agudo o una cardiomiopatía, pero ni rastro de la ansiedad. Así lo publicó Camacho hace unas semanas en la red X (antes Twitter).

La inteligencia artificial generativa, como ChatGPT, combina grandes cantidades de datos con algoritmos y toma decisiones a través de un aprendizaje automático. Si los datos son incompletos o no representativos, los algoritmos pueden ser sesgados. Al hacer muestreos, los algoritmos pueden caer en errores sistemáticos y seleccionar unas respuestas frente a otras. Frente a estos problemas, la ley europea de inteligencia artificial aprobada el pasado mes de diciembre prioriza que la herramienta se desarrolle con criterios éticos, transparentes y libre de sesgos.

Los dispositivos médicos, según la norma, son considerados de alto riesgo y deberán cumplir con requisitos estrictos: tener datos de alta calidad, registrar su actividad, tener una documentación detallada del sistema, dar información clara al usuario, contar con medidas de supervisión humana y con un alto nivel de robustez, seguridad y precisión, según explica la Comisión Europea.

La startup de Pol Solà de los Santos, presidente de Vincer.Ai, se encarga de auditar a las compañías para que puedan cumplir con las condiciones europeas. “Lo hacemos a través de un sistema de gestión de calidad de algoritmos, modelos y sistemas de inteligencia artificial. Se hace un diagnóstico del modelo de lenguaje, y lo primero es ver si hay un daño y cómo lo corregimos”. Además, si una compañía cuenta con un modelo sesgado, les recomienda que se advierta con un descargo de responsabilidad. “Si quisiéramos distribuir un fármaco no apto para niños de 7 años, sería impensable no avisar”, ilustra Solà de los Santos.

En el entorno de la salud, las herramientas de inteligencia artificial (IA) empiezan a ser habituales en pruebas de diagnóstico por imagen y en programación. Ayudan a los trabajadores sanitarios a acelerar el trabajo y a ser más precisos. En radiología son “sistemas de ayuda”, indica Josep Munuera, director de Radiodiagnóstico del Hospital Sant Pau de Barcelona y experto en tecnologías digitales aplicadas a la salud. “Los algoritmos están dentro de aparatos de resonancia magnética y reducen el tiempo de obtención de la imagen”, explica Munuera. Así, una resonancia que duraría 20 minutos se puede acortar a tan solo siete minutos, gracias a la introducción de algoritmos.

Los sesgos pueden generar diferencias en la atención médica según el género, el grupo étnico o el demográfico. Un ejemplo se da en las radiografías de tórax, según explica Luis Herrera, arquitecto de soluciones en Databricks España: “Los algoritmos utilizados han mostrado diferencias en la precisión según el género, lo que ha llevado a diferencias en la atención. En concreto, la precisión en el diagnóstico a mujeres era mucho menor”. El sesgo de género, señala Munuera, es un clásico: “Tiene que ver con los sesgos poblacionales y las base de datos. Los algoritmos se alimentan o preguntan a bases de datos, y si las bases de datos históricas tienen sesgos de género, la respuesta será sesgada”. Sin embargo, añade: “El sesgo de género en salud existe, independientemente de la inteligencia artificial”.

Cómo evitar los sesgos

¿Cómo se entrena de nuevo la base de datos para evitar los sesgos? Arnau Valls, ingeniero coordinador del departamento de Innovación del Hospital Sant Joan de Deu en Barcelona, explica cómo se hizo en un caso de detección de covid en Europa, mediante un algoritmo desarrollado con población china: “El acierto del algoritmo cayó un 20% y aparecieron falsos positivos. Se tuvo que crear una base de datos nueva y se añadieron imágenes de población europea en el algoritmo”.

Para enfrentarnos a un modelo sesgado como usuarios, debemos ser capaces de contrastar las respuestas que nos da la herramienta, indica Herrera: “Debemos fomentar la conciencia sobre los sesgos en IA y promover el uso del pensamiento crítico, así como exigir transparencia a las empresas y validar las fuentes”.

Los expertos coinciden en no utilizar ChatGPT con una finalidad médica. Pero José Ibeas, director del grupo de Nefrología del Instituto de Investigación e innovación del Hospital Universitario Parc Taulí de Sabadell (Barcelona), sugiere que la herramienta evolucionaría positivamente si el chatbot pregunta a bases de datos médicas. “Se está empezando a trabajar en ello. La forma de hacerlo es entrenar la base de datos de los pacientes con el sistema de OpenAI utilizando algoritmos e ingenieros propios. De este modo, se protege la privacidad de los datos”, explica Ibeas.

La tecnología de ChatGPT sí es útil en el entorno médico en ciertos casos, reconoce Ibeas: “La capacidad que tiene de generar estructuras, anatómicas o matemáticas, es total. El entrenamiento que tiene en estructuras moleculares es buenísimo. Ahí realmente se inventa poco”. Coincidiento con el resto de expertos, Ibeas advierte que la inteligencia artificial nunca sustituirá a un médico, pero puntualiza: “El médico que no sepa de inteligencia artificial será reemplazado por el que sí sepa”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_

By Jose Pablo Cano

Entradas similares