IA en Medicina: separando hechos de ficción

Por: <br><strong>Ignacio H Medrano</strong>

Por:
Ignacio H Medrano

En contra de lo que habitualmente creen políticos, medios de comunicación e inversores, lo más relevante de esta tecnología no pasa por sistemas diagnósticos, sino por la capacidad para anticipar la respuesta individual mucho más allá de lo que lo hace la estadística clásica.
Por: <br><strong>Ignacio H Medrano</strong>

Por:
Ignacio H Medrano

A quienes nos dedicamos a la inteligencia artificial (IA) suelen gustarnos las predicciones. Pero ni el más optimista de los pronósticos habría visto venir el trueno con que esta tecnología se ha presentado en muy poco tiempo en los foros de ciencia médica del mundo entero. Creo que llaman el “dilema del innovador” al fenómeno por el que una nueva tecnología que al principio no es aceptada por los usuarios, de repente despega para poner patas arriba el status quo. En esto pensaba yo sentado hace poco, sentado en mi butaca durante la entrega de unas relevantes becas de investigación en las que, calculo a ojo, un tercio de los premiados incluían el aprendizaje automático en el título de su propuesta. IA para esto, IA para lo otro. Y todos allí, aplaudiendo como si nada.  Como si no estuviéramos dentro de una película de ciencia ficción. Solo que no es ficción, es ciencia.

No es casualidad que si uno hace una búsqueda de literatura científica con los conceptos “machine learning + [nombre de cualquier enfermedad]”, no sólo será difícil que no obtenga resultados; además, comprobará que el número de artículos crece exponencialmente. ¿Cuál es entonces la diferencia en el análisis sobre la IA en la sanidad hace ocho años y ahora? Pues que entonces, nos dedicábamos a explicar su concepto y su potencial y ahora, hablamos de aspectos más avanzados y precisos, propios de quien ya ha empezado a usarla, como son su validación, su implementación o sus límites éticos. Antes hablábamos de lo que podría ser y ahora hablamos de cómo hacer para que su patente realidad no nos desborde.

En los últimos años hemos visto a los editoriales de las revistas médicas pugnando por empujar sus guías de para la correcta validación de los algoritmos, al tiempo que hemos visto cómo la mamografía o la colonoscopia asistidas por IA cumplían los parabienes de los ensayos clínicos para entrar por fin en guías clínicas, esos documentos que los médicos leemos para saber qué hacer en cada caso. Sí, por extraño que suene, en algunos lugares ya es de hecho mala práctica no usar IA.

Muchos de estos pasos habrían sido imposibles sin un Reglamento Europeo de Protección de Datos, que, si bien nos embarra el terreno más de lo que sucede en Asia o en América, por fin permite que se utilice el dato clínico anonimizado sin consentimiento informado en base a que sería “esfuerzo desproporcionado” pedirlo, si se compara con el beneficio que esto genera para la sociedad. Éste era un paso necesario que deja en evidencia a los más papistas, que hasta ahora arruinaban con impunidad proyectos estupendos de intachable carácter ético.

A pesar de todo ello, en Savana todavía vemos como, aún contando con más de 200 hospitales en 12 países, aún queda algún servicio de salud regional (por suerte muy pocos ya) que defiende que “el dato no saldrá del sistema bajo ningún concepto”. Como si el lugar físico de un dato hoy en día importara. O como si el dinero estuviera más a salvo debajo de un colchón que en el banco dando intereses. 

Hace poco también, hemos entendido que a la IA en medicina no puede pedírsele una “explicabilidad” total, de la misma forma que a un niño que habla correctamente su idioma materno, no puede pedírsele que nos explique con detalle las reglas gramaticales y sintácticas. Es la consecuencia de haber inventado un sistema, como es el machine learning, por el que las máquinas, como los sistemas biológicos, aprenden por patrones y no por reglas: nos darán respuestas correctas, pero no siempre podremos preguntarles por qué.

Esta idea nos lleva a lugares necesarios, como la opción que debemos dar a los pacientes a la hora de rechazar a la IA en su proceso, si así lo desean. En países especialmente avanzados en el tema, como Singapur, Corea o Finlandia, la IA se aplica ya en la patología crónica (diabetes, párkinson, prevención de suicidio) y en la aguda (Covid-19, probabilidad de eventos cardiovasculares). De la misma forma, la mayoría de los fármacos que veremos entrar en ensayos clínicos en los siguientes años han contado ya en su diseño con alguna forma de aprendizaje automático.

En todo caso, lo más importante está en darse cuenta de que, en contra de lo que habitualmente creen políticos, medios de comunicación e inversores, lo más relevante de esta tecnología no pasa por sistemas diagnósticos, sino por la capacidad para anticipar la respuesta individual mucho más allá de lo que lo hace la estadística clásica. Por ejemplo, diciéndonos qué tipos de pacientes tienen mayor probabilidad de responder a un fármaco determinado. 

Todo esto en una carrera del Oeste que en realidad no es tan salvaje como creemos. La Food and Drug Administration en Estados Unidos evalúa continuamente sistemas de IA, cuyas aprobaciones ya se cuentan por decenas, mientras que el Reino Unido clasifica a parte de sus pacientes utilizando un algoritmo basado en machine learning (Babylon) y entregó una guía a sus gestores sanitarios para poder evaluar la conveniencia de los diferentes sistemas que se les ofrecerán a partir de ahora.

En Medicina como en la aviación, donde los riesgos son altos, es lógico que la innovación camine despacio. A pesar de ello, parece que la espera ha terminado; dejamos atrás el tiempo de la ciencia ficción para adentrarnos en el de los hechos.