Prof. Tsirigos Google AI | NYU University

Javier Collado

Dobuss

CBN. Durante décadas, los médicos han confiado en los ojos bien entrenados de los patólogos humanos para darles a sus pacientes un diagnóstico de cáncer. Ahora, los investigadores están desarrollando y programando máquinas para hacer ese trabajo que requiere mucho tiempo en tan solo unos pocos segundos.

En una nueva investigación publicada hoy en Nature Medicine, científicos de la Universidad de Nueva York volvieron a programar un algoritmo Google de aprendizaje profundo para distinguir entre dos de los tipos más comunes de cáncer de pulmón con un 97 por ciento de precisión. Este tipo de inteligencia artificial (IA), la misma tecnología que identifica rostros, animales y objetos en imágenes cargadas en Google, ha demostrado ser experta en el diagnóstico de diversas enfermedades, incluida la ceguera diabética y las afecciones cardíacas.

Pero la red neuronal de la Universidad de Nueva York ha aprendido a hacer algo que ningún patólogo ha hecho jamás: identificar las mutaciones genéticas presentes en cada tumor desde solo una imagen.

«Pensé que la verdadera novedad no sería solo demostrar que la inteligencia artificial (IA) es tan buena como los humanos, sino que ofrece ideas que un experto humano no podría», dice Aristotelis Tsirigos, patóloga de la Escuela de Medicina de NYU y autor principal del nuevo estudio.

Para hacerlo, el equipo de Tsirigos comenzó con Inception v3 de Google, un algoritmo de fuente abierta que Google entrenó para identificar 1000 clases diferentes de objetos. Para enseñar al algoritmo a distinguir entre imágenes de tejido canceroso y sano, los investigadores mostraron cientos de miles de imágenes tomadas de The Cancer Genome Atlas, una biblioteca pública de muestras de tejido de pacientes.

Una vez que Inception averiguó cómo seleccionar las células cancerosas con un 99 por ciento de precisión, el siguiente paso fue enseñarle a diferenciar dos tipos de cáncer de pulmón: el adenocarcinoma del carcinoma de células escamosas. Juntos, representan las formas más prevalentes de la enfermedad, que mata a más de 150,000 personas al año. Aunque parecen muy similares bajo el microscopio, los dos tipos de cáncer se tratan de manera muy diferente. Hacer las cosas bien puede significar la diferencia entre la vida y la muerte para los pacientes.

Pero no fue una mano humana colaboradora la que enseñó a Inception a «ver» mutaciones genéticas en esas diapositivas de histología. El algoritmo aprendió todo por sí mismo.

De nuevo, trabajando con datos del TCGA, el equipo de Tsirigos alimentó los perfiles genéticos de Inception para cada tumor, junto con las imágenes de diapositivas. Cuando probaron su sistema en nuevas imágenes, no solo pudo identificar cuáles mostraban tejido canceroso, sino las mutaciones genéticas de esa muestra de tejido en particular. La red neuronal había aprendido a notar cambios extremadamente sutiles en la apariencia de una muestra tumoral, que los patólogos no pueden ver. «Estas mutaciones que conducen el cáncer parecen tener efectos microscópicos que el algoritmo puede detectar», dice Tsirigos. Sin embargo, cuáles son esos cambios sutiles, «no sabemos». Están enterrados [en el algoritmo] y nadie sabe realmente cómo extraerlos «.

Este es el problema de la caja negra del aprendizaje profundo, pero es especialmente urgente en medicina. Los críticos argumentan que estos algoritmos primero deben hacerse más transparentes para sus creadores antes de entrar en uso generalizado. De lo contrario, ¿cómo podrá alguien asumir sus inevitables fracasos, que puede ser la diferencia entre un paciente que vive y el que está muriendo?

Pero personas como Olivier Elemento, director del Caryl e Israel Englander Institute for Precision Medicine en Cornell, dicen que sería estúpido no usar una prueba clínica que obtenga las respuestas correctas el 99% de las veces, incluso sin saber cómo funciona.

«Honestamente, para que un algoritmo de este tipo esté en una prueba clínica, no necesita tener características totalmente interpretables, solo tiene que ser confiable», dice Elemento. Pero obtener una fiabilidad casi perfecta no es tan fácil. Diferentes hospitales manejan sus muestras de tumores usando diferentes instrumentos y protocolos. Enseñar un algoritmo a manejar toda esa variabilidad será una tarea complicada.

Pero eso es lo que Tsirigos y su equipo planean hacer. En los próximos meses, los investigadores continuarán entrenando su programa de IA con más datos de fuentes más diversas.

Luego comenzarán a pensar en desarrollarlo empresarialmemte para buscar la aprobación de la FDA.

«La gran pregunta es, ¿será esto lo suficientemente confiable como para reemplazar la práctica actual?», Dice Daniel Rubin, Director de Informática Biomédica en el Stanford Cancer Institute. No sin mucho trabajo de validación en el futuro, dice. Pero apunta hacia un futuro donde los patólogos trabajarán en asociación con las computadoras. «Lo que este documento realmente muestra es que hay mucha más información en las imágenes que lo que un ser humano puede obtener».

Ese es un tema más allá de la patología digital. Con Google y otras compañías que ponen a disposición algoritmos de última generación de código abierto, los investigadores ahora pueden comenzar un proyecto de IA propio con relativa facilidad. Con solo un poco de personalización, esas redes neuronales están listas para ser liberadas en una montaña de datos de imágenes biomédicas, no solo imágenes de tumores.