Equipo de Google utiliza imágenes retinianas para la predicción de factores de riesgo cardiovascular
Las técnicas de «aprendizaje profundo» pueden extraer y cuantificar varios factores de riesgo de enfermedad cardiovascular (ECV) a partir de fotografías del fondo del ojo, según los hallazgos publicados en línea el 19 de febrero en Nature Biomedical Engineering por Ryan Poplin y colaboradores, de Google Research, Mountain View, California y la División de Medicina Cardiovascular de la Escuela de Medicina de la Universidad de Stanford, California.
Los factores de riesgo tradicionales para la ECV incluyen la edad, el sexo, el tabaquismo, la presión arterial, el índice de masa corporal y los niveles de glucosa y colesterol en sangre. Sin embargo, una limitación importante al considerar estos factores de riesgo es que muchas personas no conocen todos sus valores, particularmente el colesterol sérico, para el cual el índice de masa corporal algunas veces se usa como un sustituto.
Sin embargo, otra forma de evaluar el riesgo de ECV puede ser a partir del análisis de imágenes retinianas, las cuales pueden ser obtenidas fácilmente en un entorno ambulatorio. La anatomía de la retina puede revelar el estado cardiovascular a través de la presencia de émbolos de colesterol, retinopatía hipertensiva y detalles del calibre de los vasos sanguíneos, la bifurcación y otros patrones de ramificación, y la tortuosidad arterial.
Tradicionalmente, los descubrimientos médicos se hacen observando asociaciones, haciendo hipótesis de ellos y luego diseñando y ejecutando experimentos para probar las hipótesis. Sin embargo, con imágenes médicas, las asociaciones de observación y cuantificación a menudo pueden ser difíciles debido a la gran variedad de características, patrones, colores, valores y formas que están presentes en los datos reales.
Los investigadores aplicaron el «aprendizaje profundo» para evaluar las imágenes de la retina. El aprendizaje profundo es un tipo de aprendizaje automático que puede trascender el enfoque de buscar solo lo que los expertos especifican previamente, y en su lugar forma algoritmos que reconocen las características predictivas a partir de datos densos. Esta técnica se ha aplicado a las imágenes para diagnosticar el melanoma y la retinopatía diabética.
Los modelos de aprendizaje profundo fueron entrenados para reconocer el riesgo elevado de ECV en los datos de 284.335 pacientes (48.101 del Biobanco del Reino Unido y 236.234 de EyePACS) y se validaron utilizando dos conjuntos de datos independientes de 12.026 pacientes (del Biobanco del Reino Unido) y 999 pacientes (de EyePACS ). El Biobanco del Reino Unido representa a la población general; el grupo EyePACS es en su mayoría de personas hispanas que fueron sometidos a pesquisa de la retinopatía diabética. Las edades medias fueron similares, a 56,9 ± 8,2 años para los participantes del Biobanco del Reino Unido y 54,9 ± 10,9 años para los participantes del EyePACS.
La estrategia identificó factores de riesgo de ECV que no se sabía podían ser cuantificables a partir de imágenes de la retina, incluyendo la edad, con un error absoluto medio de menos de 3,5 años para ambos conjuntos de datos de validación. El algoritmo también predijo con precisión la presión arterial sistólica y diastólica, el índice de masa corporal y la HbA1c. Además, según señalaron Poplin y colaboradores, la presencia de retinopatía diabética no alteró la identificación de los factores de riesgo de ECV.
Los investigadores también entrenaron un modelo para predecir la aparición de eventos cardiovasculares adversos mayores dentro de los 5 años. El punto final solo estuvo disponible para el grupo relativamente saludable de Biobank del Reino Unido. Los investigadores identificaron 631 eventos entre los 48.101 individuos, con 150 de ellos en un subconjunto de validación.
Escribieron los autores que «a pesar del número limitado de eventos, nuestro modelo logró un área bajo la curva de característica operativa del receptor (ABC) de 0.70 a partir de imágenes del fondo de la retina solamente, comparable a un ABC de 0,72 para la calculadora Europea de riesgo compuesta «SCORE «.
Los modelos de aprendizaje profundo entrenados se centraron en estructuras anatómicas particulares que tenían sentido en términos de las predicciones, y fueron validados por oftalmólogos «a ciegas» que evaluaron 100 imágenes retinianas elegidas al azar. Los modelos entrenados para detectar factores de riesgo estándar (edad, tabaquismo y presión arterial sistólica) se enfocaron en la vasculatura, mientras que los entrenados para predecir la HbA1c se enfocaron en las áreas perivasculares. Los modelos entrenados para predecir el sexo tomaron en cuenta predominantemente el disco óptico, los vasos sanguíneos y la mácula.
Los investigadores, refiriéndose a las estructuras y las regiones anatómicas evaluadas, concluyeron que «demostramos no solo que estas señales están presentes en la retina, sino que también son cuantificables con un grado de precisión no reportado previamente». Además, sugieren que los programas existentes de detección de retinopatía diabética podrían usarse para evaluar también los factores de riesgo de la enfermedad cardiovascular.
Las limitaciones del estudio incluyen el uso de imágenes con un campo de visión de 45 °, un conjunto de datos más pequeño que el promedio para las investigaciones de aprendizaje profundo, y la inconsistente disponibilidad de datos de lípidos y diagnósticos de diabetes.
Fuente: medscape.com