Contribución de resnet34 en la detección de covid-19, utilizando radiografías de tórax
Contribution of resnet34 in the detection of covid-19, using chest x-rays.
Joseph Roberto Pico Briones [1] 0000-0002-8095-4319
Emanuel Guillermo Muñoz Muñoz [2] 0000-0002-0997-0578
Iván Alberto Analuisa Aroca [3] 0000-0002-3798-3122
[1] Instituto de Posgrado, Universidad Técnica de Manabí, Portoviejo, Ecuador. Email: jpico0357@utm.edu.ec
2 Departamento de Ciencias, Universidad Técnica de Manabí, Portoviejo, Ecuador.
3 Departamento de Agricultura, Economía, Sociología de la Facultad de Ciencias Económicas de la Universidad de Córdoba, España- Universidad Técnica de Manabí, Portoviejo, Ecuador.
Resumen
En la lucha contra el avance del COVID-19, las imágenes de radiografías de tórax se convierten en una alternativa en la detección del virus. El interpretar las placas radiográficas para la detección del virus en ocasiones se complica por la presencia de otras enfermedades respiratorias. Se propone como complemento en la detección del virus, una red neuronal convolucional con arquitectura RESNET34 que permiten clasificar las imágenes de radiografías de tórax con COVID-19 e imágenes NOCOVID. El modelo presenta un grado de confiabilidad del 94,78% en la predicción de las imágenes en las dos clases COVID-19 y NOCOVID y un error en la predicción de las imágenes del 5,22%. Los resultados obtenidos, muestran un alto grado de predicción y clasificación de casos de COVID por encima del 90%, demostrando el aporte de la inteligencia artificial en el desarrollo de tecnologías preventivas de enfermedades respiratorias, además de apoyo para el personal médico.
Palabras clave: Covid-19; Deep learning; inteligencia artificial; rayos x de tórax, resnet34.
Abstract
In the fight against the advance of COVID-19, chest X-ray images become an alternative in the detection of the virus. Interpreting radiographic films for virus detection is sometimes complicated by the presence of other respiratory diseases. A convolutional neural network with RESNET34 architecture is proposed as a complement in the detection of the virus, which allows classifying the images of chest radiographs with COVID-19 and NOCOVID images. The model presents a degree of reliability of 94.78% in the prediction of the images in the two classes COVID-19 and NOCOVID and an error in the prediction of the images of 5.22%. The results obtained show a high degree of prediction and classification of COVID cases above 90%, demonstrating the contribution of artificial intelligence in the development of preventive technologies for respiratory diseases, as well as support for medical personnel.
Keywords: Covid-19; deep learning; artificial intelligence; chest x-ray; resnet34.
Introducción
A finales del año 2019, apareció un tipo de neumonía viral desconocida en Wuhan China, en apenas unos meses el virus al que llamaron COVID-19 fue propagándose a países vecinos del continente asiático y actualmente ha llegado a otros continentes, lo que ha provocado que la Organización Mundial de la Salud (OMS, 2020), la declare como una pandemia (Salman et al., 2020). Estimando que hasta mayo del 2021 el número de personas contagiadas con el virus a nivel mundial es de 162.704.139 y el número de personas fallecidas es de 3.374.052 personas (WHO, 2021).
En el Ecuador desde el 29 de febrero del 2020 hasta el 17 de mayo del 2021 se han confirmado con pruebas de Reacción en Cadena (PCR) por sus siglas en inglés, 410.870 casos, el número de fallecidos entre confirmados y probables es de 19.786, Manabí con 30.124 casos confirmados siendo la tercera provincia con el mayor número de casos de COVID-19, y la segunda provincia con el mayor número de fallecidos 3.483 fallecidos. Su capital Portoviejo con 10.022 casos es el cantón de la provincia con el mayor número de casos registrados de COVID-19 (MSP, 2021). Con los antecedentes mencionados y para detener el avance del virus y evitar el colapso de los centros de salud, se han adoptado distintas medidas que han tenido repercusiones sociales, económicas y sanitarias (Martínez et al., 2021).
La presencia del virus se detecta utilizando las pruebas (RT-PCR), las mismas que se realiza con toma de muestras de las secreciones nasofaríngeas. La sensibilidad de esta prueba puede variar en el rango de 60-70% a 95-97%, los falsos negativos son un problema clínico real especialmente en etapa temprana, la tasa de falsos negativos es del 100% en los primeros días de exposición (Martínez et al., 2021).
Debido a su alta capacidad de contagio de la enfermedad, el detectar a personas infectadas es vital para detener el avance, sin embargo se han presentado problemas con las pruebas PCR, en ocasiones por falta de kits de pruebas, demora en los resultados debido a que se necesitan laboratorios especializados que en algunos casos se encuentran a gran distancia de los lugares donde se recogieron las muestras, esto provoca que los resultados se obtengan después de algunos días (Waltz, 2020). Adicional, la prueba viral PCR puede contaminarse por un mal manejo del material de trabajo, por ejemplo la contaminación cruzada provocada por el contacto de los isopos con superficies o guantes contaminados, problema de este tipo ya se han reportado en Estados Unidos lo que causó el retiro de kits de prueba por parte de la institución de control y prevención de enfermedades (Wang et al., 2021).
El COVID-19 puede causar enfermedades al sistema respiratorio que pueden provocar una neumonía severa (Pereira et al., 2020). Las enfermedades respiratorias pueden ser diagnosticadas con imágenes médicas, en el caso del COVID-19, el diagnosticar el virus se vuelve extremadamente difícil para el radiólogo por el tiempo limitado (Swapnarekha et al., 2020) y en las imágenes de RX de tórax no es fácil la identificación porque se puede confundir con tuberculosis o bronquitis (Pereira et al., 2020).
La necesidad de detectar la presencia del virus, y proteger a quienes luchan en primera línea contra el virus (personal médico), ha generado el desarrollo de una serie de alternativas que permitan enfrentar el avance del virus.
Otra de las opciones preventivas son las pruebas de imágenes, importantes en la detección y manejo de pacientes infectados y han sido usadas para diagnosticar la enfermedad, determinar la severidad, guiar y evaluar respuestas a tratamientos por COVID-19 (Martínez et al., 2021), usando las imágenes se evita la contaminación de muestras por contacto directo como sucede con las pruebas de tipo viral (Wang et al., 2021). En los hospitales de Wuhan radiólogos expertos usaron imágenes de Tomografía Computarizada (TC) de tórax como complemento a las pruebas PCR (Bai et al., 2020). Los Rayos X (RX) de tórax son las pruebas de imágenes más usadas en pacientes con sospecha o confirmados de COVID-19 debido a su utilidad, disponibilidad y bajo costo, aunque es menos sensible que la TC (Martínez et al., 2021), al ser de bajo costo están disponibles incluso en áreas rurales. La inspección visual de las imágenes de RX de tórax consume mucho tiempo y puede conducir al error del diagnóstico sobre todo si no se tiene conocimiento previo del virus, por lo que es necesario métodos automatizados que ayuden en un diagnóstico rápido y exacto del COVID-19 (Nayak et al., 2021).
El análisis de imágenes médicas como RX, TC y escáneres son importantes para superar las limitaciones del proceso de diagnóstico dentro de un tiempo accesible limitado. Hoy en día, el Machine Learning y las técnicas de Deep Learning ayudan a los médicos en la predicción precisa de la neumonía a partir de imágenes (Swapnarekha et al., 2020).
La Inteligencia Artificial (IA) es útil en el diagnóstico de los casos infectados por COVID-19 mediante el análisis de imágenes médicas como TC, exploración de Imágenes de Resonancia Magnética por sus siglas en inglés (MRI) (Vaishya et al., 2020). Los científicos trabajan sobre aplicaciones en IA, estas aplicaciones dan un tiempo extra a los radiólogos para diagnosticar pacientes con COVID-19 de manera más rápida que los test regulares de coronavirus (Kumar et al., 2020), se han desarrollado aplicaciones que permiten clasificar las imágenes que ayudan al especialista en la detección y monitorización del COVID-19, además ayudan a determinar a los pacientes que por su condición médica necesitan usar respiradores (He et al., 2016). La empresa de tecnología China Huawei desplegó una plataforma de diagnóstico asistida IA Huawei Cloud que permite detectar el COVID-19 a través del análisis de imágenes permitiendo el diagnostico en 15 segundos con una exactitud superior al 96%, países latinoamericanos y centroamericanos utilizan la plataforma de Huawei (Huawei Servicios, 2021).
Las redes neuronales convolucionales, con sus siglas en inglés Convolutional Neural Network (CNN) son ampliamente usadas en problemas de clasificación de imágenes, se han creado CNN con estructuras pequeñas para procesar imágenes de RX de tórax permitiendo que estas redes sean programadas en sistemas embebidos (Kesim et al., 2019).
En años recientes, la tecnología Deep Learning que es un tipo de máquina de aprendizaje que forma parte de un campo específico de la Inteligencia Artificial (Goodfellow et al., 2017), ha realizado importantes avances en análisis de imágenes y diagnósticos médicos y es considerado a ser una poderosa herramienta para solucionar tales problemas (Lee et al., 2020), a través de esta técnica los radiólogos pueden diagnosticar COVID-19 usando imágenes de RX de tórax (Kumar et al., 2020). Este avance ha permitido que se desarrollen investigaciones para la creación de arquitecturas de redes neuronales convolucionales profundas para detectar el COVID-19, por ejemplo, CovidNet fue diseñada como complemento a las pruebas PCR en la detección del virus. El modelo se destaca por la predicción de enfermedades respiratorias de tipo bacterial y viral como es el caso del COVID-19, CovidNet se diseñó usando una red neuronal convolucional profunda entrenada con una base de datos de imágenes de RX de tórax de fuente abierta (Wang & Wong, 2020). CoroNet es un modelo de red neuronal convolucional basada en Deep Learning, desarrollada para clasificar tres tipos distintos de neumonía (neumonía bacterial, neumonía viral y COVID-19) a partir de imágenes de RX de tórax (Khan et al., 2020). Con la intención de mejorar la detección de los casos de COVID-19 y disminuir las detecciones falsas, investigadores han desarrollado una red neuronal convolucional profunda modificada que resulta de la combinación de dos redes neuronales convolucionales profundas (red Xpection y red RESNET50V2), se optimizan los parámetros de entrenamiento y se desarrolla un método de entrenamiento de red cuando la base de datos está desbalanceada, la red neuronal convolucional trabaja sobre imágenes de RX de tórax y permite clasificar las imágenes en normal, neumonía y COVID-19 (Rahimzadeh & Attar, 2020). En la detección de COVID-19 se ha desarrollado una red neuronal convolucional basado en un modelo de descomposición, transferencia y composición de clases (DeTraC) de imágenes de RX de tórax, este modelo puede tratar con irregularidades en la base de datos de las imágenes (Abbas et al., 2021). Con el objetivo de obtener una alta tasa de exactitud en la clasificación de imágenes de RX de tórax en el diagnóstico de COVID-19, investigadores han desarrollado una red basada en la arquitectura SqueezeNet (COVIDiagnosis-Net) utiliza optimización de Bayes (Ucar & Korkmaz, 2020). La red neuronal convolucional optimizada OptCoNet está compuesta de componentes de extracción de característica optimizado y de componentes de clasificación, utiliza una base de datos pública, los hiperparámetros para entrenamiento son optimizados utilizando el algoritmo Grey Wolf Optimizer (GWO), la red clasifica las imágenes de RX de tórax en COVID-19, neumonía y normal (Goel et al., 2021).
La principal ventaja de las CNN es que permiten extraer diferentes niveles de características de las imágenes (Abiyev & Ma’aitah, 2018). Cada capa de una CNN va refinando la representación de las características de la imagen en niveles más abstractos, el aprendizaje multicapa se conoce comúnmente como aprendizaje profundo (Deep learning) y esta capacidad es una de las razones por la que las aplicaciones de las redes neuronales han tenido éxito (Gonzalez & Woods, 2018). Las arquitecturas de redes neuronales convolucionales no entrenadas y pre entrenadas permiten la detección de enfermedades, a partir de un banco de imágenes se clasifican y se valora su rendimiento de acuerdo al porcentaje de exactitud en la clasificación de la enfermedad a diagnosticar.
Motivado por la necesidad de encontrar alternativas a las dificultades experimentadas en la demora de los resultados en la prueba PCR y ante la necesidad urgente de detección del COVID-19, se propone como complemento en la detección del virus, una red neuronal convolucional RESNET34 usando imágenes de RX de tórax obtenidas de base de datos de fuente abierta (Cohen et al., 2020).
Materiales y Métodos
Para el desarrollo de la presente investigación, se utilizó una red residual pre-entrenada RESNET34. Las imágenes utilizadas pertenecen a la base de datos del Dr. Joseph Cohen en la Universidad de Montreal (Cohen et al., 2020). En esta investigación fueron analizadas 1406 imágenes de RX de tórax que pertenecían a pacientes confirmados por COVID-19 y NO-COVID, otro tipo de infecciones respiratorias no fueron consideradas. Para el desarrollo de la red se usó el software para Inteligencia Artificial Fastai que fue desarrollado por la Universidad de San Francisco usando lenguaje de programación Python. Fastai se utilizó sobre Google Colab que es un servicio de nube basado en los notebooks de Jupyter que permiten el uso gratuito de las GPUs por sus siglas en inglés (Unidad de procesamiento de gráficos) y TPUs por sus siglas en inglés (Unidad de procesamiento Tensorial) de Google con librerías como Scikit, Tensorflow, PyTorch, Keras y OpenCv, facilitando el análisis en Python para Data Science y lo que permite desarrollar aplicaciones de Machine Learning y Deep Learning sin tener que invertir en recursos de hardware o nube (Bisong, 2019).
Para el desarrollo del clasificador de imágenes se utiliza el aprendizaje profundo constituido por capas donde existen filtros que van identificando patrones de la imagen de entrada, se realiza un entrenamiento de acuerdo a la clasificación que se desea realizar. Las imágenes a clasificar ingresan a la red y de acuerdo al entrenamiento previo una red neuronal se encarga de realizar la clasificación.
A continuación, se presentan conceptos básicos de las redes neuronales y sus procesos de interpretación:
Las redes neuronales convolucionales profundas son usadas para el procesamiento y clasificación de imágenes. En la Figura 1 se muestra un esquema general de clasificación de imágenes. Las imágenes ingresan a la red, son procesadas a través de operaciones que permiten reconocer patrones para posteriormente clasificar las imágenes.
Elaborado por: Los Autores (2021)
Figura 1. Esquema general de clasificación de imágenes de RX de tórax.
El desarrollo de las técnicas de procesamiento de imágenes fue evolucionando a la par del aparecimiento de nuevas tecnologías en el campo de la computación, lo que permitió que las redes neuronales puedan procesar un mayor volumen de información, lo que se logra con el Deep Learning.
Deep Learning (aprendizaje profundo): Es una técnica computacional usada para extraer y transformar datos usando múltiples capas de redes neuronales (Howard & Gugger, 2020), se usan en tareas de clasificación en donde las capas altas de representación amplifican aspectos que son útiles para discriminar y suprimir variaciones irrelevantes, la primera capa detecta la ausencia o presencia de bordes con una orientación, la segunda capa detecta arreglos de puntos y las capas posteriores van detectando objetos más complejos, lo importante es que las capas de características son creadas mediante el aprendizaje de los datos de las imágenes durante el entrenamiento (Lecun et al., 2015).
Red Neuronal Convolucional (CNN)
La CNN es un tipo de algoritmo de máquina de aprendizaje, usado en el procesamiento de imágenes para la clasificación en clases, de acuerdo a la separación de patrones o características reconocidas utilizando operaciones de convolución y pooling (Ly et al., 2020).
La convolución es una operación lineal, en su forma más general, es una operación sobre dos funciones de un argumento de valor real (Goodfellow et al., 2017) que consiste en una suma de productos. La operación multiplica cada pixel de una región de alguna imagen de dimensión M×N pixeles por el coeficiente correspondiente de un filtro o kernel de dimensión m×n pixeles. Típicamente los filtros o kernel son pequeños, 3×3, 5×5, mientras que la imagen de entrada es normalmente grande (Michelucci, 2018). El filtro recorre toda la imagen desplazándose una unidad en el recorrido, el producto del filtro y la imagen es una matriz que contiene características de la imagen. La operación de convolución (⋆) se expresa matemáticamente como se muestra en la ecuación (1):
(1) (w⋆f)(x,y)=∑as = -a ∑_bt =-b w(s,t) f(x - s, y - t)
Donde 𝑤 es el filtro o kernel, f (x,y) es la región de la imagen considerada para realizar la operación de convolución, s y t son los parámetros del kernel que ubican a cada coeficiente del filtro con respecto a su origen que es 𝑤 (0,0), s, sería el desplazamiento horizontal y t, es el desplazamiento vertical, a y b son los límites de los desplazamientos horizontal y vertical (Gonzalez et al., 2018).
La capa pooling sigue a la capa convolucional (Bisong, 2019). La operación pooling o submuestreo reduce el tamaño del mapa de características usando alguna función que resuma las subregiones (Dumoulin et al., 2018).
Existen diferentes arquitecturas de CNNs que se diferencian por el número de capas convolucionales y parámetros que utilizan, una de las arquitecturas más usada es la RESNET.
Residual Net por sus siglas en ingles RESNET34: La figura 2, muestra la arquitectura RESNET34 (el número total de capas de peso es de 34) residual, es una red neuronal convolucional pre-entrenada que consiste de una operación de convolución y una operación pooling en la entrada, continua con 4 capas convolucionales que tienen la función de retener las características de las imágenes. En cada una de estas capas se desarrolla la operación de convolución con kernel de tamaño 3 × 3, cada capa tiene diferente número de filtros (64, 128, 256, 512) (He, Zhang, Ren, & Sun et al., 2016), para mantener el tamaño de las imágenes resultantes de la operación de convolución, se usa una técnica conocida como padding, que consiste en aumentar ceros en los bordes de la imagen entrante (Howard & Gugger, 2020).
Fuente: Tomado de (Vose et al., 2019)
Figura 2. Arquitectura de una red neuronal convolucional RESNET34
En esta arquitectura solo se presenta la operación pooling después de la primera capa convolucional y al final de las 4 capas convolucionales, se producen saltos cada dos capas convolucionales, desde la convolución 3 hasta la convolución 5 en el primer grupo de convolución, se aumenta el desplazamiento a 2 consiguiendo una reducción de la imagen a la mitad, en estas capas no se utiliza la operación pooling (He et al., 2016). Cada paso de convolución se acompaña de una función de activación Unidad Lineal Rectificada (ReLU). Al final de las cuatro capas convolucionales se obtiene un vector 1D con 512 de profundidad, este vector ingresa a una red neuronal completa que va a realizar la clasificación de las imágenes usando una función exponencial normalizada (softmax).
Para el entrenamiento de la CNN se utiliza la técnica backpropagation que consiste en la implementación del método de optimización Gradiente Descendente para obtener los coeficientes de peso en el desarrollo de la red neuronal (Haykin, 2009). La red es inicializada con un conjunto pequeño de pesos y sesgos. En backpropagation, un vector que llega a la salida de la capa pooling debe ser convertida a un arreglo 2D del mismo tamaño del mapa de características agrupado en esa capa. En el Cuadro 1 se presentan las características de una CNN arquitectura RESNET34.
Tabla 1. Características de una CNN con arquitectura RESNET34
Nombre de la capa |
Tamaño de salida |
RESNET34 |
Imagen de entrada |
|
244 x 244 |
Convolución 1 |
112 x 112 |
7 x 7, 64 filtros, stride = 2 |
Convolución 2 |
56 x 56 |
3 x 3, maxpooling, stride = 2 |
3 x 3, 6 mapas característicos de 64 |
||
filtros en cada uno, formados en 3 grupos |
||
Convolución 3 |
28 x 28 |
3 x 3, 8 mapas característicos de 128 |
filtros en cada uno, formados en 4 grupos |
||
Convolución 4 |
14 x 14 |
3 x 3, 12 mapas característicos de 256 |
filtros en cada uno, formados en 6 grupos |
||
Convolución 5 |
7 x 7 |
3 x 3, 6 mapas característicos de 512 |
filtros en cada uno, formados en 3 grupos |
||
|
1 x 1 |
promedio pooling, softmax |
Fuente: Tomado de (He et al., 2016)
A continuación, se muestran los pasos de entrenamiento de una CNN correspondiente a una época de entrenamiento, tomado de (Gonzalez et al., 2018). La red se inicializa con un conjunto de pequeños pesos y sesgos (bias). Cada mapa de característica agrupado es muestreado a emparejar el tamaño de su correspondiente mapa de característica.
Paso 1:
Entrada de la imagen (0) = el conjunto de pixeles de la imagen en la capa de entrada 1.
Paso 2:
Paso adelante. Para cada neurona correspondiente a una ubicación (x, y) en cada mapa característico en la capa se calcula acorde a la ecuación (2) y (3):
Paso 3:
Backpropagation. Para cada neurona en cada mapa de características en la capa , se calcula obteniendo la ecuación (4):
Paso 4:
Actualización de parámetros. Se actualizan los pesos y las bias para cada mapa de características usado obteniendo los productos en las ecuaciones (5) y (6):
El procedimiento es repetido hasta por un número específico de épocas o hasta que el error de salida de la red neuronal logra un valor aceptable. El error usado puede ser el cuadrático medio o el error de reconocimiento. Tener en cuenta que el valor de los pesos () y las bias son distintos para cada mapa de características en la capa (Gonzalez et al., 2018).
El desarrollo de la CNN en el procesamiento de las imágenes, se la puede dividir en varios pasos:
Se realizó un preprocesamiento de las imágenes, se determinó si las imágenes estaban balanceadas, comprobando si el número de imágenes con COVID-19 eran aproximadamente igual al número de imágenes NO-COVID. Las imágenes utilizadas provinieron de una base de datos de acceso libre. Ante la falta de imágenes de RX de COVID-19, se aumentó la base de datos con imágenes creadas por rotación e inclinación. Esto se realizó con el objetivo de evitar el sobreajuste y que la clasificación no sea sesgada. El tamaño de las imágenes usadas fue de 244×244 pixeles, en esta investigación se usaron 1406 imágenes que se dividieron en 3 grupos con imágenes seleccionadas al azar: el 71,4% (1004 imágenes) para entrenamiento, 17,7% (249 imágenes) para validación y 10,9% (153 imágenes) para test.
Con las imágenes de entrenamiento se entrenó la CNN. Se seleccionó la arquitectura RESNET34 para el desarrollo de la red neuronal convolucional. Las imágenes para validación se utilizaron para ajustar los parámetros de construcción de la red neuronal convolucional y a través de una matriz de confusión se determina el porcentaje de éxito en la clasificación de las imágenes.
Para evaluar el rendimiento del modelo sobre imágenes de RX, se consideró 6 métricas para ser calculadas: exactitud, sensibilidad, especificidad, precisión (valor de predicción positiva VPP), valor de predicción negativa (VPN), F1-score.
Resultados
Dentro de los principales resultados en la Figura 3, se muestra una matriz de confusión obtenida con las imágenes de validación. La matriz muestra la predicción de las imágenes de RX de tórax con la CNN usando una estructura RESNET34. Las imágenes de validación son 249 de las cuales 139 imágenes son de COVID-19 y 110 de NO-COVID. De las 139 imágenes de COVID-19, 133 imágenes se predijeron acertadamente y 6 imágenes de COVID-19 fueron predichas como NO-COVID, se obtuvo un acierto del 95,68% (sensibilidad) en la clasificación de las imágenes de COVID-19. De las 110 imágenes de NO-COVID, 103 imágenes fueron predichas acertadamente como NO-COVID y 7 imágenes fueron predichas erróneamente como COVID-19, es decir que se obtuvo un acierto de predicción de imágenes NO-COVID (especificidad) del 93,6%. El porcentaje de exactitud del modelo en la clasificación de las imágenes en las dos clases COVID-19 y NO-COVID fue del 94,78% y un porcentaje de error del 5,22%.
Fuente: Trabajo de investigación 2021.
Figura 3. Matriz de confusión
En la Tabla 2 se muestran las métricas obtenidas al entrenar la CNN con estructura RESNET34, en el entrenamiento se utilizaron 10 épocas.
Tabla 2. Análisis de las medidas de rendimiento para el entrenamiento de
una CNN con arquitectura RESNET34
Número de épocas |
Exactitud |
Precisión |
Sensibilidad |
Especificidad |
VPN |
F1-score |
|
Resnet34 |
10 |
94,78% |
95% |
95,68% |
93,63% |
94,45% |
95,34% |
Elaborado por: Los Autores (2021)
Discusión
En este estudio, se diseñó una red neuronal convolucional CNN con estructura de red residual RESNET34, la red permite clasificar imágenes de RX de tórax en COVID-19 y NO-COVID. Con la base de datos utilizada se logró una alta sensibilidad 95,68% y especificidad del 93,63% en la detección del COVID-19. Comparando con otras arquitecturas de redes convolucionales la red convolucional COVNet obtuvo una sensibilidad del 90% y una especificidad del 95% en la detección del COVID-19 (Li et al., 2020), la sensibilidad de la arquitectura COVNet es menor que la obtenida en la arquitectura RESNET34 pero presenta una mayor especificidad.
COVID-Net es un diseño de arquitectura residual desarrollado para clasificar infecciones virales como el COVID-19 e infecciones bacteriales a partir de imágenes de RX de tórax. Utilizando 100 épocas de entrenamiento, la sensibilidad en la clasificación de imágenes con COVID-19 fue del 100% y NO-COVID de 81,9%, y normales sin enfermedades el 73,9% de sensibilidad, el porcentaje de predicciones correctas del COVID-19 (exactitud) fue del 83,5%, la red presenta una alta sensibilidad en la detección de COVID-19 (Wang & Wong, 2020). La exactitud en la clasificación de las imágenes con COVID-19 es mayor en el presente estudio donde se utiliza una red CNN con RESNET34 que en COVID-Net sin embargo la sensibilidad en la clasificación es mayor en COVID-Net. Esta diferencia se produce por la cantidad de imágenes usadas en la clasificación, en la CNN con RESNET34 se utilizaron mayor número de imágenes que en COVID-Net. El número de épocas usadas en la CNN RESNET34 se eligió evitando el sobreajuste, el tener un mayor número de épocas para el entrenamiento representa un mayor tiempo de entrenamiento y un sobreajuste que disminuye la capacidad de clasificación del modelo.
Según lo manifiesta Ghoshal & Tucker (2020) diseñaron una red RESNET50V2 para clasificar imágenes de RX de tórax en enfermedad viral, enfermedad bacterial, normal y COVID-19, la red presentó una exactitud del 92,9% en la clasificación de imágenes de COVID-19. Una CNN RESNET50 fue diseñada para clasificar una base de datos de 50 imágenes de COVID-19 y 50 imágenes NO-COVID, el modelo obtuvo un 98% de exactitud en la clasificación de imágenes de COVID-19 (Narin et al., 2020). En (Zhang et al., 2020) se desarrolla una CNN RESNET para clasificar imágenes de RX de tórax en imágenes COVID-19 y otros tipos de enfermedades respiratorias, la red obtuvo un 96% de sensibilidad en la clasificación de las imágenes y el 70,7% de especificidad. Estas últimas redes usadas para la clasificación del COVID-19, utilizan un mayor número de capas convolucionales lo que permite que las características de las imágenes sean mejor representadas sin embargo la exactitud de estos modelos es menor que la obtenida en la presente investigación usando CNN con RESNET34. La diferencia se produce por el número de imágenes usadas, entre mayor número de imágenes el modelo podrá realizar un mejor entrenamiento y por lo tanto mejora la clasificación. En el modelo usado por Zhang la especificidad es menor que la obtenida con la CNN RESNET34, significa que el modelo con RESNET34 clasifica mejor los casos con NO-COVID.
La arquitectura de tipo residual de una red convolucional RESNET34 permite clasificar enfermedades respiratorias como es el caso del COVID-19, los resultados obtenidos se ubican dentro del porcentaje de clasificación de otras arquitecturas utilizadas en el diagnóstico del virus sobre el 90% de éxito en la clasificación, las diferencias en el éxito de la clasificación se deben por la cantidad de imágenes utilizadas y el tipo de arquitectura.
Conclusiones
El modelo propuesto presenta una sensibilidad del 95.68% lo que representa un alto porcentaje en la detección correcta de casos de COVID-19. En los casos de NO-COVID fueron detectados correctamente en un 93,63%. La precisión del modelo en la predicción de casos de COVID-19 es del 95%. Es importante recalcar que la aplicación de este tipo de tecnología en la detección de los pacientes con COVID-19 es un medio complementario y no definitivo o decisivo, por lo tanto, es recomendable su aplicación en complemento con las pruebas médicas aceptadas por la OMS para la detección del virus.
Financiamiento
Los autores no han recibido financiamiento para la publicación de este manuscrito.
Conflicto de intereses
Los autores no reportan conflicto de interés con la publicación de este artículo.
Contribuciones de auditoría:
Joseph Roberto Pico Briones: redacción del documento, metodología, análisis e interpretación de la información, búsqueda de información.
Emmanuel Guillermo Muñoz Muñoz: metodología, concepción y diseño de la metodología.
Iván Alberto Analuisa Aroca: información bibliográfica, diseño y revisión del documento. Todos ellos han contribuido a la redacción del artículo y la aprobación de la versión final.
Mensajes clave
¿Qué se sabe sobre el tema?
Existen referencias de experiencias similares con otros tipos de redes convolucionales, algunos trabajos presentan la misma metodología utilizando otras formas de diagnóstico como ecografías, tomografías utilizadas en el diagnóstico de otras enfermedades especialmente del cerebro. En nuestro caso es un trabajo que ayuda para el diagnóstico en pacientes Covid, lo que ayuda al diagnóstico temprano y dar los primeros pasos en la utilización de este tipo de redes.
¿Qué añade el estudio realizado a la literatura?
Es una investigación que se realiza entre las primeras en nuestro país para el diagnóstico de Covid con el uso de radiografías, y que se debe considerar e incentivar en la investigación como una fuente de datos para el uso, diagnóstico preventivo de diferentes enfermedades especialmente catastróficas.
Referencias
Abbas, A., Abdelsamea, M. M., & Gaber, M. M. (2021). Classification of COVID-19 in chest X-ray images using DeTraC deep convolutional neural network. Applied Intelligence, 51(2), 854–864. https://doi.org/10.1007/s10489-020-01829-7
Abiyev, R. H., & Ma’aitah, M. K. S. (2018). Deep Convolutional Neural Networks for Chest Diseases Detection. Journal of Healthcare Engineering, 2018. https://doi.org/10.1155/2018/4168538
Bai, H. X., Hsieh, B., Xiong, Z., Halsey, K., Choi, J. W., Tran, T. M. L., … Liao, W.-H. (2020). Performance of radiologists in differentiating COVID-19 from viral pneumonia on chest CT. Radiology, 200823. https://doi.org/10.1148/radiol.2020200823
Bisong, E. (2019). Building Machine Learning and Deep Learning Models on Google Cloud Platform. In Building Machine Learning and Deep Learning Models on Google Cloud Platform (1st ed.). https://doi.org/10.1007/978-1-4842-4470-8
Cohen, J. P., Morrison, P., & Dao, L. (2020). COVID-19 Image Data Collection. Retrieved from http://arxiv.org/abs/2003.11597
Dumoulin, V., Visin, F., & Box, G. E. P. (2018). A guide to convolution arithmetic for deep learning. Retrieved from http://ethanschoonover.com/solarized
Ghoshal, B., & Tucker, A. (2020). Estimating Uncertainty and Interpretability in Deep Learning for Coronavirus (COVID-19) Detection. Retrieved from https://www.brunel.ac.uk/computer-science
Goel, T., Murugan, R., Mirjalili, S., & Chakrabartty, D. K. (2021). OptCoNet: an optimized convolutional neural network for an automatic diagnosis of COVID-19. Applied Intelligence, 51(3), 1351–1366. https://doi.org/10.1007/s10489-020-01904-z
Gonzalez, R. C., & Woods, R. E. (2018). Digital Image Processing, 4e (Fourth). Londres: Pearson Education.
Goodfellow, I., Bengio, Y., & Courville, A. (2017). Deep Learning. In The MIT Press. https://doi.org/10.1017/CBO9781107415324.004
Haykin, S. (2009). Neural Networks and Learning Machines (Third). Ontario: Pearson Education.
He, K., Zhang, X., Ren, S., & Sun, J. (2016). Deep residual learning for image recognition. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2016-Decem, 770–778. https://doi.org/10.1109/CVPR.2016.90
Howard, J., & Gugger, S. (2020). Deep Learning for Coders with fastai and PyTorch. In O’Reilly Media (First Edit, Vol. 66). Canada.
Huawei Servicios. (2021). Combatiendo al COVID-19 con inteligencia artificial_HUAWEI CLOUD. Retrieved May 27, 2021, from https://www.huaweicloud.com/intl/es-us/cases/covid19.html
Kesim, E., Dokur, Z., & Olmez, T. (2019). X-ray chest image classification by a small-sized convolutional neural network. 2019 Scientific Meeting on Electrical-Electronics and Biomedical Engineering and Computer Science, EBBT 2019, 1–5. https://doi.org/10.1109/EBBT.2019.8742050
Khan, A., Shah, J., & Bhat, M. (2020). CoroNet: A Deep Neural Network for Detection and Diagnosis of Covid-19 from Chest X-ray Images.
Kumar, A., Gupta, P. K., & Srivastava, A. (2020). A review of modern technologies for tackling COVID-19 pandemic. Diabetes & Metabolic Syndrome: Clinical Research & Reviews, 14(4), 569–573. https://doi.org/https://doi.org/10.1016/j.dsx.2020.05.008
Lecun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444. https://doi.org/10.1038/nature14539
Lee, K.-S., Kim, J. Y., Jeon, E.-T., Choi, W. S., Kim, N. H., & Lee, K. Y. (2020). Personalized Medicine Evaluation of Scalability and Degree of Fine-Tuning of Deep Convolutional Neural Networks for COVID-19 Screening on Chest X-ray Images Using Explainable Deep-Learning Algorithm. https://doi.org/10.3390/jpm10040213
Li, L., Qin, L., Xu, Z., Yin, Y., Wang, X., Kong, B., … Xia, J. (2020). Artificial intelligence distinguishes COVID-19 from community acquired pneumonia on Chest CT. Radiology.
Ly, C., Vachet, C., Schwerdt, I., Abbott, E., Brenkmann, A., McDonald, L. W., & Tasdizen, T. (2020). Determining uranium ore concentrates and their calcination products via image classification of multiple magnifications. Journal of Nuclear Materials, 533. https://doi.org/10.1016/j.jnucmat.2020.152082
Martínez, E., Díez, A., Ibáñez, L., Ossaba, S., & Borruel, S. (2021). Radiologic diagnosis of patients with COVID-19. Radiología (English Edition), 63(1), 56–73. https://doi.org/10.1016/j.rxeng.2020.11.001
Michelucci, U. (2018). Applied Deep Learning: A Case-Based Approach to Understanding Deep Neural Networks. https://doi.org/https://doi.org/10.1007/978-1-4842-3790-8
MSP, M. de S. P. del E. (2021). Actualización de casos de coronavirus en Ecuador. Retrieved from Infografía situacion coronavirus COVID-19 website: https://www.salud.gob.ec/wp-content/uploads/2021/05/INFOGRAFIA-NACIONALCOVID19-COE-NACIONAL-08h00-17052021.pdf
Narin, A., Kaya, C., & Pamuk, Z. (2020, March 24). Automatic detection of coronavirus disease (COVID-19) using X-ray images and deep convolutional neural networks. ArXiv. arXiv.
Nayak, S. R., Nayak, D. R., Sinha, U., Arora, V., & Pachori, R. B. (2021). Application of deep learning techniques for detection of COVID-19 cases using chest X-ray images: A comprehensive study. Biomedical Signal Processing and Control, 64, 102365. https://doi.org/10.1016/J.BSPC.2020.102365
OMS, O. M. de la S. (2020). SITUATION IN NUMBERS total (new cases in last 24 hours).
Pereira, R. M., Bertolini, D., Teixeira, L. O., Silla, C. N., & Costa, Y. M. G. (2020). COVID-19 identification in chest X-ray images on flat and hierarchical classification scenarios. Computer Methods and Programs in Biomedicine, 105532. https://doi.org/https://doi.org/10.1016/j.cmpb.2020.105532
Rahimzadeh, M., & Attar, A. (2020). A modified deep convolutional neural network for detecting COVID-19 and pneumonia from chest X-ray images based on the concatenation of Xception and ResNet50V2. Informatics in Medicine Unlocked, 19, 100360. https://doi.org/10.1016/J.IMU.2020.100360
Salman, F., Abu-Naser, S., Alajrami, E., Abu-Nasser, B., & Ashqar, B. (2020). COVID-19 Detection using Artificial Intelligence. International Journal of Academic Engineering Research (IJAER), 4(3), 18–25.
Swapnarekha, H., Behera, H. S., Nayak, J., & Naik, B. (2020). Role of intelligent computing in COVID-19 prognosis: A state-of-the-art review. Chaos, Solitons and Fractals, 138, 109947. https://doi.org/10.1016/j.chaos.2020.109947
Ucar, F., & Korkmaz, D. (2020). COVIDiagnosis-Net: Deep Bayes-SqueezeNet based diagnosis of the coronavirus disease 2019 (COVID-19) from X-ray images. Medical Hypotheses, 140, 109761. https://doi.org/10.1016/J.MEHY.2020.109761
Vaishya, R., Javaid, M., Khan, I. H., & Haleem, A. (2020). Artificial Intelligence (AI) applications for COVID-19 pandemic. In Diabetes and Metabolic Syndrome: Clinical Research and Reviews (Vol. 14, pp. 337–339). https://doi.org/10.1016/j.dsx.2020.04.012
Vose, A., Balma, J., Heye, A., Rigazzi, A., Siegel, C., Moise, D., … Sukumar, S. R. (2019). Recombination of Artificial Neural Networks.
Waltz, E. (2020). How Do Coronavirus Tests Work? - IEEE Spectrum. Retrieved April 10, 2020, from https://spectrum.ieee.org/the-human-os/biomedical/diagnostics/how-do-coronavirus-tests-work
Wang, L., & Wong, A. (2020). COVID-Net: A Tailored Deep Convolutional Neural Network Design for Detection of COVID-19 Cases from Chest Radiography Images. Retrieved from http://arxiv.org/abs/2003.09871
Wang, S., Nayak, D., Guttery, D., Zhang, X., & Zhang, Y.-D. (2021). COVID-19 classification by CCSHNet with deep fusion using transfer learning and discriminant correlation analysis. Information Fusion, 68, 131–148. https://doi.org/10.1016/j.inffus.2020.11.005
WHO, W. H. O. (2021). Weekly Operational Update on COVID-19. Retrieved from Update on COVID-19 website: https://www.who.int/publications/m/item/weekly-operational-update-covid-19---17-may-2021
Zhang, J., Xie, Y., Li, Y., Shen, C., & Xia, Y. (2020). COVID-19 Screening on Chest X-ray Images Using Deep Learning based Anomaly Detection.