Un equipo de científicos del Instituto de Tecnología de Massachusetts (MIT) desarrolló una aplicación con la capacidad de detectar posibles casos de coronavirus según la tos.

De esta manera, la Inteligencia Artificial (IA) que utiliza la app en dispositivos móviles demostró efectividad en casi la totalidad de las muestras analizadas. «Los investigadores entrenaron el modelo en decenas de miles de muestras de toses, así como en palabras habladas. Cuando alimentaron el modelo con nuevas grabaciones de tos, identificaron con precisión el 98,5% de las toses de las personas que se confirmó que tenían COVID-19, incluido el 100% de las toses de los asintomáticos, que informaron que no tenían síntomas pero que habían dado positivo en la prueba del virus», detallaron desde el MIT.

«El equipo está trabajando para incorporar el modelo en una aplicación fácil de usar, que si la Administración de Medicamentos y Alimentos (FDA) la aprueba y se adopta a gran escala, podría ser una herramienta de preselección gratuita, conveniente y no invasiva para identificar a las personas que probablemente sean asintomáticas para COVID-19. Un usuario puede iniciar sesión a diario, toser en su teléfono y obtener información al instante sobre si podría estar infectado y, por lo tanto, debe confirmar con una prueba formal», ampliaron desde la institución.

Además, «la implementación efectiva de esta herramienta de diagnóstico grupal podría disminuir la propagación de la pandemia si todos la usan antes de ir a un salón de clases, una fábrica o un restaurante», adelantó Brian Subirana, científico investigador del laboratorio de identificación automática del MIT.

Previamente, esta iniciativa se enfocaba en el reconocimiento temprano de Alzheimer de la IA mediante la fuerza de las cuerdas vocales en la tos inducida pero, a raíz de la pandemia que azota al mundo, este equipo de científicas y científicos comenzó a trabajar en facilitar el diagnóstico de posibles casos positivos de coronavirus.

«Primero entrenaron un algoritmo general de aprendizaje automático, o red neuronal, conocido como ResNet50, para discriminar los sonidos asociados con diferentes grados de fuerza de las cuerdas vocales. Los estudios demostraron que la calidad del sonido ‘mmmm’ puede ser una indicación de cuán débiles o fuertes son las cuerdas vocales de una persona. Subirana entrenó la red neuronal en un conjunto de datos de audiolibros con más de 1.000 horas de discurso, para distinguir la palabra ‘ellos’ de otras palabras como ‘el’ y ‘entonces’. El equipo entrenó una segunda red neuronal para distinguir los estados emocionales evidentes en el habla, porque se demostró que los pacientes de Alzheimer, y las personas con deterioro neurológico en general, muestran ciertos sentimientos como la frustración o tener un afecto plano, con más frecuencia de lo que expresan felicidad o calma. Los investigadores desarrollaron un modelo de clasificador de voz de sentimientos entrenándolo en un gran conjunto de datos de actores que entonaban estados emocionales como neutral, tranquilo, feliz y triste», detallaron desde el MIT.

«Luego, los investigadores entrenaron una tercera red neuronal en una base de datos de toses para discernir cambios en el desempeño pulmonar y respiratorio. Finalmente, el equipo combinó los tres modelos y superpuso un algoritmo para detectar la degradación muscular. El algoritmo lo hace, esencialmente, simulando una máscara de audio o una capa de ruido, y distinguiendo las toses fuertes, aquellas que se pueden escuchar sobre el ruido, de las más débiles. Con su nuevo marco de IA, el equipo introdujo grabaciones de audio, incluidas las de pacientes con Alzheimer, y descubrió que podía identificar las muestras de la enfermedad de Alzheimer mejor que los modelos existentes. Los resultados mostraron que, en conjunto, la fuerza de las cuerdas vocales, el sentimiento, el desempeño pulmonar y respiratorio y la degradación muscular eran biomarcadores efectivos para diagnosticar la enfermedad», concluyeron en Massachusetts.