Cuando alguien sufre una depresión mayor, autoevaluar objetivamente la gravedad de su afección puede resultar un desafío. Bueno, dentro de unos pocos años, una aplicación de análisis facial artificialmente inteligente para teléfonos inteligentes podría decirles a esas personas cómo se encuentran.
El prototipo de aplicación, que actualmente está siendo desarrollado por un equipo de científicos del Dartmouth College de New Hampshire, se conoce como MoodCapture.
La idea detrás de la aplicación es que cada vez que el usuario desbloquee su teléfono a través de su sistema de reconocimiento facial, la cámara frontal del dispositivo capturará múltiples fotografías de su rostro y su entorno. Luego, un algoritmo basado en inteligencia artificial evaluará esas imágenes y examinará la expresión facial del usuario junto con las imágenes de fondo.
Si la aplicación determina que la depresión del usuario está empeorando, sugerirá medidas como hacer ejercicio al aire libre o socializar con familiares y amigos. Idealmente no Son una severa advertencia de que el usuario debe buscar atención psiquiátrica (al menos no al principio), ya que hacerlo podría hacer que la persona se sienta peor acerca de su situación, fortaleciendo así su depresión.
La IA se entrenó en un grupo de 177 sujetos de prueba divididos en cinco subconjuntos, a todos los cuales se les había diagnosticado previamente un trastorno depresivo mayor.
Durante un período de 90 días, el teléfono de cada persona tomó fotografías de ellos mientras calificaban su grado de acuerdo con la afirmación: «Me he sentido deprimido, deprimido o desesperado». Ese mensaje forma parte del Cuestionario de salud del paciente de ocho puntos, que se utiliza ampliamente para evaluar la depresión.
Aunque los participantes habían aceptado que les tomaran una foto con su teléfono, no sabían que lo estaba haciendo cuando respondieron al mensaje. Esta es una consideración importante, ya que significa que no estaban enmascarando inconscientemente sus emociones cuando se tomaron las fotos.
Cuando se analizó posteriormente el total de 125.000 fotografías, la IA identificó las expresiones faciales (en algunos subconjuntos) que coincidían con las coincidencias más enfáticas con el mensaje. Dichas expresiones incluían variaciones en la dirección de la mirada, el movimiento de los ojos, la posición de la cabeza y la rigidez muscular. La IA también identificó factores ambientales recurrentes, como una iluminación brillante o tenue y la presencia o ausencia de otras personas.
Utilizando el modelo de IA resultante, la aplicación se utilizó a continuación para analizar imágenes de teléfonos inteligentes de los otros subconjuntos. La aplicación demostró tener una precisión del 75% a la hora de identificar qué personas estaban experimentando un empeoramiento de la depresión. Se cree que una vez que la tecnología se desarrolle más (dentro de unos cinco años), la tasa de precisión debería aumentar al menos al 90%.
Y si bien las evaluaciones clínicas psiquiátricas periódicas podrían proporcionar el mismo básico información, la gran ventaja de MoodCapture es que debería permitir a los pacientes evaluar su enfermedad con mucha más frecuencia, respondiendo rápidamente a las caídas antes de que progresen demasiado.
«Este método reconoce la naturaleza dinámica y altamente individualizada del TDM [major depressive disorder]donde los síntomas pueden cambiar significativamente de un día a otro», nos dijo el coautor del estudio, el profesor Nicholas Jacobson. «Al seguir de cerca estos cambios en un grupo de personas diagnosticadas con TDM, nuestro objetivo fue descubrir patrones y características específicas de los cambios en la depresión. con el tiempo.»
Fuente: Universidad de Dartmouth