Para detectar y prevenir el suicidio es fundamental evaluar a las personas que llaman a las líneas de ayuda de crisis o de suicidio para determinar su nivel actual de riesgo de suicidio.
El habla transmite información útil sobre el estado mental y emocional de una persona, proporcionando pistas sobre si está triste, enojada o temerosa. La investigación sobre el discurso suicida se remonta a más de 30 años, con estudios que identifican marcadores acústicos objetivos que pueden usarse para diferenciar varios estados mentales y Desórdenes psiquiátricosincluido depresión.
Sin embargo, identificar el riesgo de suicidio a partir del habla de alguien puede ser un desafío para el oyente humano, porque las personas que llaman a estas líneas directas son tan emocionalmente inestables como la gente y sus características del habla pueden cambiar rápidamente.
Quizás un ‘panel’ emocional en tiempo real podría ayudar. Alaa Nfissi, estudiante de doctorado de la Universidad Concordia en Montreal, Canadá, ha entrenado un modelo de IA en reconocimiento de emociones del habla (SER) para ayudar en la prevención del suicidio. Presentó un artículo sobre su trabajo en la Conferencia Internacional IEEE sobre Computación Semántica de este año en California, donde ganó el premio al Mejor Trabajo Estudiantil.
«Tradicionalmente, el SER lo hacían manualmente psicólogos capacitados que anotaban las señales del habla, lo que requiere altos niveles de tiempo y experiencia», dijo Nfissi. «Nuestro modelo de aprendizaje profundo extrae automáticamente características del habla que son relevantes para el reconocimiento de emociones».
Para entrenar el modelo, Nfissi utilizó una base de datos de grabaciones de llamadas reales realizadas a líneas directas de suicidio en combinación con grabaciones de actores que expresaban emociones particulares. Las grabaciones se dividieron en segmentos y se anotaron para reflejar un estado mental específico: enojado, triste, neutral, temeroso/preocupado/preocupado. Las grabaciones de los actores se fusionaron con las grabaciones originales de la vida real porque las emociones de ira y miedo/preocupación/preocupación estaban subrepresentadas.
El modelo de Nfissi pudo reconocer con precisión las cuatro emociones. En los conjuntos de datos combinados, identificó correctamente a temerosos/preocupados/preocupados el 82% de las veces, tristes el 77%, enojados el 72% y neutrales el 78% de las veces. El modelo fue particularmente bueno para identificar los segmentos de las llamadas de la vida real, con una tasa de éxito del 78 % para la tristeza y del 100 % para la ira.
Nfissi espera que su modelo se utilice para desarrollar un panel en tiempo real que ayude a los operadores de líneas de crisis a elegir estrategias de intervención adecuadas para las personas que llaman.
«Muchas de estas personas están sufriendo y, a veces, una simple intervención de un consejero puede ayudar mucho», afirmó Nfissi. «Este [AI model] Esperamos que la intervención les ayude y, en última instancia, prevenga el suicidio”.
En última instancia, este tipo de IA empáticas bien podrían hacerse cargo de líneas directas de suicidio enteras. Considerar Hume, promocionada como la primera IA de voz a voz diseñada para interpretar emociones y generar respuestas empáticas. Puedes probarlo visitando el sitio web de Hume, donde la IA te dice qué emociones puede detectar en tu voz e intenta ajustar el tono de su respuesta en consecuencia.
E incluso sin esta tecnología que responde emocionalmente, las IA conversacionales están comenzando a tomar el control en otras partes de la industria de los centros de llamadas; el Tiempos financieros Recientemente se publicó un artículo en el que K. Krithivasan, director ejecutivo y director general de la empresa india de TI Tata Consultancy Services, dijo que la IA podría eventualmente eliminar la necesidad de centros de llamadas que emplean a muchas personas en países como Filipinas e India.
Así que la pérdida de empleos es claramente una preocupación, pero la IA empática plantea más problemas. El mes pasado, Nuevo Atlas reportado que cuando al GPT-4 de OpenAI se le proporcionó el género, la edad, la raza, la educación y la orientación política de una persona y se le pidió que usara la información para presentar un argumento específico para esa persona, fue un asombroso 81,7% más persuasivo que los humanos.
La IA ya ha demostrado cuán hábil es para recopilar una gran cantidad de información (como etnia, peso corporal, rasgos de personalidad, hábitos de consumo de drogas, miedos y preferencias sexuales) de tecnología de seguimiento ocular. Necesitas algún equipo especial para rastrear los ojos, pero si tu voz puede traicionar tanto sobre tus emociones, bueno, hay un dispositivo en tu bolsillo que podría estar escuchando.
No parece demasiado exagerado imaginar un mundo en el que los teléfonos inteligentes equipados con inteligencia artificial rastrean las emociones en nuestras voces y rostros y luego usan su estado actual, junto con todo lo que saben sobre usted, para recomendar un artículo. comida, película o canción que coincida o mejore su estado de ánimo. O manipularte para que compres un seguro de vida, un coche nuevo, un vestido o un viaje al extranjero.
Estás en lo cierto si detectaste cinismo (estoy seguro de que la IA también lo habría hecho). Por supuesto, la otra cara menos cínica es que la IA empática podría usarse en la atención médica para interactuar de manera receptiva con los pacientes, particularmente aquellos que no tienen seres queridos o tienen demencia. Podríamos ver este tipo de cosas más temprano que tarde. En marzo de 2024, el gigante tecnológico NVIDIA anunció una asociación con Hippocratic AI para producir dispositivos basados en IA.agentes de salud‘ que superan (y son más baratos) a las enfermeras humanas.
Como ocurre con la mayoría de las cosas relacionadas con la IA en rápida evolución, el tiempo dirá dónde terminaremos.
El artículo de Nfissi fue presentado en la 2024 IEEE 18.a Conferencia Internacional sobre Computación Semántica (ICSC).
Fuente: Universidad de Concordia