Si los robots humanoides alguna vez quieren integrarse completamente en la sociedad, necesitarán aprender a leer nuestros estados emocionales y responder adecuadamente. Un nuevo dispositivo portátil de investigadores de Corea podría ayudarlos a lograr precisamente eso.
Los robots son buenos en muchas cosas. Ellos puede levantar cargas impresionantes, aprende increíblemente rápidoy incluso volar un avión.
Pero cuando se trata de comprendernos verdaderamente (comprender nuestras confusas emociones humanas, cambios de humor y necesidad interna) siguen siendo tan buenos como lo es una tostadora para hacer arte (aunque algunos dirían que la tostada perfecta es una especie de tostada). del arte, pero nos desviamos). Sin embargo, esto ha ido cambiando lentamente con el tiempo, y un nuevo sistema anunciado por investigadores del Instituto Nacional de Ciencia y Tecnología de Ulsan (UNIST) de Corea puede impulsar la inteligencia emocional de nuestra tecnología aún más rápido.
Un equipo ha creado un sistema facial portátil y elástico que utiliza la fricción de la piel y el monitoreo de vibraciones para evaluar las emociones humanas y generar su propio poder. Y sí, es tan extraño como parece.
El dispositivo portátil consta de un conjunto de sensores delgados, transparentes y flexibles que se adhieren a la cara en el lado izquierdo y derecho de la cabeza. La mayor parte de cada sensor se pega entre el ojo y la oreja, y las ramas se extienden por encima de cada ojo, hasta la mandíbula y alrededor de la parte posterior de la cabeza. El equipo dice que los sensores se pueden personalizar para adaptarse a cualquier rostro.
Una vez que los sensores están en su lugar, se conectan a un sistema integrado que ha sido entrenado para decodificar las emociones humanas basándose en los patrones de tensión en nuestros rostros y las vibraciones de nuestra voz. A diferencia de otros sistemas que han utilizado técnicas similareseste es completamente autoalimentado por el estiramiento del material del sensor a través de un principio piezoeléctrico. Esto significa que puedes usarlo todo el día (¡como si quisieras!) sin la preocupación de tener que recargarlo. Según los investigadores de UNIST, esta representa la primera vez que se crea un sistema de reconocimiento de emociones portátil y totalmente independiente.
Si bien no es probable que las pegatinas basadas en rostros se popularicen como un dispositivo portátil diario, el equipo de UNIST incorporó su tecnología en entornos de realidad virtual, donde es un poco más fácil imaginar que prospera. Imagine el desarrollo de cascos de realidad virtual más completos que pudieran monitorear nuestras emociones y ajustar nuestros mundos virtuales en consecuencia. De hecho, durante el proceso de prueba, los investigadores utilizaron su nuevo sistema de detección de emociones para ofrecer recomendaciones de libros, música y películas en varios entornos virtuales en función de cómo se sentía el usuario.
solo entiéndeme
El trabajo de UNIST es el último de una larga serie de esfuerzos que buscan hacer que la tecnología sea más sensible a los humanos que la utilizan.
Hemos visto Un collar que puede leer las expresiones faciales. deducir nuestros estados emocionales; una cabeza robótica que puede reflejar las expresiones faciales humanas; un altavoz inteligente que sugiere melodías basadas en cómo te sientes derivado del análisis de voz; y un sistema de IA que puede ayudar a los coches autónomos predecir las acciones de otros conductores en función de sus personalidades. Incluso hubo un esfuerzo en 2015 que tal vez presagió el nuevo estudio de UNIST: Pegatinas faciales que podrían ayudar a los robots a comprender nuestras emociones.. Además, ¿quién podría olvidar el gran éxito de la Robot Pepper de lectura de emociones de Japón, que se lanzó en 2015 y ahora ayuda a más de 2000 empresas en todo el mundo?
A medida que las tecnologías mejoren en la comprensión de nuestros estados emocionales, los androides no sólo serán más capaces de aprovechar nuestros estados de ánimo en nuestra contra para dominar el mundo (es broma), sino que dichos avances podrían derribar algunos de los muros que aún quedan entre los humanos y los robots.
Imagine las implicaciones para los robots médicos de compañía para personas mayores. En lugar de un molesto robot que pasa tres veces al día instándote a tomar tus medicamentos o beber más agua con una voz plana y mecánica, una máquina de este tipo podría entablar una conversación, medir tu estado de ánimo y emplear el tipo adecuado de engatusamiento. estrategia conversacional para superar su obstinada resistencia al cuidado personal.
Los robots emocionalmente inteligentes podrían ayudar a los niños a lidiar con los problemas de acoso escolar vaporizando a dichos acosadores (una vez más, bromeamos). Pero podrían representar un lugar seguro para que los niños discutan temas que son demasiado difíciles para hablar con compañeros humanos. Debido a que estos robots podían mantener la calma y, en un giro lingüístico de ironía, no dejar que «les presionen los botones», podían dar consejos lúcidos de una manera que un padre frustrado tal vez no podría hacerlo.
En una imaginación más nefasta, la tecnología de lectura de emociones podría actuar como una especie de detector de mentiras avanzado, decodificando cómo se siente realmente una persona, independientemente de cómo se sienta. decir ellos sienten.
Las formas en que las tecnologías emocionalmente inteligentes podrían impactar nuestras vidas son casi tan ilimitadas como la variedad de emociones que experimentamos diariamente como especie. Y, si bien usar sensores adhesivos en la cara puede no ser el camino a seguir, el trabajo de UNIST ciertamente ayuda a dar un paso más en el poderoso ascenso hacia las máquinas que «simplemente nos atrapan».
O, como lo expresa el líder del estudio, Jiyun Kim: «Para una interacción efectiva entre humanos y máquinas, los dispositivos de interfaz hombre-máquina (HMI) deben ser capaces de recopilar diversos tipos de datos y manejar información integrada compleja. Este estudio ejemplifica el potencial del uso de emociones, que son formas complejas de información humana, en sistemas portátiles de próxima generación».
Dicho estudio ha sido publicado en la revista Comunicaciones de la naturaleza.
Fuente: UNISTA