Lima, Perú
+5113014109

Twitter comienza a mostrar alertas a los usuarios que emplean un lenguaje ofensivo en sus respuestas

Twitter comienza a mostrar alertas a los usuarios que emplean un lenguaje ofensivo en sus respuestas


Madrid
Actualizado:

Guardar

El lenguaje tóxico se ha convertido en uno de los principales quebraderos de cabeza para las redes sociales. Twitter ha anunciado la llegada de una nueva funcionalidad destinada a que el usuario se lo piense dos veces antes de realizar publicaciones dañinas en respuesta a otros usuarios. Para ello, se sirve de notificaciones, que surgen en el momento en el que los algoritmos de la ‘app’ detectan alguna palabra malsonante en el tuit que va a ser publicado.

«El año pasado comenzamos a probar mensajes que alentaban a las personas a hacer una pausa y reconsiderar una respuesta potencialmente dañina u ofensiva, como insultos, lenguaje fuerte o comentarios de odio, antes de tuitearla. Una vez que se les solicitó, las personas tuvieron la oportunidad de tomarse un momento y editar, eliminar o enviar la respuesta tal cual», explican desde Twitter en una reciente publicación realizada en su
blog
.

En estos momentos, la herramienta está disponible en la aplicación para usuarios de dispositivos iOS, es decir, iPhone, y Android; aunque solo es funcional con los mensajes que están escritos en inglés. No obstante, desde Twitter señalan que se está trabajando para expandir la herramienta a otros idiomas. En la notificación diseñada por la plataforma, Twitter se dirige directamente al internauta para preguntarle si quiere revisar el tuit, en el que se destacan las palabras que pueden ser consideradas «dañinas» u «ofensivas». A continuación, se ofrece la oportunidad de publicarlo, editarlo o eliminarlo.

El mensajes que está mostrando Twitter antes de publicar el tuit
El mensajes que está mostrando Twitter antes de publicar el tuit – Twitter

De acuerdo con la red social, durante el año que se ha estado probando en un grupo reducido de usuarios, se ha conseguido hacer mejoras en los sistemas de detección y la emisión de las notificaciones, ya que inicialmente no estaba siendo capaz de diferenciar entre insulto e ironía. Asimismo, se apunta que la funcionalidad ha conseguido que se realicen menos tuits tóxicos.

A este respecto, el 34% de usuarios que recibieron una notificación revisaron su tuit inicial o decidieron no enviar su respuesta. Asimismo, después de que se les preguntara una vez, los usuarios crearon, en promedio, un 11% menos de respuestas ofensivas en el futuro.

Intentando mejorar el ecosistema

Twitter lleva meses tomando medidas destinadas mejorar su ecosistema. La llegada de estas notificaciones se produce apenas unas semanas después de que la red social anunciase su intención de crear un equipo de trabajo interdisciplinar para entender la forma en que se comporta el algoritmo. En concreto, el sitio del pajarito pretende descubrir los potenciales daños que puedan producirse con su uso, como el sesgo racial y de género en el recorte de imágenes.

En lo que se refiere al uso de lenguaje tóxico, en el que se incluyen insultos y comentarios racistas, un estudio elaborado por el Instituto Reuters de la Universidad de Oxford, que será publicado durante el presente mes de mayo que viene, sostiene que el 13% de las publicaciones vertidas en España en Twitter referentes a la Covid-19 entre agosto de 2020 y enero de 2021 fueron tóxicas. Asimismo, los investigadores notaron relación entre el empleo de palabras malsonantes y vejaciones con el número de interacciones que consiguen; lo que puede hacer que el algoritmo las premie.

«Hay una relación positiva entre los tuits tóxicos que reciben muchos ‘likes’ y retuits y su consumo. Es decir, cuanto más tóxico es un tuit más probabilidad hay de que reciba ‘me gusta’. Esa relación existe en todos los países», afirmaba recientemente en declaraciones a este diario la doctora Silvia Majó-Vázquez, directora del estudio.

Ver los
comentarios





Enlace fuente

Post Relacionados
× ¿Cómo puedo ayudarte? Available from 09:00 to 18:00