
Edgar Cervantes / Autoridad Android
TL;DR
- Un desmontaje de Android Authority ha revelado que Reddit utilizará un modelo de inteligencia artificial para detectar acoso.
- El modelo se entrena en contenido que previamente fue marcado por violar los términos de Reddit.
Hemos visto grandes modelos de lenguaje (LLM) utilizados para una variedad de funciones en el último año, desde generación de texto/imágenes hasta asistentes virtuales y más. Ahora parece que podemos agregar un caso de uso más a la lista gracias a Reddit.
Un desmontaje de APK ayuda a predecir las funciones que pueden llegar a un servicio en el futuro en función del código de trabajo en progreso. Sin embargo, es posible que dichas características previstas no lleguen a un lanzamiento público.
Un desmontaje de la versión 2024.10.0 de la aplicación Reddit para Android reveló que Reddit ahora está usando un LLM para detectar acoso en la plataforma. Puede ver las cadenas relevantes a continuación.
Código
<string name="hcf_answer_how_model_trained">The harassment model is an large language model (LLM) that is trained on content that our enforcement teams have found to be violating. Moderator actions are also an input in how the model is trained.</string>
<string name="hcf_faq_how_model_trained">How is the harassment model trained?</string>
Reddit también actualizó su Pagina de soporte hace una semana para mencionar el uso de un modelo de IA como parte de su filtro de acoso.
«El filtro funciona con un modelo de lenguaje grande (LLM) que está entrenado en las acciones del moderador y el contenido eliminado por las herramientas internas y los equipos de aplicación de Reddit», se lee en un extracto de la página.
De cualquier manera, parece que los moderadores tienen otra herramienta en su arsenal para combatir el contenido objetable en Reddit. ¿Pero esto realmente hará un gran trabajo al marcar contenido? Tendremos que esperar y ver.