[ad_1]
Por eso no podemos tener cosas bonitas: Wikipedia se encuentra en medio de una crisis de edición en este momento, gracias a la IA. La gente ha comenzado a inundar el sitio web con información sin sentido ideada por grandes modelos de lenguaje como ChatGPT. Pero, sinceramente, ¿quién no lo vio venir?
Wikipedia tiene una nueva iniciativa llamada Limpieza de IA de WikiProject. Es un grupo de trabajo de voluntarios que actualmente revisan artículos de Wikipedia, editar o eliminar Información falsa que parece haber sido publicada por personas que utilizan IA generativa.
Ilyas Lebleu, miembro fundador del equipo de limpieza, dijo a 404 Media que la crisis comenzó cuando los editores y usuarios de Wikipedia comenzaron a ver pasajes que sin lugar a dudas habían sido escritos por algún tipo de chatbot. El equipo confirmó la teoría recreando algunos pasajes utilizando ChatGPT.
«Algunos de nosotros habíamos notado la prevalencia de escritura antinatural que mostraba claros signos de haber sido generada por IA, y logramos replicar ‘estilos’ similares usando ChatGPT», dijo Lebleu. «El descubrimiento de algunas frases comunes de la IA nos permitió detectar rápidamente algunos de los ejemplos más atroces de artículos generados, que rápidamente quisimos formalizar en un proyecto organizado para compilar nuestros hallazgos y técnicas».
1: La IA alucina acontecimientos, personajes históricos y conceptos completos en Wikipedia
2: un grupo de trabajo de editores de Wikipedia está detectando y eliminando este material https://t.co/PlfzVCZd4P
–Jason Koebler (@jason_koebler) 9 de octubre de 2024
Por ejemplo, hay un artículo sobre una fortaleza otomana construida en el siglo XV llamada «Amberlisihar». El artículo de 2.000 palabras detalla la ubicación y construcción del hito. Desafortunadamente, Amberlisihar no existe, y toda la información al respecto es una completa alucinación salpicada de suficiente información fáctica para darle cierta credibilidad.
La travesura tampoco se limita al material recién publicado. Los malos actores están insertando información falsa generada por IA en artículos existentes que los editores voluntarios ya han examinado. En un ejemplo, alguien había insertado una sección citada correctamente sobre una especie de cangrejo en particular en un artículo sobre un escarabajo no relacionado.
Lebleu y sus compañeros editores dicen que no saben por qué la gente hace esto, pero seamos honestos: todos sabemos que esto sucede por dos razones principales. El primero es un problema inherente al modelo de Wikipedia: cualquiera puede ser editor en la plataforma. Muchas universidades no aceptan que los estudiantes entreguen artículos que citan Wikipedia por este motivo exacto.
La segunda razón es simplemente que Internet lo arruina todo. Lo hemos visto una y otra vez, particularmente con las aplicaciones de IA. Recuerde a Tay, el robot de Twitter de Microsoft que consiguió tirado en menos de 24 horas cuando empezó a publicar tweets vulgares y racistas? Las aplicaciones de IA más modernas son tan susceptibles a abusos como hemos visto con deepfakesridículo generado por IA libros de pala en Kindle y otros engaños.
Cada vez que al público se le permite un acceso prácticamente ilimitado a algo, se puede esperar que un pequeño porcentaje de usuarios abuse de ello. Cuando hablamos de 100 personas, puede que no sea gran cosa, pero cuando son millones, tendrás un problema. A veces, es para obtener ganancias ilícitas. Otras veces, es sólo porque pueden. Tal es el caso de la situación actual de Wikipedia.
[ad_2]
Enlace fuente