Incluso cuando estas herramientas de búsqueda de IA citaron fuentes, a menudo ordenaban a los usuarios que sindicaban versiones de contenido en plataformas como Yahoo News en lugar de sitios de editoriales originales. Esto ocurrió incluso en los casos en que los editores tenían acuerdos formales de licencia con compañías de IA.
La fabricación de URL surgió como otro problema significativo. Más de la mitad de las citas de los usuarios Gemini y Grok 3 de Google llevaron a los usuarios a URL fabricadas o rotas, lo que resulta en páginas de error. De 200 citas probadas de Grok 3, 154 dieron como resultado enlaces rotos.
Estos problemas crean una tensión significativa para los editores, que enfrentan decisiones difíciles. El bloqueo de los rastreadores de IA puede conducir a la pérdida de atribución por completo, mientras que permitirlos permite una reutilización generalizada sin llevar el tráfico de regreso a los sitios web de los editores.

Mark Howard, director de operaciones de la revista Time, expresó su preocupación a CJR por garantizar la transparencia y el control sobre cómo aparece el contenido de Time a través de búsquedas generadas por AI. A pesar de estos problemas, Howard ve margen de mejora en las iteraciones futuras, afirmando: «Hoy es lo peor que el producto será», citando inversiones sustanciales y esfuerzos de ingeniería destinados a mejorar estas herramientas.
Sin embargo, Howard también avergonzó a algunos usuarios, lo que sugiere que es culpa del usuario si no es escéptico con la precisión de las herramientas de IA gratuitas: «Si alguien como consumidor cree que cualquiera de estos productos gratuitos será 100 por ciento preciso, entonces avergüenza».
Operai y Microsoft proporcionaron declaraciones a CJR reconociendo la recepción de los hallazgos, pero no abordaron directamente los problemas específicos. Openai señaló su promesa de apoyar a los editores impulsando el tráfico a través de resúmenes, citas, enlaces claros y atribución. Microsoft declaró que se adhiere a los protocolos de exclusión de robots y las directivas del editor.
El último informe se basa en Hallazgos anteriores Publicado por The Tow Center en noviembre de 2024, que identificó problemas de precisión similares en cómo ChatGPT manejó el contenido relacionado con las noticias. Para obtener más detalles sobre el informe bastante exhaustivo, consulte Sitio web de Columbia Periodism Review.