[ad_1]
Meta, la empresa matriz de Facebook, ha admitido haber recopilado publicaciones y fotos de usuarios australianos desde 2007 para entrenar los modelos de inteligencia artificial de la empresa. Esta confesión se produjo en una investigación que se llevó a cabo el 10 de septiembre en Australia, cuando se le preguntó a la directora global de privacidad de Meta, Melinda Claybaugh, sobre los esfuerzos de la empresa en el ámbito de la inteligencia artificial, en particular en cuestiones relacionadas con la privacidad de los usuarios.
Según el ABCClaybaugh confirmó que las publicaciones y fotos fueron tomadas de usuarios australianos que se registraron como mayores de 18 años para alimentar el desarrollo del modelo de lenguaje grande (LLM) de la empresa, aunque cualquiera que se registrara por debajo de ese límite de edad estaba exento. Sin embargo, las fotos de niños subidas a otras cuentas, como las de sus padres u otros miembros adultos de la familia, eran un blanco legítimo y podrían haber sido extraídas.
La admisión más evidente que se hizo durante la investigación fue que no existe una opción de exclusión voluntaria para los usuarios australianos a menos que configuren todas sus publicaciones como privadas. Esa opción existe para los usuarios de la Unión Europea, donde se aplican leyes estrictas de privacidad y protección de datos.
Explicación del raspado de contenido con inteligencia artificial de Meta
El uso de publicaciones de Facebook e Instagram por parte de Meta para entrenar sus algoritmos de IA no es una novedad. Es una práctica internacional del gigante tecnológico y se reveló en un Entrada de blog del pasado mes de septiembreEn ese momento, el gigante tecnológico dejó en claro que “no entrenamos estos modelos usando publicaciones privadas de personas” y que “tampoco usamos el contenido de sus mensajes privados con amigos y familiares para entrenar nuestras IA”.
Incluso si un usuario australiano hubiera configurado todas las publicaciones como privadas después del hecho (por ejemplo, publicaciones disponibles públicamente de 2010 que se hicieron privadas al conocerse esta noticia), queda la pregunta de si esa información permanecería dentro de la base de datos de LLM. Desafortunadamente, los informes de la El New York Times A principios de este año se indicó que los datos permanecerían en el modelo de IA incluso si se hicieran privados después de ser agregados, pero hacer que las publicaciones futuras sean privadas evitará que se agreguen a la base de datos.
No está fuera del ámbito de la posibilidad de que se introduzca una opción de exclusión voluntaria en la versión australiana de las plataformas de Meta, junto con otras regiones. El gobierno australiano está listo para revisar la Ley de Privacidad pronto y esta semana ha estado presionando para que se implemente una Prohibición total de acceso a las redes sociales para los niños (con límite de edad aún por determinar).
El rival de Meta, X (anteriormente Twitter), realiza el mismo entrenamiento de IA con publicaciones y fotos cargadas en su plataforma, sin embargo, todos los usuarios a nivel internacional han tenido la posibilidad de optar por no participar desde julio de 2024. Reddit también permite el raspado de datos para desarrollar GoogleLa IA de Géminis.
Entonces, ¿qué significa la recopilación de contenido mediante inteligencia artificial de Meta para los australianos?
Si tu contenido en Facebook e Instagram estaba configurado como privado desde que comenzaste a usar estas plataformas de redes sociales, entonces no deberías preocuparte tanto por este cambio. Meta ha dicho que no están tomando ese contenido marcado como privado y poniéndolo en su desarrollo de inteligencia artificial.
Como señaló uno de mis colegas, los usuarios que publican actualizaciones inocuas tal vez no estén demasiado preocupados por que su contenido en Facebook e Instagram se utilice para entrenar un modelo de IA, pero esto sí expone una necesidad evidente de renovar las leyes de privacidad en línea en Australia y otras partes del mundo. El producto de Facebook siempre han sido sus usuarios, pero esos usuarios necesitan protección.
Como australiano que escribe esta historia, creo que es una pena que no haya una opción de exclusión voluntaria fácilmente disponible, pero que mi propio gobierno no haga cumplir tal requisito (como en la UE) es aún más decepcionante.
Desde la perspectiva del consumidor, el hecho de que esta extracción de datos se remonte a 2007 (mucho antes de que Meta se involucrara en el desarrollo de la IA) es preocupante. Es posible que un usuario de Facebook de larga data no sepa que la empresa utiliza publicaciones y fotos para entrenar a su IA, y puede que no se sienta cómodo con ello, pero no tiene la posibilidad de eliminar su contenido que ya se ha incluido en el LLM.
Para ser justos, supongo que Meta no es el único que hace esto. Como he mencionado antes, los datos de los usuarios de Reddit y X también alimentan el desarrollo de la IA (en Gemini de Google y Grok de X respectivamente) y todo el tema de la IA se ha visto inundado de robo de contenido y de obtención de información de sitios web sin permiso. Es un tema de mucho debate acalorado.
Mi opinión sobre esta noticia es que las leyes de privacidad en línea de Australia deberían haberse actualizado hace tiempo y que esto es una inversión del modelo comercial de larga data de Facebook de vender anuncios. En lugar de que el usuario sea el producto, ellos están produciendo el producto. Facebook puede reclamar el contenido subido a sus plataformas, pero es una pérdida de poder para los usuarios no aparecer en los créditos, no recibir un pago y no recibir alertas sobre la contribución de sus fotos y publicaciones a un producto de inteligencia artificial.
Techradar se ha puesto en contacto con Meta para informarle sobre las vías de eliminación de contenido para sus modelos de IA, así como sobre cómo Meta informa a los usuarios sobre el uso de contenido para entrenar a la IA y para preguntarle para qué productos utiliza la empresa los datos. Actualizaremos este artículo si recibimos una respuesta.
También te podría gustar…
[ad_2]
Enlace fuente