[ad_1]
Es posible que LinkedIn haya entrenado modelos de IA con datos de usuarios sin actualizar sus términos.
Los usuarios de LinkedIn en los EE. UU. (pero no en la UE, el EEE o Suiza, probablemente debido a las normas de privacidad de datos de esas regiones) tienen una opción de exclusión voluntaria. palanca En su pantalla de configuración, se revela que LinkedIn recopila datos personales para entrenar «modelos de IA de creación de contenido». El cambio no es nuevo. Pero, como se mencionó anteriormente, reportado Por 404 Media, LinkedIn inicialmente no actualizó su política de privacidad para reflejar el uso de datos.
Los términos del servicio ya han sido actualizadopero normalmente eso ocurre mucho antes de un gran cambio como el uso de los datos de los usuarios para un nuevo propósito como este. La idea es darles a los usuarios la opción de hacer cambios en la cuenta o abandonar la plataforma si no les gustan los cambios. Esta vez no parece ser así.
¿Y qué modelos de formación ofrece LinkedIn? El propio, el de la empresa dice En una sesión de preguntas y respuestas, se incluyen modelos para escribir sugerencias y recomendaciones de publicaciones. Pero LinkedIn también dice que los modelos de IA generativa en su plataforma pueden ser entrenados por “otro proveedor”, como su empresa matriz Microsoft.
“Al igual que con la mayoría de las funciones de LinkedIn, cuando interactúas con nuestra plataforma, recopilamos y usamos (o procesamos) datos sobre tu uso de la plataforma, incluidos datos personales”, se lee en la sección de preguntas y respuestas. “Esto podría incluir tu uso de la IA generativa (modelos de IA utilizados para crear contenido) u otras funciones de IA, tus publicaciones y artículos, la frecuencia con la que usas LinkedIn, tu preferencia de idioma y cualquier comentario que hayas proporcionado a nuestros equipos. Usamos estos datos, de acuerdo con nuestra política de privacidad, para mejorar o desarrollar los servicios de LinkedIn”.
LinkedIn le dijo anteriormente a TechCrunch que utiliza “técnicas de mejora de la privacidad, incluida la redacción y eliminación de información, para limitar la información personal contenida en los conjuntos de datos utilizados para el entrenamiento de IA generativa”.
Para inhabilitar el uso de datos de LinkedIn, dirígete a la sección “Privacidad de datos” del menú de configuración de LinkedIn en el escritorio, haz clic en “Datos para la mejora de la IA generativa” y luego desactiva la opción “Usar mis datos para entrenar modelos de IA para la creación de contenido”. También puedes intentar inhabilitar de forma más integral a través de este formulariopero LinkedIn señala que cualquier cancelación no afectará la capacitación que ya se haya realizado.

La organización sin fines de lucro Open Rights Group (ORG) ha pedido a la Oficina del Comisionado de Información (ICO), el regulador independiente del Reino Unido para los derechos de protección de datos, que investigue a LinkedIn y otras redes sociales que se entrenan con los datos de los usuarios de forma predeterminada. A principios de esta semana, Meta anunciado que estaba reanudando los planes de recopilar datos de los usuarios para el entrenamiento de IA después de trabajar con la ICO para simplificar el proceso de exclusión voluntaria.
“LinkedIn es la última empresa de redes sociales que procesa nuestros datos sin pedirnos nuestro consentimiento”, afirmó Mariano delli Santi, responsable jurídico y de políticas de ORG, en un comunicado. “El modelo de exclusión voluntaria demuestra una vez más ser totalmente inadecuado para proteger nuestros derechos: no se puede esperar que el público controle y persiga a todas y cada una de las empresas en línea que deciden utilizar nuestros datos para entrenar a la IA. El consentimiento voluntario no solo es obligatorio por ley, sino que es un requisito de sentido común”.
La Comisión de Protección de Datos de Irlanda (DPC), la autoridad supervisora responsable de monitorear el cumplimiento del RGPD, el marco general de privacidad de la UE, dijo a TechCrunch que LinkedIn le informó la semana pasada que hoy se emitirían aclaraciones sobre su política de privacidad global.
“LinkedIn nos informó que la política incluiría una opción de exclusión voluntaria para sus miembros que no quisieran que sus datos se utilizaran para entrenar modelos de IA que generen contenido”, dijo un portavoz de la DPC. “Esta opción de exclusión voluntaria no está disponible para los miembros de la UE/EEE, ya que LinkedIn no está utilizando actualmente los datos de los miembros de la UE/EEE para entrenar o ajustar estos modelos”.
TechCrunch se ha puesto en contacto con LinkedIn para solicitar comentarios. Actualizaremos este artículo si recibimos respuesta.
La demanda de más datos para entrenar modelos de IA generativos ha llevado a un número cada vez mayor de plataformas a readaptar o reutilizar de alguna otra forma sus enormes cantidades de contenido generado por los usuarios. Algunas incluso han optado por monetizar este contenido: el propietario de Tumblr, Automattic, Photobucket, Reddit y Stack Overflow se encuentran entre las redes que otorgan licencias de datos a los desarrolladores de modelos de IA.
No todos han facilitado la cancelación de suscripción. Cuando Stack Overflow anunciado que comenzaría a licenciar contenidos, varios usuarios eliminaron sus publicaciones en protesta — Sólo para ver esas publicaciones restauradas y sus cuentas suspendidas..
[ad_2]
Enlace fuente