Después de provocar un aumento en servicio VPN descargas tras una prohibición temporal hace aproximadamente un año, Abierto AI se enfrenta una vez más a problemas en la Unión Europea. ¿El culpable esta vez? ChatGPTLos problemas de alucinaciones.
Popular chatbot de IA es famoso por inventar información falsa sobre individuos, algo que OpenAI ciertamente no puede arreglar o controlar, dicen los expertos. Es por eso que el grupo de derechos digitales Noyb, con sede en Austria (estilizado como nocheabreviatura de «no es asunto tuyo») presentado una denuncia a la autoridad de protección de datos del país el 29 de abril de 2024, por supuestamente violar RGPD normas.
La organización ahora insta al organismo austriaco de protección de la privacidad a investigar cómo OpenAI verifica la exactitud de los datos personales de los ciudadanos. Noyb también pide a las autoridades que impongan una multa para garantizar el cumplimiento del RGPD en el futuro.
La desinformación de ChatGPT: un problema del RGPD
Ya hemos hablado de cómo ChatGPT y chatbots de IA similares probablemente nunca dejes de inventar cosas. Esto es bastante preocupante teniendo en cuenta que «los chatbots inventan información al menos el tres por ciento de las veces, y hasta el 27 por ciento». el New York Times informó.
Claro, es posible que podamos aprender a lidiar con la información errónea generada por la IA entrenándonos para detectar hechos falsos antes de caer en ellos. Sin embargo, los expertos sostienen ahora que estas «alucinaciones de IA» en realidad también son perjudiciales para nuestra privacidad.
«Inventar información falsa es bastante problemático en sí mismo. Pero cuando se trata de información falsa sobre personas, puede haber consecuencias graves», afirmó Maartje de Graaf, abogado de protección de datos de noyb. Peor aún, la inexactitud de ChatGPT va de facto en contra de las leyes de la UE.
De hecho, según el artículo 5 del RGPD, toda la información en línea sobre personas en la UE debe ser precisa. Mientras que, según el artículo 16, todos los datos inexactos o falsos deben ser rectificados. El artículo 15 otorga entonces a los europeos «el derecho de acceso», exigiendo a las empresas que muestren qué datos tienen sobre los individuos y cuáles son sus fuentes.
Sin embargo, cuando el fundador de noyb, Max Schrems, decidió cuestionar el cumplimiento del señor de la IA por el error de ChatGPT en la fecha correcta de su cumpleaños, OpenAI admitió que no podía hacer ninguna de las dos cosas anteriores. En lugar de rectificar o borrar los datos, la empresa dijo que podría justo filtrar o bloquear la información para que aparezca en ciertos mensajes. Sin embargo, esto sólo habría sido posible filtrando por completo toda la información sobre él.
Según de Graaf, esto es una señal clara de que las empresas tecnológicas actualmente no pueden desarrollar chatbots de IA que cumplan con la legislación de la UE. «La tecnología debe cumplir los requisitos legales y no al revés», afirmó. «Parece que con cada ‘innovación’, otro grupo de empresas piensa que sus productos no tienen por qué cumplir la ley.»
🚨 noyb ha presentado una denuncia contra el creador de ChatGPT OpenAIOpenAI admite abiertamente que no puede corregir información falsa sobre las personas en ChatGPT. La empresa ni siquiera puede decir de dónde provienen los datos. Lea todo al respecto aquí 👇https://t.co/gvn9CnGKOb29 de abril de 2024
Después de su primer lanzamiento en noviembre de 2022, ChatGPT rápidamente se volvió popular. A lo largo de 2023, la IA chatbot La carrera dominó el mundo de la tecnología y los jugadores más importantes desarrollaron sus iteraciones. Desde estudiantes, médicos y abogados hasta artistas e incluso ciberatacantes, todos parecen utilizar los productos de OpenAI o aplicaciones similares.
Como ocurre con todas las innovaciones tecnológicas, el público se ha dividido entre los entusiastas del potencial de la IA y los preocupados por su poder. Algunos expertos se preguntan si ChatGPT es lo último pesadilla de privacidadtambién.
Estas preocupaciones eventualmente se convirtieron en problemas de la vida real para OpenAI en Europa. Los problemas comenzaron en marzo de 2023, cuando Italia ChatGPT bloqueado por recopilar y almacenar incorrectamente datos de italianos. Después de eso, otros países de la UE, incluidos Francia, Alemania e Irlanda, comenzaron a investigar el asunto. A Grupo de trabajo ChatGPT Entonces nació el objetivo de coordinar los esfuerzos nacionales. Sin embargo, los expertos de noyb consideran que los esfuerzos de las autoridades hasta el momento han sido en gran medida infructuosos.
«Por ahora, OpenAI ni siquiera parece pretender que pueda cumplir con el RGPD de la UE», argumenta el grupo.
Por eso noyb decidió tomar cartas en el asunto. El grupo está pidiendo a la autoridad austriaca de protección de datos (DSB) que investigue cómo OpenAI maneja los datos de las personas para alinear su procesamiento con el RGPD.