El regulador antimonopolio del Reino Unido ha avisado a los gigantes tecnológicos después de expresar su preocupación de que los avances en el mercado de la IA puedan sofocar la innovación.
Sarah Cardell, directora ejecutiva de la Autoridad de Mercados y Competencia del Reino Unido (CMA), pronunció un discurso discurso sobre la regulación de la inteligencia artificial en Washington DC el jueves, destacando nuevos elementos específicos de IA de un anuncio previamente anunciado investigación sobre proveedores de servicios en la nube.
La CMA también investigará cómo la asociación de Microsoft con OpenAI podría estar afectando la competencia en el ecosistema de IA más amplio. Otra parte de la investigación analizará el panorama competitivo en los chips aceleradores de IA, un segmento de mercado donde Nvidia tiene influencia.
Si bien elogió el rápido ritmo de desarrollo de la IA y las numerosas innovaciones recientes, Cardell expresó su preocupación de que los gigantes tecnológicos existentes estén ejerciendo un control indebido.
“Creemos que la creciente presencia en la cadena de valor de los modelos básicos de un pequeño número de empresas tecnológicas establecidas, que ya ocupan posiciones de poder de mercado en muchos de los mercados digitales más importantes de la actualidad, podría moldear profundamente estos nuevos mercados en detrimento de unas condiciones justas y abiertas. y competencia efectiva”, dijo Cardell en un discurso en la conferencia de primavera sobre la ley antimonopolio.
Temores de bloqueo de proveedores
La vinculación o agrupación anticompetitiva de productos y servicios está dificultando la vida de los nuevos participantes. Según Cardell, las asociaciones y las inversiones, incluso en el suministro de insumos críticos como datos, potencia informática y experiencia técnica, también representan una amenaza competitiva.
Criticó la “dinámica en la que el ganador se lo lleva todo” que ha resultado en el dominio de un “pequeño número de plataformas poderosas” en el mercado emergente de tecnologías y servicios basados en IA.
«Hemos visto casos en los que las empresas establecidas aprovechan su poder de mercado central para impedir que nuevos participantes y actores más pequeños compitan de manera efectiva, obstaculizando la innovación y el crecimiento que los mercados libres y abiertos pueden brindar a nuestras sociedades y nuestras economías», dijo.
El proyecto de ley de mercados digitales, competencia y consumidores pendiente del Reino Unido, junto con los poderes existentes de la CMA, podría otorgar a la autoridad la capacidad de promover la diversidad y las opciones en el mercado de la IA.
Amazon y Nvidia se negaron a comentar sobre el discurso de Cardell, mientras que los otros proveedores mencionados en el discurso (Google, Microsoft y OpenAI) no respondieron de inmediato.
Dan Shellard, socio de la firma europea de capital riesgo Breega y ex empleado de Google, dijo que la CMA tenía razón al preocuparse por cómo se estaba desarrollando el mercado de la IA.
«Debido a las grandes cantidades de computación, talento, datos y, en última instancia, capital necesarios para construir modelos fundamentales, la IA, por su naturaleza, se centraliza en las grandes tecnologías», dijo Shellard.
«Por supuesto, hemos visto a algunos actores europeos conseguir con éxito el capital necesario para competir, incluido Mistral, pero la realidad es que los modelos subyacentes que impulsan las tecnologías de IA siguen siendo propiedad de un grupo exclusivo».
Los recientemente votados TENGO actuar y el potencial para Regulación estadounidense en el mercado de la IA crean un panorama cambiante, en el que la CMA es sólo un actor en un movimiento en crecimiento. Según los expertos de la industria, las implicaciones de la regulación y supervisión de las herramientas de IA por parte de entidades como la CMA son significativas.
«Las regulaciones futuras pueden imponer reglas más estrictas en torno a los ‘insumos clave’ en el desarrollo, uso y venta de componentes de IA, como datos, experiencia y recursos informáticos», dijo Jeff Watkins, director de productos y tecnología de xDesign, una empresa con sede en el Reino Unido. Consultoría en diseño digital.
Mitigación de riesgos
Queda por ver cómo la regulación para evitar la concentración del poder de mercado influirá en las concentraciones existentes (de código y de datos) en torno a la IA.
James Poulter, director ejecutivo del desarrollador de herramientas de inteligencia artificial Vixen Labs, sugirió que las empresas que deseen desarrollar sus propias herramientas de inteligencia artificial deberían buscar utilizar tecnologías de código abierto para minimizar los riesgos.
“Si la CMA y otros organismos reguladores comienzan a imponer restricciones sobre cómo se entrenan los modelos básicos y, lo que es más importante, responsabilizan a los creadores por la producción de dichos modelos, es posible que veamos un aumento en las empresas que buscan adoptar un enfoque de código abierto para limitar su responsabilidad”, dijo Poulter.
Si bien las empresas de servicios financieros, los minoristas y otros deberían tomarse el tiempo para evaluar los modelos que eligen implementar como parte de una estrategia de IA, los reguladores “normalmente están predispuestos a exigir responsabilidades a las empresas que crean dichos modelos, en lugar de tomar medidas drásticas contra los usuarios, » él dijo.
Según Poulter, la privacidad de los datos es un problema mayor para las empresas que buscan implementar IA.
Poulter concluyó: “Necesitamos ver un modelo regulatorio que aliente a los usuarios de herramientas de inteligencia artificial a asumir la responsabilidad personal de cómo las usan, incluidos los datos que brindan a los creadores de modelos, además de garantizar que los proveedores de modelos básicos adopten un enfoque ético en la capacitación de modelos. y desarrollo.»
El desarrollo de regulaciones para el mercado de la IA podría introducir prácticas de gobernanza de datos más estrictas, creando dolores de cabeza adicionales en materia de cumplimiento.
«Las empresas que utilizan IA para tareas como la elaboración de perfiles de clientes o el análisis de sentimientos podrían enfrentar auditorías para garantizar que se obtenga el consentimiento del usuario para la recopilación de datos y que se sigan los principios de uso responsable de los datos», dijo Mayur Upadhyaya, director ejecutivo de APIContext. «Además, se podrían implementar estándares de autorización y seguridad de API más estrictos».
El Dr. Kjell Carlsson, jefe de estrategia de IA de Domino Data Lab, dijo: “La IA generativa aumenta los riesgos de privacidad de los datos porque facilita que los clientes y empleados interactúen directamente con los modelos de IA, por ejemplo a través de chatbots mejorados, lo que a su vez facilita personas divulguen información confidencial, que luego una organización se ve obligada a proteger. Lamentablemente, los mecanismos tradicionales de gobernanza de datos no ayudan a minimizar el riesgo de infringir el RGPD al utilizar IA porque están desconectados del ciclo de vida del modelo de IA”.
Upadhyaya de APIContext sugirió integrar mecanismos de consentimiento del usuario directamente en las interacciones con chatbots de IA y similares ofrece un enfoque para mitigar los riesgos de incumplimiento de regulaciones como el GDPR.
IA generativa, regulación