Todavía falta transparencia en torno a cómo se entrenan los modelos básicos y esta brecha puede generar una tensión creciente con los usuarios a medida que más organizaciones buscan adoptarlos. inteligencia artificial (AI).
En Asia-Pacífico, excluida China, gasto en IA Se prevé que crezca un 28,9%, de 25.500 millones de dólares en 2022 a 90.700 millones de dólares en 2027, según IDC. La firma de investigación estimó que la mayor parte de este gasto, un 81%, se dirigirá a aplicaciones de IA predictivas e interpretativas.
También: Cinco formas de utilizar la IA de forma responsable
Entonces, si bien hay mucho exageración en torno a la IA generativael segmento de IA representará solo el 19% del gasto en IA de la región, señaló Chris Marshall, vicepresidente de datos, análisis, IA, sostenibilidad e investigación industrial de IDC Asia-Pacífico.
La investigación destaca un mercado que necesita un enfoque más amplio de la IA que vaya más allá de la IA generativa, dijo Marshall, quien habló en la Cumbre Intel AI celebrada en Singapur esta semana.
Sin embargo, el 84% de las organizaciones de Asia y el Pacífico creen que aprovechar los modelos de IA generativa ofrecerá una ventaja competitiva significativa para sus negocios, señaló IDC. Al hacerlo, estas empresas esperan lograr mejoras en la eficiencia operativa y la productividad de los empleados, mejorar la satisfacción del cliente y desarrollar nuevos modelos de negocio, añadió la firma de investigación.
También: Los mejores chatbots con IA: ChatGPT y otras alternativas destacadas
IDC también espera que la mayoría de las organizaciones de la región aumenten el gasto en TI este año, y se proyecta que el 75% de los datos empresariales se generarán y procesarán en el borde para 2025, fuera de los centros de datos tradicionales y la nube.
«Para llevar realmente la IA a todas partes, las tecnologías utilizadas deben proporcionar accesibilidad, flexibilidad y transparencia a los individuos, las industrias y la sociedad en general», afirmó Alexis Crowell, CTO de Intel para Asia-Pacífico Japón. «A medida que presenciamos un crecimiento creciente en las inversiones en IA, los próximos años serán críticos para que los mercados construyan su base de madurez en IA de una manera responsable y reflexiva».
Los actores de la industria y los gobiernos a menudo han promocionado la importancia de generar confianza y transparencia en la IA, y que los consumidores sepan que los sistemas de IA son «justo, explicable y seguro«. Sin embargo, esta transparencia parece todavía faltar en algunos aspectos clave.
Cuando ZDNET preguntó si actualmente había suficiente transparencia sobre cómo se entrenaban los modelos de lenguajes grandes abiertos (LLM) y los modelos básicos, Crowell dijo: «No, no es suficiente».
También: El auge actual de la IA amplificará los problemas sociales si no actuamos ahora
Señaló un estudio realizado por investigadores de la Universidad de Stanford, el MIT y Princeton quien evaluó la transparencia de 10 modelos de fundaciones principales, en los que la plataforma con mejor puntuación solo logró una puntuación del 54%. «Esa es una nota reprobatoria», dijo durante una conferencia de prensa en la cumbre.
La puntuación media fue de sólo el 37%, según el estudio, que evaluó los modelos basándose en 100 indicadores, incluidos los procesos involucrados en la construcción del modelo, como información sobre los datos de entrenamiento, la arquitectura y los riesgos del modelo, y las políticas que rigen su uso. . El máximo anotador con un 54% fue Llama 2 de Meta, seguido por Bloomz de BigScience con un 53% y GPT-4 de OpenAI con un 48%.
«Ningún desarrollador importante de modelos de base está cerca de proporcionar una transparencia adecuada, lo que revela una falta fundamental de transparencia en la industria de la IA», señalaron los investigadores.
La transparencia es necesaria
Crowell expresó su esperanza de que esta situación pueda cambiar con la disponibilidad de puntos de referencia y organizaciones que monitorean estos desarrollos. Agregó que demandas, como las iniciadas por New York Times contra OpenAI y Microsoftpodría contribuir a aportar mayor claridad jurídica.
En particular, debería haber marcos de gobernanza similar a las legislaciones de gestión de datos, incluido el GDPR (Reglamento general de protección de datos) de Europa, para que los usuarios sepan cómo se utilizan sus datos, señaló.
Las empresas también necesitan tomar decisiones de compra basadas en cómo sus datos es capturado y hacia dónde va, dijo, añadiendo que la creciente tensión Los usuarios exigen más transparencia. podría impulsar la acción de la industria.
Tal como están las cosas, el 54% de los usuarios de IA no confían en datos utilizados para entrenar sistemas de IAreveló una reciente encuesta de fuerza de ventasque encuestó a casi 6.000 trabajadores del conocimiento en nueve mercados, incluidos Singapur, India, Australia, el Reino Unido, Estados Unidos y Alemania.
Contrariamente a la creencia común, la precisión no tiene por qué ir a expensas de la transparencia, afirmó Crowell, citando un informe de investigación. liderado por Boston Consulting Group.
El informe analizó el rendimiento de los modelos de IA de caja blanca y negra en casi 100 conjuntos de datos de clasificación de referencia, incluidos precios, diagnóstico médico, predicción de quiebras y comportamiento de compra. Para casi el 70% de los conjuntos de datos, los modelos de caja negra y de caja blanca produjeron resultados igualmente precisos.
«En otras palabras, la mayoría de las veces no hubo compensación entre precisión y explicabilidad», dice el informe. «Se podría utilizar un modelo más explicable sin sacrificar la precisión».
Sin embargo, lograr una transparencia total sigue siendo un desafío, dijo Marshall, quien señaló que las discusiones sobre la explicabilidad de la IA alguna vez fueron animadas, pero que desde entonces se han calmado porque es un tema difícil de abordar.
También: Cinco formas de prepararse para el impacto de la IA generativa en la profesión de TI
Es posible que las organizaciones detrás de los principales modelos de fundaciones no estén dispuestas a revelar sus datos de capacitación por temor a ser demandadas, dijo Laurence Liew, director de innovación de IA para la agencia gubernamental AI Singapur (AISG).
Añadió que ser selectivo con los datos de entrenamiento también afectaría las tasas de precisión de la IA.
Liew explicó que AISG decidió no utilizar ciertos conjuntos de datos debido a los posibles problemas al utilizar todos los disponibles públicamente con su propia Iniciativa LLM, SEA-LION (Idiomas del Sudeste Asiático en una red).
Como resultado, la arquitectura de código abierto no es tan precisa como la de algunos de los principales LLM del mercado actual, afirmó. «Es un delicado equilibrio», señaló, y agregó que lograr una alta tasa de precisión significaría adoptar un enfoque abierto para utilizar cualquier dato disponible. Elegir el camino «ético» y no tocar ciertos conjuntos de datos significará una tasa de precisión más baja que la alcanzada por los actores comerciales, dijo.
Pero si bien Singapur ha elegido un alto nivel ético con SEA-LION, a menudo sigue siendo cuestionado por los usuarios que exigen que se aprovechen más conjuntos de datos para mejorar la precisión del LLM, dijo Liew.
Un grupo de autores y editores en Singapur expresaron el mes pasado su preocupación sobre la posibilidad de que su trabajo pueda usarse para entrenar SEA-LION. Entre sus quejas está la aparente falta de compromiso de «pagar una compensación justa» por el uso de todos los escritos. También señalaron la necesidad de claridad y reconocimiento explícito de que las leyes de propiedad intelectual y derechos de autor del país, y los acuerdos contractuales existentes, se respetarán al crear y capacitar LLM.
Ser transparente sobre el código abierto
Tal reconocimiento también debería extenderse a los marcos de código abierto en los que se pueden desarrollar aplicaciones de IA, según Matt Hicks, director ejecutivo de Red Hat.
Los modelos se entrenan a partir de grandes volúmenes de datos proporcionados por personas con derechos de autor y el uso responsable de estos sistemas de IA significa adherirse a las licencias con las que se construyen, dijo Hicks, durante una conferencia de prensa virtual esta semana tras la Cumbre Red Hat 2024.
También: ¿Quieres trabajar en IA? Cómo dar un giro a tu carrera en 5 pasos
Esto es pertinente para los modelos de código abierto que pueden tener distintas variantes de licencia, incluidas licencias copyleft como GPL y licencias permisivas como Apache.
Subrayó la importancia de la transparencia y de asumir la responsabilidad de comprender los modelos de datos y manejar los resultados que generan los modelos. Tanto para la seguridad como para las arquitecturas de IA, es necesario garantizar que los modelos estén protegidos contra ataques maliciosos.
Red Hat busca ayudar a sus clientes con tales esfuerzos a través de una serie de herramientas, incluida Red Hat Enterprise Linux AI (RHEL AI), que presentó en la cumbre. El producto consta de cuatro componentes, incluido el lenguaje Open Granite y los modelos de código de la comunidad InstructLab, que cuentan con el respaldo y la indemnización de Red Hat.
El enfoque aborda los desafíos que las organizaciones a menudo enfrentan en su implementación de IA, incluida la gestión del ciclo de vida de la aplicación y el modelo, dijo el proveedor de código abierto.
«[RHEL AI] «Crea una plataforma de modelo base para llevar modelos GenAI con licencia de código abierto a la empresa», dijo. «Con las herramientas de alineación InstructLab, los modelos Granite y RHEL AI, Red Hat pretende aplicar los beneficios de los verdaderos proyectos de código abierto, de libre acceso y reutilizable, transparente y abierto a contribuciones, a GenAI en un esfuerzo por eliminar estos obstáculos».