[ad_1]
James W. Marshall y ChatGPT 3.5 tienen una cosa en común. Ambos provocaron una “fiebre” y cambiaron el mundo. Si bien Marshall encontró la primera pepita de oro en enero de 1848, lo que inició una avalancha de 300.000 personas a California, el lanzamiento de ChatGPT 3.5 en noviembre de 2022 causó revuelo entre los usuarios e inversores en tecnología. IA y modelos de lenguaje grande (LLM) de repente se volvió popular, con millones de usuarios apresurándose a usar el chatbot, cambiando el mundo para siempre.
Los aspectos negativos del auge de la IA están saliendo a la luz ahora, ya sea en el manejo de los derechos de autor, los prejuicios, la ética, la privacidad, la seguridad o el impacto en los empleos. Por eso la intención de la UE de considerar cuestiones éticas y morales regulando la tecnología con la Ley de IA es oportuna y apropiada. Al mismo tiempo, quizás todas las empresas importantes del planeta hayan considerado cómo integrar inteligentemente la Inteligencia Artificial en sus sitios web, productos y servicios para aumentar productividadoptimizar la satisfacción del cliente y, en última instancia, aumentar ventas.
No haga la vista gorda ante los riesgos y efectos secundarios
Al igual que la fiebre del oro, el auge de la IA también creó una rápida afluencia de personas que se subieron al tren para no perder la oportunidad que presentaba. Sin embargo, el uso de la IA en las empresas no debería llevarse a cabo de forma similar al «Salvaje Oeste», como la fiebre del oro; en cambio, debería venir con una advertencia clara similar a la publicidad de la nicotina porque ignorar los riesgos y efectos secundarios de la IA podría, en circunstancias extremas, tener consecuencias fatales.
Los riesgos más típicos van desde que los departamentos de desarrollo compartan accidentalmente diseños o líneas de código con LLM públicos hasta cambiar las expectativas de los clientes sobre cómo las empresas utilizan la IA y los datos en el proceso. Pero estos riesgos pueden escalar exponencialmente y causar daños; por ejemplo, en 2016 cuando, microsoftTay publicó ~95.000 tweets en 16 horas, muchos de los cuales eran racistas y misóginos. Según un estudio de Cohesity, más de las tres cuartas partes de los consumidores (78 por ciento) tienen serias preocupaciones sobre el uso irrestricto o incontrolado de sus datos por parte de la IA.
Pero, ¿cómo se puede domesticar la IA? Ya se ha implementado en muchas empresas sin que nadie establezca reglas para su uso o supervise su cumplimiento, comparable a cómo la “prisa” por computación en la nube Esto ocurrió, lo que llevó a muchas empresas a reiniciar desde cero y perder tiempo y dinero. Para evitar que esto cause todos los problemas, cualquier organización que quiera utilizar la IA de manera responsable el próximo año debe regular esta proliferación internamente, controlar el acceso y tener políticas estrictas de IA. En los últimos tiempos, muchas empresas, incluidas Amazonas y el gigante financiero JPMC, han introducido restricciones para que su personal use ChatGPT para implementar un alto nivel de control antes de que se abran las compuertas y planean reintroducir suavemente el acceso apropiado a medida que se implementen políticas de uso y controles técnicos.
También es crucial que las empresas definan claramente qué datos a los que pueden acceder sus propios proyectos de IA y cómo pueden procesarlos. Los controles de acceso clásicos basados en roles que vinculan roles y tareas con fuentes de datos son una buena opción para controlar esto de manera escalable. Sólo aquellos con los privilegios necesarios pueden abrir las fuentes de datos. Estos roles también deben reflejar que alguien a quien no se le permite abrir fuentes de datos específicas por razones legales no puede hacerlo. Y que las limitaciones geográficas, como la soberanía de los datos, estén estrictamente controladas.
Lo que rara vez se comprueba actualmente -y podría volverse problemático en el futuro- es si se puede rastrear exactamente qué modelos de IA fueron alimentados (entrenados) y en qué orden, y cómo hacerlo. Este punto ciego puede tener consecuencias legales, morales y éticas. Si la IA toma una decisión fatal en el futuro, tendrá consecuencias problemáticas en al menos una o, en el peor de los casos, en todas esas áreas. Un juez riguroso querrá saber cómo se entrenaron los modelos de IA para lograr el resultado fatal. También se le pedirá que mantenga un historial completo de la versión del entrenamiento del modelo durante el período prescrito.
Haga transparentes los procesos de aprendizaje e instale un botón «atrás»
Por lo tanto, es crucial clasificar los datos introducidos y documento el proceso de aprendizaje. Esto permitirá a las empresas crear más transparencia para los clientes y mejorar la calidad del proceso de aprendizaje. También es correcto abordar esto de manera gobernada y responsable, utilizando únicamente datos aprobados apropiadamente, garantizando que la IA y su elemento humano tengan el nivel adecuado de acceso a los datos y que no puedan modificar los datos de manera inapropiada ni acceder a datos que no son. permitido ver: controles de acceso basados en roles que garantizan tanto privacidadpero también que el acceso a la IA también esté adecuadamente controlado.
Al mismo tiempo, sin embargo, el proceso de aprendizaje de la IA sigue siendo un misterio; tiene lugar en algoritmos matemáticamente complejos y, sobre todo, lleva mucho tiempo. Durante años, Tesla ha entrenado su IA para conducir de forma autónoma en situaciones de tráfico reales. Pero, ¿cómo se puede proteger la esencia de años de aprendizaje contra pérdidas y aportes incorrectos? ¿Cómo se protege ese aprendizaje de la competencia o de los actores amenazadores, que pueden querer influir negativamente en los comportamientos? ¿Cómo protege su propiedad intelectual para que no se incluya ilegalmente en la formación en IA? Un buen ejemplo de esto último es la demanda del New York Times AbiertoAI y Microsoft por el uso no permitido de artículos del NYT para capacitar a los LLM de GPT. Esto nos lleva de nuevo a abordar la IA de manera responsable y gobernada.
Hasta ahora, ninguna startup ha ideado cómo el motor de IA puede registrar qué bits y bytes se cambiaron en el proceso de aprendizaje después de ingresar datos nuevos. Cualquiera que quiera restablecer la IA a un estado anterior porque la alimentó incorrectamente (con, por ejemplo, contenido legalmente protegido) no podrá hacerlo directamente en el motor de IA. Necesitan una solución alternativa que ya se haya establecido en otras áreas de TI. En el ámbito de la seguridad informática, los métodos probados también pueden resultar útiles para proteger mejor los modelos de IA. Algunas soluciones permiten tomar instantáneas de todo el sistema y luego volver a una versión anterior en caso de emergencia. Luego se pierden los días entre la creación de la instantánea y los problemas de tiempo identificados, pero no todo el conocimiento funciona. Las empresas deben considerar esto y aprovecharlo al considerar los riesgos de la IA.
Hemos compilado una lista extensa de las mejores herramientas de inteligencia artificial.
Este artículo se produjo como parte del canal Expert Insights de TechRadarPro, donde presentamos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no son necesariamente las de TechRadarPro o Future plc. Si estás interesado en contribuir, descubre más aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro
[ad_2]
Enlace fuente