Uno de los cuatro temas clave del Foro Económico Mundial de este año en Davos fue “Inteligencia artificial (IA) como fuerza impulsora de la economía y la sociedad”. Hubo entre 10 y 15 sesiones que al menos tocaron AI, si no se centra exclusivamente en esta tecnología tan influyente. Si bien muchos de estos paneles enfatizaron los beneficios potenciales de la IA generativa y los grandes modelos de lenguaje (LLM) para industrias como la tecnología financiera, la investigación de la salud y la ciencia climática, se puso un énfasis aún mayor en la preocupación por el alcance generalizado de la IA en nuestras vidas personales y el ramificaciones potenciales.
Para que la IA sea efectiva, se requieren cantidades masivas de datos desde el cual se entrena. Los resultados positivos de esto incluyen modelos de aprendizaje profundo que pueden reconocer patrones complejos para producir predicciones precisas, por ejemplo, permitiendo la biometría para la seguridad nacional y financiero protección contra fraude. El uso más frecuente hoy en día de la IA emergente es en algoritmos de big data para anuncios dirigidos y traducción en tiempo real. aplicacionesque mejoran continuamente a través de conjuntos de datos cada vez más amplios.
Sin embargo, se debe trazar una línea entre la información disponible públicamente para entrenar sistemas de IA y los datos personales y de propiedad que se explotan y analizan cada vez más sin el consentimiento del usuario y a pesar de ser de naturaleza sensible. Un ejemplo de esto es la seguridad biométrica, que, si bien es excelente para proteger nuestras fronteras, también es muy personal y puede usarse fácilmente de manera nefasta si cae en las manos equivocadas.
Esto plantea otro tema de preocupación con la IA: la posibilidad de fugas e infracciones. Desafortunadamente, la mayoría de las plataformas y aplicaciones de IA y LLM existentes (como ChatGPT) están plagados de vulnerabilidades, hasta el punto de que muchas grandes empresas han prohibido su uso para proteger sus secretos de propiedad, una tendencia que vemos ganando escala y alcance.
Por lo tanto, entre los temas predominantes en Davos también estuvo la extrema necesidad de regular y limitar el alcance de la IA, presente y futuro, especialmente en lo que respecta a privacidad. Ya existe mucha regulación relacionada con los datos, como HIPAA, GDPR y CCPA/CPRA, pero dicha legislación requiere que las empresas sean transparentes sobre el uso que hacen de la información privada, o permite a los consumidores optar por no participar en programas que de otra manera utilizar sus datos personales. Esto es eficaz en términos de fomentar la rendición de cuentas, pero la regulación y las políticas en realidad no pueden proteger los datos de filtraciones o ataques vectoriales.
Especialista senior en marketing en Chain Reaction, Ltd.
Desafíos en el procesamiento seguro de datos
El único medio para proteger verdaderamente nuestra privacidad es mediante la aplicación proactiva de las medidas tecnológicas más seguras y novedosas a nuestra disposición, aquellas que garanticen un fuerte énfasis en la privacidad y los datos. cifradoal tiempo que permite que tecnologías innovadoras como los modelos generativos de IA y las herramientas de computación en la nube tengan acceso total a grandes conjuntos de datos para alcanzar su máximo potencial.
La protección de datos cuando están en reposo (es decir, almacenados) o en tránsito (es decir, moviéndose a través de redes) es algo omnipresente. Los datos están cifrados, lo que suele ser suficiente para garantizar que permanezcan a salvo de accesos no deseados. El desafío abrumador es cómo proteger también los datos mientras están en uso (es decir, mientras se procesan y analizan).
La principal tecnología de mejora de la privacidad que se utiliza hoy en día a escala es la Computación Confidencial, que intenta salvaguardar la propiedad intelectual y los datos confidenciales de una empresa mediante la creación de un enclave dedicado, llamado Entorno de Ejecución Confiable (TEE), en la CPU del servidor donde se procesan los datos confidenciales. El acceso al TEE está restringido para garantizar que cuando los datos que contiene se descifran para su procesamiento, ninguno de los recursos informáticos más allá de los que se utilizan dentro del TEE pueda acceder a ellos.
Un problema importante con Confidential Computing es que no puede escalarse lo suficiente como para cubrir la magnitud de los casos de uso necesarios para manejar todos los modelos de IA e instancias de nube posibles. Debido a que se debe crear y definir un TEE para cada caso de uso específico, el tiempo, el esfuerzo y el costo involucrados en la protección de los datos son restrictivos.
Sin embargo, el mayor problema de la informática confidencial es que no es infalible. Los datos del TEE aún deben estar sin cifrar para poder procesarlos, lo que abre la posibilidad de que los vectores de ataque cuánticos exploten las vulnerabilidades del entorno. Si los datos se descifran en cualquier momento de su ciclo de vida, quedan potencialmente expuestos. Además, cuando la IA o las herramientas informáticas acceden a datos personales, incluso en el TEE, todo el anonimato se pierde una vez que se descifran.
Revolucionando la privacidad de los datos
La única tecnología poscuántica para la privacidad es el cifrado totalmente homomórfico (FHE) basado en celosía, que permite el procesamiento de datos mientras permanecen cifrados durante todo su ciclo de vida, incluso mientras se procesan. Esto garantiza que no pueda haber fugas ni violaciones de datos, y garantiza el anonimato de los datos que se utilizan.
Los beneficios de FHE se sienten tanto en la eficacia de la IA como en computación en la nube herramientas y en el aseguramiento de la seguridad de las personas y de las empresas encargadas de proteger sus datos. Por ejemplo, imaginemos cuánto más eficaz puede ser un modelo de IA para la detección temprana del cáncer cuando tiene acceso a millones de registros de pacientes en lugar de miles. Y, sin embargo, cada uno de esos registros permanece cifrado de forma segura, lo que garantiza que no puedan ser violados ni filtrados, y que el modelo no conozca a ningún paciente. Por lo tanto, la confidencialidad se mantiene en todo momento.
El único obstáculo que hasta ahora ha restringido la adopción y el uso de FHE a escala es la enorme carga de procesamiento que implica superar profundos cuellos de botella en la memoria, la computación y el ancho de banda. Se estima que implementar FHE en un centro de datos en la nube a hiperescala requeriría una aceleración un millón de veces mayor que las CPU y GPU de última generación actuales. En los últimos años ha surgido un número creciente de soluciones basadas en software, aunque tienen dificultades para escalar lo suficiente como para satisfacer las demandas del aprendizaje automático, el aprendizaje profundo, las redes neuronales y las pesadas operaciones de algoritmos computacionales en la nube.
Sólo una arquitectura dedicada puede abordar estos cuellos de botella específicos y hacer posible FHE en tiempo real con un TCO equivalente al del procesamiento de datos no cifrados, de modo que el usuario final no pueda distinguir entre el procesamiento en una CPU o en cualquier otro tipo de procesador. . Como tal, resulta cada vez más obvio por qué Sam Altman, director ejecutivo de Abierto AIestá invirtiendo mil millones de dólares en el desarrollo de un procesador de hardware dedicado para LLM privados, y los proveedores de servicios en la nube a hiperescala están haciendo lo mismo.
Privacidad: la próxima frontera
Ahora que la IA generativa se ha convertido en una pieza central de Davos y otros foros globales, está atrayendo con razón la atención que merece, tanto por su beneficio potencial para la sociedad como por sus deficiencias. Cualquier análisis de los desafíos que plantea la IA inevitablemente se centrará en la privacidad como modelo.
Por lo tanto, la privacidad se está convirtiendo rápidamente en la próxima industria tecnológica masiva. A medida que surgen cada vez más avances tecnológicos que aprovechan nuestros datos personales, y a medida que los datos se crean y procesan a un ritmo exponencial, mayor es la demanda de medidas de seguridad para garantizar nuestra privacidad.
La regulación no puede protegernos. Sólo una solución tecnológica puede abordar un problema tecnológico. Y en materia de privacidad, sólo prevalecerá una solución poscuántica dedicada.
Hemos presentado la mejor VPN empresarial.
Este artículo se produjo como parte del canal Expert Insights de TechRadarPro, donde presentamos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no son necesariamente las de TechRadarPro o Future plc. Si estás interesado en contribuir, descubre más aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro