«La Oficina de Ciberseguridad ha considerado que la aplicación Microsoft Copilot es un riesgo para los usuarios debido a la amenaza de filtrar datos de la Cámara a servicios en la nube no aprobados por la Cámara», dijo la oficina de Szpindor. Las fugas de datos han sido un problema para las herramientas de IA generativa desde que llegó ChatGPT de OpenAI. En mayo del año pasado, El periodico de Wall Street informó que Apple advirtió a los empleados contra el uso de herramientas como el asistente Copilot de GitHub para codificar y ChatGPT. Después de descubrir rastros de fuga de datos, Samsung también prohibió a su personal usar ChatGPT.
Unos meses más tarde, en junio, los expertos de Robust Intelligence con sede en San Francisco demostraron cómo se puede engañar al software NeMo Framework AI de Nvidia para que revele información privada y salte sus medidas de seguridad. La Comisión Federal de Comercio de EE. UU. también investigó a ChatGPT por poner en riesgo la seguridad de los datos. En noviembre del año pasado, expertos de la Universidad Northwestern descubrieron métodos para engañar a los GPT personalizados para que revelen información confidencial.
Un mes después, documentos filtrados obtenidos por El juego de plataformas reveló los problemas de alucinaciones con el chatbot Q de Amazon y que estaba filtrando datos confidenciales como la ubicación de los centros de datos, funciones inéditas y programas de descuentos. En otro incidente, ChatGPT reveló datos personales como la información bancaria del usuario, lo que obligó a la empresa a desconectarla brevemente. Con una historia tan inestable, no sorprende que Copilot de Microsoft haya sido prohibido en las máquinas oficiales, aunque no se puede impedir que el personal del Congreso use estas herramientas en sus dispositivos personales.