[ad_1]
La IA crea un dilema para las empresas: si no la implementa todavía, podría perderse ganancias de productividad y otros beneficios potenciales; pero si lo hace mal, podría exponer a su empresa y a sus clientes a riesgos absolutos. Aquí es donde entra una nueva ola de startups de “seguridad para IA”, con la premisa de que estas amenazas, como el jailbreak y la inyección rápida, no pueden ignorarse.
Como una startup israelí O y competidores con sede en EE. UU. Capa oculta y Proteger la IAspin-off de la universidad británica guardia mental es uno de estos. «La IA sigue siendo software, por lo que todos los riesgos cibernéticos de los que probablemente haya oído hablar también se aplican a la IA», dijo su director ejecutivo y director de tecnología, el profesor Peter Garraghan (a la derecha en la imagen de arriba). Pero, «si nos fijamos en la naturaleza opaca y el comportamiento intrínsecamente aleatorio de las redes y sistemas neuronales», añadió, esto también justifica un nuevo enfoque.
En el caso de Mindgard, dicho enfoque es una prueba dinámica de seguridad de aplicaciones para IA (DAST-AI) dirigida a vulnerabilidades que solo se pueden detectar durante el tiempo de ejecución. Esto implica un equipo rojo continuo y automatizado, una forma de simular ataques basados en la biblioteca de amenazas de Mindgard. Por ejemplo, puede probar la solidez de los clasificadores de imágenes. contra entradas adversas.
En ese frente y más allá, la tecnología de Mindgard se debe a la experiencia de Garraghan como profesor e investigador centrado en la seguridad de la IA. El campo está evolucionando rápidamente: ChatGPT no existía cuando ingresó, pero sintió que la PNL y los modelos de imágenes podrían enfrentar nuevas amenazas, le dijo a TechCrunch.
Desde entonces, lo que parecía una visión de futuro se ha hecho realidad dentro de un sector de rápido crecimiento, pero los LLM siguen cambiando, al igual que las amenazas. Garraghan cree que sus vínculos actuales con la Universidad de Lancaster pueden ayudar a la empresa a mantenerse al día: Mindgard será automáticamente propietario de la propiedad intelectual del trabajo de 18 investigadores de doctorado adicionales durante los próximos años. «No hay ninguna empresa en el mundo que consiga un trato como este».
Si bien tiene vínculos con la investigación, Mindgard ya es en gran medida un producto comercial y, más precisamente, una plataforma SaaS, con el cofundador Steve Street a la cabeza como COO y CRO. (Uno de los primeros cofundadores, Neeraj Suri, que participó en la investigación, ya no está en la empresa).
Las empresas son un cliente natural para Mindgard, al igual que los tradicionales red teamers y pen testers, pero la compañía también trabaja con nuevas empresas de IA que necesitan mostrar a sus clientes que previenen los riesgos de la IA, dijo Garraghan.
Dado que muchos de estos posibles clientes tienen su sede en EE. UU., la empresa añadió algo de sabor estadounidense a su tabla de capitalización. Después de levantar un Ronda inicial de £ 3 millones En 2023, Mindgard anuncia ahora una nueva ronda de 8 millones de dólares liderada por .406 Ventures, con sede en Boston, con la participación de Atlantic Bridge, WillowTree Investments y los inversores existentes IQ Capital y Lakestar.
La financiación ayudará a “construir el equipo, el desarrollo de productos, I+D y todo lo que se puede esperar de una startup”, pero también se expandirá a los EE. UU. Su recientemente nombrado vicepresidente de marketing, el ex CMO de Next DLP, Fergal Glynn, tiene su sede en Bostón. Sin embargo, la empresa también planea mantener la I+D y la ingeniería en Londres.
Con una plantilla de 15 personas, el equipo de Mindgard es relativamente pequeño y seguirá siéndolo, con planes de llegar a entre 20 y 25 personas a finales del próximo año. Esto se debe a que la seguridad de la IA «ni siquiera está en su apogeo todavía». Pero cuando la IA comience a implementarse en todas partes y las amenazas a la seguridad sigan su ejemplo, Mindgard estará listo. Garraghan dice: «Creamos esta empresa para hacer un bien positivo para el mundo, y el bien positivo aquí es que las personas pueden confiar y utilizar la IA de forma segura».
[ad_2]
Enlace fuente