[ad_1]

Tapar los agujeros de seguridad es vital para mantener inteligencia artificial generativa (IA) modelos a salvo de malos actores, generación de imágenes dañinas y otros posibles usos indebidos. Para garantizar que algunos de sus proyectos de IA más recientes y más importantes sean lo más seguros posible, Adobe el miércoles expandido su programa de recompensas por errores, que recompensa a los investigadores de seguridad por encontrar y revelar errores, incluye Content Credentials y Adobe Firefly.
Credenciales de contenido son metadatos a prueba de manipulaciones adjuntos al contenido digital que sirven como una «etiqueta nutricional», lo que permite a los usuarios ver los «ingredientes» del contenido, como el nombre del creador, la fecha de creación, cualquier herramienta utilizada para crear la imagen (incluidos los modelos generativos de IA), y las ediciones realizadas.
En la era de las imágenes generadas por IA, esta herramienta de procedencia puede ayudar a las personas a determinar sintético a partir de contenido creado por humanos. Sin embargo, esto solo funciona si las Credenciales de contenido son a prueba de manipulaciones y se utilizan según lo diseñado. Adobe ahora está colaborando en esfuerzos de seguridad para las credenciales de contenido a través de su programa de recompensas por errores para reforzar las protecciones contra posibles abusos, como adjuntar incorrectamente credenciales al contenido incorrecto.
Algunos generadores de imágenes de IA, como Adobe Firefly, adjuntan automáticamente credenciales de contenido al contenido generado por IA. Luciérnaga es el grupo de modelos de IA generativa de Adobe que puede crear imágenes a partir de indicaciones, otras imágenes y más. Esta familia de modelos es fácilmente accesible al público a través de un aplicación web independiente y algunas de las aplicaciones más populares de Adobe, incluidas Photoshop.
El comunicado dice que Adobe quiere que los investigadores de seguridad prueben Firefly contra el Open Worldwide Application Security Project (OWASP). principales riesgos de seguridad en aplicaciones de modelos de lenguaje grande (LLM), como inyección rápida, divulgación de información confidencial y envenenamiento de datos de entrenamiento. Luego, Adobe utilizará estos comentarios para centrar su investigación y esfuerzos adicionales en abordar las debilidades de Firefly.
«Al interactuar proactivamente con la comunidad de seguridad, esperamos obtener información adicional sobre la postura de seguridad de nuestras tecnologías generativas de IA, lo que, a su vez, proporcionará información valiosa a nuestro programa de seguridad interno», dijo Adobe en su comunicado.
También: Google pagó 10 millones de dólares en recompensas por errores a investigadores de seguridad en 2023
Adobe está invitando a visitar a hackers éticos interesados en participar en el programa de recompensas por errores. la página de Adobe HackerOne y aplicar a través de esta formaque hace preguntas sobre la investigación y la experiencia en seguridad del solicitante.
Además de Content Credentials y Adobe Firefly, el programa de recompensas por errores está disponible para la mayoría de las aplicaciones web de Adobe y las versiones móviles y de escritorio de sus aplicaciones Creative Cloud. Puede encontrar la lista completa de aplicaciones incluidas en el Página web del programa Adobe Bug Bounty.
[ad_2]
Enlace fuente