Empresas líderes en inteligencia artificial, incluidas OpenAI, Microsoft, Google, Meta y otras, se han comprometido conjuntamente a evitar que sus herramientas de inteligencia artificial se utilicen para explotar a niños y generar material de abuso sexual infantil (CSAM). La iniciativa fue liderada por el grupo de seguridad infantil Thorn y All Tech Is Human, una organización sin fines de lucro centrada en tecnología responsable.
Las promesas de las empresas de inteligencia artificial, Thorn dicho, «sienta un precedente innovador para la industria y representa un salto significativo en los esfuerzos para defender a los niños del abuso sexual a medida que se desarrolla una característica de la IA generativa». El objetivo de la iniciativa es prevenir la creación de material sexualmente explícito que involucre a niños y eliminarlo de las plataformas de redes sociales y motores de búsqueda. Solo en 2023 se denunciaron en Estados Unidos más de 104 millones de archivos de material sospechoso de abuso sexual infantil, afirma Thorn. En ausencia de una acción colectiva, la IA generativa está a punto de empeorar este problema y abrumar a los organismos encargados de hacer cumplir la ley que ya están luchando por identificar a las víctimas genuinas.
El martes, Thorn y All Tech Is Human publicaron un nuevo papel titulado “Seguridad por diseño para la IA generativa: prevención del abuso sexual infantil” que describe estrategias y presenta recomendaciones para que las empresas que crean herramientas de IA, motores de búsqueda, plataformas de redes sociales, empresas de alojamiento y desarrolladores tomen medidas para evitar que la IA generativa se utilice para dañar a los niños.
Una de las recomendaciones, por ejemplo, pide a las empresas que elijan cuidadosamente los conjuntos de datos utilizados para entrenar modelos de IA y eviten aquellos que solo contengan instancias de CSAM pero también contenido sexual para adultos debido a la propensión de la IA generativa a combinar los dos conceptos. Thorn también está pidiendo a las plataformas de redes sociales y motores de búsqueda que eliminen enlaces a sitios web y aplicaciones que permiten a las personas “desnudar” imágenes de niños, creando así nuevo material en línea sobre abuso sexual infantil generado por IA. Según el documento, una avalancha de CSAM generado por IA dificultará la identificación de víctimas genuinas de abuso sexual infantil al aumentar el «problema del pajar», una referencia a la cantidad de contenido que las agencias de aplicación de la ley deben examinar actualmente.
«Este proyecto tenía como objetivo dejar muy claro que no es necesario darse por vencido», dijo la vicepresidenta de ciencia de datos de Thorn, Rebecca Portnoff. dijo el Wall Street Journal. «Queremos poder cambiar el curso de esta tecnología hasta el punto de que los daños existentes de esta tecnología desaparezcan».
Portnoff dijo que algunas compañías ya habían acordado separar imágenes, videos y audios que involucraban a niños de conjuntos de datos que contienen contenido para adultos para evitar que sus modelos combinen ambos. Otros también añaden marcas de agua para identificar el contenido generado por IA, pero el método no es infalible: las marcas de agua y los metadatos pueden ser fácilmente eliminado.