Apple ha eliminado aplicaciones del Tienda de aplicaciones que afirmaba crear imágenes de desnudos no consensuales, una medida que demuestra que Apple ahora está más dispuesta a abordar la categoría de aplicaciones peligrosas.
Las capacidades de IA generativa Crear imágenes basadas en indicaciones se ha convertido en una herramienta muy útil en fotografía y diseño. Sin embargo, la tecnología también se ha utilizado indebidamente en la creación de deepfakes y pornografía no consensuada.
A pesar del peligro, Apple se ha mantenido notablemente al margen del problema. Antes de la reciente medida, no había hecho mucho para solucionar un problema potencialmente importante.
en un informe por 404 Medios, Apple fue informada sobre una serie de aplicaciones de generación de imágenes con IA disponibles en la App Store. En concreto, se trataba de aplicaciones que se comercializaban como capaces de crear imágenes de desnudos no consentidas.
Las aplicaciones ofrecían funciones como intercambio de rostros en imágenes de adultos. Otras se comercializaron como aplicaciones para «desnudarse», prácticamente quitando la ropa a sujetos de fotografías que de otro modo serían inofensivas.
Después de ser alertado sobre las aplicaciones y la publicidad relacionada, Apple eliminó tres de ellas de la App Store. Google también eliminó aplicaciones de Play Store.
La investigación del informe planteó previamente el problema de que Instagram anuncia las aplicaciones a través de la biblioteca de anuncios de Meta. Una vez que se marcaron los anuncios, Meta los eliminó.
Un comienzo lento
La eliminación de las aplicaciones de la App Store por parte de Apple es una buena noticia, pero con algunos problemas persistentes. Para empezar, Apple no logró prohibir las aplicaciones como parte de su proceso de revisión de la App Store, sino que tuvo que ser alertada por terceros sobre su existencia.
Aun así, es un paso adelante con respecto a intentos anteriores de la publicación de combatir las aplicaciones.
Los informes de 2022 sobre las aplicaciones explicaron que inicialmente parecían inocentes en las páginas de la App Store. Sin embargo, las capacidades de la pornografía profundamente falsa se anunciaron en sitios de pornografía.
En ese momento, Apple y Google fueron alertados sobre ellas, pero se negaron a eliminar las aplicaciones. En cambio, se les dijo a las empresas que dejaran de publicar anuncios en los sitios para adultos y se permitió que las aplicaciones persistieran en la App Store.
A pesar de la orden, una de las aplicaciones continuó comercializando sus funciones para adultos hasta 2024, cuando fue retirada de Google Play Store.
La decisión de Apple de eliminar finalmente las aplicaciones ofensivas de la App Store es el último movimiento que Apple tomó para tratar de mantener sus acuerdos con IA como por encima del tablero como sea posible.
Además de utilizar métodos de entrenamiento para modelos de lenguaje de IA que preservan la privacidad, Apple también ha evitado el uso ilegal de obras protegidas por derechos de autor. Si bien Microsoft y OpenAI tienen sido demandado por el New York Times por infracción de derechos de autor por el uso de sus artículos para el entrenamiento de IA, Apple ha intentado en cambio obras de licencia de las principales editoriales a cambio de millones de dólares.