En el primer fallo de este tipo, un juez de Washington que preside un caso de triple asesinato decidió que los vídeos mejorados con IA no pueden presentarse como prueba.
Al explicar su decisión, el juez Leroy McCullough expresó su preocupación de que la tecnología de inteligencia artificial utilice métodos opacos para mostrar lo que «cree que debería mostrarse» y que podría confundir a los jurados y socavar el testimonio de los testigos presenciales. El juez McCullough añadió que aceptar el vídeo como prueba podría llevar a «un juicio largo dentro de un juicio sobre el proceso no revisable por pares utilizado por el modelo de IA».
El video en cuestión se relaciona con un tiroteo ocurrido en 2021 afuera de La Familia Sports Pub and Lounge en Des Moines, Washington, en el que tres personas murieron y dos más resultaron heridas. Un hombre llamado Joshua Puloka está acusado de los asesinatos, pero afirma que estaba tratando de calmar una discusión entre dos personas cuando le dispararon y actuó en defensa propia cuando respondió y golpeó a los transeúntes.
Un video de 10 segundos con un teléfono celular publicado en Snapchat supuestamente muestra el tiroteo. El equipo de defensa de Puloka intentó presentar una versión mejorada mediante aprendizaje automático para mostrar las cosas con mayor claridad. Al defender el video mejorado por IA, el equipo de defensa dijo que el original tiene una resolución baja y mucho desenfoque de movimiento, mientras que la versión mejorada agregó nitidez, definición y bordes más suaves a los objetos. De acuerdo a Noticias K5 en Seattleel nuevo vídeo tiene 16 veces más píxeles que el primero.
La colina informó que la fiscalía en el caso argumentó que no existe un precedente legal para el uso de dicho video y luego calificó el video mejorado como «inexacto, engañoso y poco confiable».
El fallo del juez llega en un momento en que los gobiernos de todo el mundo están debatiendo cómo manejar la IA. La semana pasada, la Casa Blanca emitió planea regular el uso de la IA por parte del gobiernoy en octubre de 2023, la ONU reunió una equipo asesor para coordinar la gobernanza «inclusiva» de la IA. También en octubre de 2023, el presidente Joe Biden emitió una orden ejecutiva que «establece nuevos estándares para la seguridad de la IA».