En contexto: Con el aumento de las estafas de IA generativa y deepfake, la Casa Blanca dice que están «en proceso» formas de verificar criptográficamente sus publicaciones oficiales. Aún no se han compartido detalles sobre cómo sería este proceso en última instancia, pero parece probable que sea una forma de «firmar» comunicados oficiales de una manera que demuestre que la Casa Blanca fue la verdadera fuente.
La Casa Blanca ha confirmado que actualmente está explorando formas de verificar criptográficamente las declaraciones y vídeos que publica, en un esfuerzo por combatir el aumento de los deepfakes con motivaciones políticas.
En enero, informamos sobre una llamada automática generada por IA que La voz falsa del presidente Biden. y dijo a los residentes de New Hampshire que no votaran en las próximas elecciones primarias. A esto le siguió la noticia esta semana de que la presidenta de la FCC, Jessica Rosenworcel, presentó una propuesta para prohibir las voces generadas por IA de llamadas automáticas.
Pero es poco probable que prohibir tales técnicas sea suficiente para impedir que la gente las use, por lo que, en un intento de tranquilizar al público sobre la autenticidad de sus publicaciones, la Casa Blanca supuestamente está recurriendo a técnicas criptográficas, que permiten a las personas verificar qué es real y qué no.
Un método común para hacer esto es emparejar claves públicas y privadas. La fuente de una información genera un valor hash para cualquier vídeo o documento determinado y lo cifra utilizando su clave privada. Este hash sólo puede descifrarse mediante la clave pública, que está disponible para todos y atribuida al autor original. Por lo tanto, un descifrado exitoso utilizando la clave pública confirma al propietario de la clave privada, verificando la fuente.
Cualquier intento de terceros de alterar el archivo no contendría el valor hash original y, por lo tanto, no podría verificarse como auténtico.
Si bien estos esfuerzos ciertamente traerían algunos beneficios, existen algunos riesgos potenciales que deben considerarse. Sin duda, el uso adecuado ayudaría a la gente a verificar las comunicaciones reales, pero estos poderes darían al presidente y a su personal una forma de reclamar lo que es «la verdad».
Si el presidente cometiera un error o una metedura de pata durante un vídeo de la Casa Blanca, simplemente no podría firmar criptográficamente el contenido y desautorizarlo como falso. Y parece probable, dado el estado divisivo del panorama político, que tales poderes puedan y sean convertidos en armas.
Sin embargo, por ahora no tenemos un cronograma para este desarrollo. En declaraciones a Business Insider, Ben Buchanan, asesor especial de Biden para Inteligencia Artificial, simplemente confirmó que está «en proceso».