Otra estrategia potencial para diversificar el resultado de los modelos de IA es que los desarrolladores agreguen barreras de seguridad y modifiquen las indicaciones de los usuarios, empujando el software hacia la inclusión. OpenAI parece haber adoptado este enfoque. Cuando le pedí a Dall-E 3 a través de ChatGPT que «dibujara una caricatura de una pareja queer disfrutando de una noche de fiesta en Castro», amplió la imagen, sin que yo se lo pidiera, a un párrafo completo que incluía género, raza y antecedentes adicionales. detalles. Aquí está el mensaje completo elaborado por ChatGPT a partir de mi solicitud de imagen inicial:
Una ilustración de dibujos animados de una pareja queer disfrutando de una noche de fiesta en el distrito Castro, San Francisco. Caminan felices de la mano, sonríen y charlan. Una persona es una mujer caucásica con cabello corto y rojo, que viste una elegante chaqueta vaquera y jeans. La otra persona es un hombre negro con cabello negro corto, que viste una camiseta verde informal y pantalones negros. El fondo presenta la vibrante y colorida vida callejera de Castro, con banderas arcoíris, cafés bulliciosos y multitudes animadas. El ambiente es alegre y acogedor, destacando la diversidad e inclusión de la zona.
Si bien es útil en algunos casos, la modificación de las indicaciones también puede resultar frustrante para los usuarios cuando no se implementa correctamente. El director general de Google se disculpó cuando Gemini, la plataforma de inteligencia artificial generativa de Google, alteró las indicaciones de los usuarios y generó fotografías de nazis negros, así como otras imágenes ahistóricas. ¿Hubo un complot secreto dentro de la empresa para borrar a los caucásicos de la historia? Es más plausible que los ingenieros de Gemini descubrieran que la herramienta inicialmente sobreproducía imágenes de hombres blancos, como muchas herramientas de IA lo hacen actualmentey los desarrolladores de Google parecen haber exagerado sus ajustes correctivos durante el apresurarse a lanzar el chatbot de suscripción de la empresa.
Incluso con mejores datos de modelo y barreras de seguridad de software, la fluidez de la existencia humana puede evadir la rigidez de la categorización algorítmica. «Básicamente están utilizando el pasado para crear el futuro», dice William Agnew, becario postdoctoral en Carnegie Mellon y organizador de Queer in AI desde hace mucho tiempo. «Parece la antítesis del potencial infinito de crecimiento y cambio que es una gran parte de las comunidades queer». Al amplificar los estereotipos, las herramientas de inteligencia artificial no sólo corren el riesgo de tergiversar tremendamente los grupos minoritarios ante el público en general, sino que estos algoritmos también tienen el potencial de restringir la forma en que las personas queer se ven y se entienden a sí mismas.
vale la pena hacer una pausa por un momento para reconocer la velocidad vertiginosa a la que algunos aspectos de la IA generativa continúan mejorando. En 2023, Internet ardió burlándose de un monstruoso Vídeo con IA de Will Smith comiendo espaguetis. Un año después, Clips de texto a vídeo del Sora inédito de OpenAI Los modelos todavía son imperfectos, pero a menudo sorprenden por su fotorrealismo.
La herramienta de vídeo con IA aún se encuentra en fase de investigación y no ha sido lanzado al público, pero quería entender mejor cómo representa a las personas queer. Entonces, me acerqué a OpenAI y le proporcioné tres indicaciones a Sora: “un grupo diverso de amigos celebrando durante el desfile del orgullo gay de San Francisco en una carroza colorida con forma de arcoíris”; “dos mujeres con impresionantes vestidos de novia que se casan en una granja de Kansas”; y «un hombre transgénero y su pareja no binaria jugando un juego de mesa en el espacio exterior». Una semana después, recibí tres videoclips exclusivos que, según la compañía, fueron generados mediante su modelo de conversión de texto a video sin modificaciones.
Los videoclips son desordenados pero maravillosos. Las personas que viajan en una carroza en el desfile del Orgullo de San Francisco ondean banderas de arcoíris que desafían las leyes de la física mientras se transforman en la nada y reaparecen de la nada. Dos novias con vestidos blancos se sonríen de pie en el altar, mientras sus manos se fusionan en un impío grupo de dedos. Mientras una pareja queer juega un juego de mesa, parecen pasar entre las piezas, como si fueran fantasmas.
El clip que se supone muestra a una persona no binaria jugando en el espacio exterior llama la atención entre los tres videos. Los mechones lilas aparentemente extraños regresan, los tatuajes desordenados se esparcen por su piel y una hiperpigmentación que se asemeja a escamas de reptil envuelve su rostro. Incluso para un impresionante generador de videos con IA como Sora, representar a personas no binarias parece ser un desafío.
Cuando WIRED mostró estos clips a los miembros de Queer in AI, cuestionaron la definición de diversidad de Sora con respecto al grupo de amigos en el desfile del Orgullo. «¿Los modelos son nuestra base para determinar cómo se ve la diversidad?» pregunta Sabine Weber, científica informática de Alemania. Además de señalar el atractivo exagerado de los humanos en el video, un ocurrencia común Para las visualizaciones de IA, Weber cuestionó por qué no había más representación de personas queer que son mayores, tienen cuerpos más grandes o tienen discapacidades visibles.
Cerca del final de nuestra conversación, Agnew mencionó por qué las representaciones algorítmicas pueden resultar desconcertantes para las personas LGBTQ. «Es trivial lograr que combinen cosas que por sí solas están bien pero que juntas son profundamente problemáticas», dicen. «Me preocupa mucho que las representaciones de nosotros mismos, que ya son un campo de batalla constante, de repente se nos escapen de las manos». Incluso si las herramientas de IA incluyen representaciones más holísticas de las personas queer en el futuro, las representaciones sintéticas pueden manifestar consecuencias no deseadas.