El troll de Internet de extrema derecha, Ian Miles Cheong, culpó de toda la situación a Krawczyk, a quien calificó de “idiota despierto y obsesionado con la raza” mientras hacía referencia a publicaciones sobre X de hace años en las que Krawczyk reconocía la existencia de racismo sistémico y privilegio blanco.
«Ahora hemos concedido a nuestras mentiras dementes una inteligencia sobrehumana», Jordan Peterson escribió en su cuenta X con un enlace a una historia sobre la situación.
Pero la realidad es que Gemini, o cualquier sistema de IA generativa similar, no posee una “inteligencia sobrehumana”, sea lo que sea que eso signifique. En todo caso, esta situación demuestra que es todo lo contrario.
Como señala Marcus, Gemini no podía diferenciar entre una solicitud histórica, como pedir mostrar la tripulación del Apolo 11, y una solicitud contemporánea, como pedir imágenes de los astronautas actuales.
Históricamente, los modelos de IA que incluyen Dall-E de OpenAI ha estado plagado de prejuicios, mostrando a personas no blancas cuando se les pide imágenes de prisioneros, por ejemplo, o exclusivamente a personas blancas cuando se les pide que muestren a directores ejecutivos. Es posible que los problemas de Géminis no reflejen la inflexibilidad del modelo, «sino más bien una compensación excesiva cuando se trata de la representación de la diversidad en Géminis», dice Sasha Luccioni, investigadora de la startup de inteligencia artificial Hugging Face. «El sesgo es realmente un espectro, y es muy difícil dar con la nota correcta teniendo en cuenta cosas como el contexto histórico».
Cuando se combina con las limitaciones de los modelos de IA, esa calibración puede salir especialmente mal. “Los modelos de generación de imágenes en realidad no tienen noción de tiempo”, dice Luccioni, “por lo que esencialmente cualquier tipo de técnica de diversificación que aplicaron los creadores de Gemini sería ampliamente aplicable a cualquier imagen generada por el modelo. Creo que eso es lo que estamos viendo aquí”.
Mientras la naciente industria de la IA intenta lidiar con los prejuicios, Luccioni dice que será difícil encontrar el equilibrio adecuado en términos de representación y diversidad.
«No creo que haya una única respuesta correcta y no existe un modelo ‘imparcial'», dijo Luccioni. “Diferentes empresas han adoptado posturas diferentes al respecto. Definitivamente parece gracioso, pero parece que Google ha adoptado una Bridgerton enfoque para la generación de imágenes, y creo que es algo refrescante”.