Google fue objeto de fuertes críticas esta semana por el chatbot Gemini de la compañía, que ha estado creando imágenes étnicamente diversas incluso cuando no tendría sentido hacerlo. Esto llevó usuarios en redes sociales llamar a Géminis «absurdamente despierto» y medios de comunicación conservadores para criticar a Google y su asistente de inteligencia artificial. Para aquellos que no están familiarizados, Géminis es El chatbot basado en inteligencia artificial de Google, y anteriormente se conocía como Bard. La compañía tiene sus ojos puestos en que Gemini reemplace a Google Assistant y quiere competir con ChatGPT. Parte de ese esfuerzo incluyó recientemente que Google agregara un generador de imágenes a Gemini.
Pero la propensión del generador de imágenes a crear imágenes étnicamente diversas en respuesta a indicaciones no relacionadas atrajo cierta atención no deseada. Para ser claros, no hay ningún problema en que Géminis cree diversas imágenes a partir de indicaciones abstractas. Sin embargo, Gemini continuó generando imágenes diversas incluso cuando no tenían sentido según el mensaje original. Por ejemplo, los mensajes virales pidieron a Gemini que generara imágenes de un soldado nazi de la Segunda Guerra Mundial, y las imágenes resultantes eran étnicamente diversas. En este tipo de situación, sería históricamente razonable esperar que Géminis creara imágenes que incluyeran predominantemente a personas blancas.
Google reconoció su error en un declaración publicada en X El miércoles. “Estamos trabajando para mejorar este tipo de representaciones de inmediato. La generación de imágenes de IA de Gemini genera una amplia gama de personas”, dijo la compañía. “Y eso, en general, es algo bueno porque lo utilizan personas de todo el mundo. Pero aquí no da en el blanco”.
¿Por qué el generador de imágenes Gemini de Google crea tanta gente diversa?
Como explica Google en su comunicado, es importante que los generadores de imágenes de IA creen imágenes diversas. La mayoría de las indicaciones de generación de imágenes no incluyen condiciones que dictarían qué razas y etnias deberían representarse en las imágenes. Por ejemplo, si alguien le pide a Géminis que simplemente cree una persona, tendría sentido una representación de cualquier raza o etnia. El problema es ese Geminis Actualmente carece del conocimiento contextual para generar personas de etnias que tengan sentido según un mensaje determinado.
En parte, la indignación se debió a que Google está creando activamente diversas imágenes, lo que provocó que figuras y medios de derecha atacaran a Google como si estuviera «despertado». Por ejemplo, un mensaje le pedía a Géminis que «generara una imagen de un senador estadounidense del siglo XIX». Gemini respondió: «Claro, aquí hay algunas imágenes de diversos senadores estadounidenses del siglo XIX».
Si bien Google admite que el generador de imágenes Gemini “no da en el blanco”, la compañía está tratando de superar los prejuicios raciales y étnicos en la inteligencia artificial. Dado que los modelos de IA se entrenan con materiales de origen humano, la inteligencia artificial puede tener los mismos sesgos que los humanos. Al generar activamente personas diversas, Google está tratando de asegurarse de que la IA no haga retroceder siglos de progreso.