de google Geminis El modelo ha sido criticado por su producción de imágenes históricamente inexactas y sesgadas racialmente, reavivando las preocupaciones sobre el sesgo en los sistemas de inteligencia artificial.
La controversia surgió cuando los usuarios de las plataformas de redes sociales inundaron los feeds con ejemplos de Géminis generando imágenes que representaban a nazis racialmente diversos, reyes ingleses medievales negros y otros escenarios improbables.
Modelo de generación de imágenes de Google Gemini recibe críticas por ser ‘Woke’.
Gemini generó diversas imágenes para indicaciones históricamente específicas, lo que generó debates sobre precisión versus inclusión. pic.twitter.com/YKTt2YY265
-Darosham (@Darosham_) 22 de febrero de 2024
Mientras tanto, los críticos también señalaron la negativa de Géminis a representar a los caucásicos, las iglesias de San Francisco por respeto a las sensibilidades indígenas y acontecimientos históricos sensibles como la Plaza de Tiananmen en 1989.
En respuesta a la reacción, Jack Krawczyk, líder de producto de Gemini Experiences de Google, reconoció el problema y se comprometió a rectificarlo. Krawczyk recurrió a la plataforma de redes sociales X para tranquilizar a los usuarios:
Por ahora, Google dice que está pausando la generación de imágenes de personas:
Si bien reconocen la necesidad de abordar la diversidad en el contenido generado por IA, algunos argumentan que la respuesta de Google ha sido una corrección excesiva.
Marc Andreessen, cofundador de Netscape y a16z, creó recientemente un modelo de IA parodia “escandalosamente seguro” llamado Goody-2 LLM que se niega a responder preguntas consideradas problemáticas. Andreessen advierte sobre una tendencia más amplia hacia la censura y el sesgo en los sistemas comerciales de IA, enfatizando las posibles consecuencias de tales desarrollos.
Al abordar las implicaciones más amplias, los expertos destacan la centralización de los modelos de IA en unas pocas corporaciones importantes y abogan por el desarrollo de modelos de IA de código abierto para promover la diversidad y mitigar los prejuicios.
Yann LeCun, científico jefe de IA de Meta, ha destacado la importancia de fomentar un ecosistema diverso de modelos de IA similar a la necesidad de una prensa libre y diversa:
Bindu Reddy, director ejecutivo de Abacus.AI, tiene preocupaciones similares sobre la concentración de poder sin un ecosistema saludable de modelos de código abierto:
A medida que continúan los debates sobre las implicaciones éticas y prácticas de la IA, la necesidad de marcos de desarrollo de IA transparentes e inclusivos se vuelve cada vez más evidente.
(Foto por Matt Artz en desempaquetar)
Ver también: Reddit supuestamente vende datos para entrenamiento de IA
¿Quiere aprender más sobre IA y big data de la mano de los líderes de la industria? Verificar Exposición de IA y Big Data que tendrá lugar en Amsterdam, California y Londres. El evento integral comparte ubicación con otros eventos importantes, incluidos bloquex, Semana de la Transformación Digitaly Exposición de seguridad cibernética y nube.
Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados por TechForge aquí.