Kaitlyn Cimino / Autoridad de Android
TL;DR
- Google ahora ha proporcionado una explicación de lo que salió mal con Gemini después de que generó imágenes inexactas y ofensivas de personas.
- El gigante tecnológico afirma que hubo dos cosas que salieron mal y provocaron que la IA compensara en exceso.
- Según se informa, la generación de imágenes de personas mediante IA no se volverá a activar hasta que se haya mejorado significativamente.
Google se encontró en problemas después Geminis fue captado generando imágenes de personas que eran inexactas y ofensivas. Desde entonces, la empresa ha desactivado la capacidad del LLM para producir imágenes de personas. Ahora la empresa ha publicado una disculpa, así como una explicación de lo sucedido.
en un entrada en el blog, la firma con sede en Mountain View se disculpó por el error de Gemini y afirmó que estaba «claro que esta característica no dio en el blanco» y que «lamentaba que la característica no funcionara bien». Según Google, hubo dos cosas que llevaron a la creación de estas imágenes.
Como informamos anteriormente, creíamos que era posible que Gemini estuviera sobrecorrigiendo algo que ha sido un problema con las imágenes generadas por IA, que reflejan nuestro mundo racialmente diverso. Parece que eso es exactamente lo que pasó.
La compañía explica que el primer problema está relacionado con cómo se sintoniza Gemini para garantizar que se represente una variedad de personas en las imágenes. Google admite que no «tuvo en cuenta los casos que claramente no deberían mostrar un rango».
La segunda cuestión surge de cómo Géminis elige qué indicaciones se consideran sensibles. Google afirma que la IA se volvió más cautelosa de lo previsto y se negó a responder ciertas indicaciones.
Por el momento, Google planea congelar la generación de imágenes de personas hasta que se realicen mejoras significativas en el modelo.