Con el lanzamiento de Adobe Firefly el año pasadoIBM puso la creación de imágenes con IA generativa (genAI) a disposición de miles de diseñadores.
La herramienta no tardó mucho en causar impresión, dijo Billy Seabrook, director de diseño global de la división de consultoría de IBM.
Luciérnaga se utilizó, por ejemplo, para crear 200 recursos visuales para la campaña de marketing “Let’s Create” de IBM del año pasado que implicaba representar una imagen de un signo de interrogación en una variedad de texturas y colores. Firefly generó muchas variaciones, desde un signo de interrogación hecho con pétalos de flores hasta uno hecho con un eslabón de cadena, que los diseñadores podían elegir para luego editar y perfeccionar hasta obtener un producto final.
Con las herramientas, lo que podría haber sido un proceso largo que llevó meses se aceleró dramáticamente. “Se necesitaron muy pocos recursos, se hizo muy rápido y, curiosamente, fue uno de, si no el «La campaña de marketing de mayor rendimiento de los últimos tiempos», dijo Seabrook. «Lo hizo excepcionalmente bien».
El uso de Adobe para la campaña de marketing externo fue excepcional, dijo Seabrook, pero el objetivo es hacer lo mismo en proyectos similares a medida que el software genAI madure. Más allá de los activos creados, la empresa espera utilizar Firefly para automatizar tareas de diseño y, en última instancia, aumentar la productividad.
“Creo que el mayor desafío al que se enfrentan todos en la industria en este momento es ofrecer experiencias realmente excelentes y contenido de muy alta calidad con más eficiencia, y [at a] ritmo más rápido”, dijo Seabrook.
Citó el dicho – “más rápido, mejor, más barato: elige dos” – y dijo: “Realmente estamos bajo presión, como todos en el mundo, para ofrecer las tres cosas: excelente contenido, más rápido y más barato”.
Habiendo ocupado anteriormente puestos de alto nivel en Citi y eBay, Seabrook ahora dirige el diseño para la rama de consultoría de IBM, donde es responsable de un equipo que incluye aproximadamente 1.600 diseñadores que se centran en el diseño de contenido, UX visual y más. Esa es sólo una parte de la fuerza laboral de diseño general de IBM, con más de 3500 diseñadores en toda la organización.
IBM es cliente y socio de Adobe desde hace mucho tiempo y brinda servicios de consultoría a clientes sobre el uso de herramientas como Firefly, lo que lo convierte en uno de los primeros en adoptar la tecnología internamente.
La implementación de Firefly de IBM comenzó con una prueba piloto cuando Adobe hizo que el producto estuviera disponible en versión beta. Desde entonces, después del lanzamiento general en septiembre pasado, la herramienta se ha implementado a aproximadamente 20.000 empleados de IBM con licencias de Adobe Creative Cloud. Eso les da acceso a Firefly en aplicaciones de Adobe como Photoshop y Expresaraunque los detalles sobre la aceptación de los empleados no estaban disponibles.
Los diseñadores de IBM se familiarizan con Firefly
Además de crear recursos visuales para la campaña «Let’s Create» orientada al cliente, el equipo de marketing de IBM ha utilizado internamente Firefly para generar imágenes conceptuales y presentaciones internas, por ejemplo.
Para la división de consultoría de IBM, los diseñadores utilizan Firefly para dos propósitos principales, dijo Seabrook. Una es apoyar el enfoque de pensamiento de diseño que implica la generación de ideas (a menudo llamada ideación), la creación de prototipos y la iteración basada en las interacciones con los clientes.
«Por lo general, es un proceso bastante manual», explicó Seabrook, porque implica sesiones en persona, similares a talleres, que duran varios días o incluso semanas, y muchos bocetos de ida y vuelta.
Firefly se utiliza a menudo para optimizar las visualizaciones, dijo. Al esbozar un concepto aproximado, el personal puede solicitar a la herramienta que cree cualquier cosa, desde imágenes intencionalmente fantásticas (“son de naturaleza conceptual, pero transmiten la idea”, dijo Seabrook) hasta “encuadres más realistas que podrían ser utilizado en un guión gráfico”, dijo.
Eso ha ahorrado mucho tiempo al personal, dijo Seabrook, reduciendo un proceso de dos semanas a un par de días en algunos casos.
Después de la fase de ideación, Firefly se ha utilizado en Adobe Photoshop e Illustrator para retocar, cambiar el tamaño y otros trabajos de producción de “última milla”. Firefly puede llenar rápidamente los espacios en una imagen: agregando piernas a una foto recortada a la altura de la cintura, por ejemplo.
Por lo general, eso requeriría un largo proceso de composición de múltiples imágenes originales o de archivo y retoques para que parezca perfecto. «Ahora se puede utilizar la IA generativa para llenar ese vacío de forma dinámica e instantánea», dijo. “Y la calidad de eso está mejorando día a día. Esto supone un enorme ahorro de tiempo para nosotros”.
La localización es otra ventaja, ya que los antecedentes se pueden intercambiar para representar a un país diferente, “especialmente si los antecedentes no implican ningún riesgo de posible ofensa o material de marca que sería un desafío legal”, dijo. «Si se trata simplemente de cambiar la hora del día o ampliar una imagen para incluir más follaje, algo que es de bajo riesgo, es un gran caso de uso para la tecnología actual».
GenAI para remodelar los roles del diseñador visual
La capacidad de la IA generativa para completar ciertas tareas abre la puerta a la automatización de más trabajos. En ese sentido, IBM atrajo la atención el año pasado con planes de reemplazar miles de puestos de trabajo con IA mediante una congelación de las contrataciones.
Cuando se trata del impacto de las herramientas genAI en la profesión del diseño en general, Seabrook ve un cambio potencial hacia equipos más pequeños y, al mismo tiempo, otorga una mayor importancia a la experiencia del diseñador. Señaló un encuesta realizada a alrededor de 1.500 ejecutivos de empresas, directores creativos y profesionales realizado por el equipo de investigación interno de IBM que destaca el impacto de genAI en los profesionales del diseño. El estudio apunta a un papel más estratégico para los diseñadores, afirmó Seabrook.
«Pueden ser curadores, ingenieros rápidos, pueden… tomar decisiones y señalar cosas que un profesional sabría mejor, en términos de originalidad o los diferentes niveles de calidad de la producción», dijo. “Así que en realidad existe la expectativa de que haya más demanda de esos recursos. Tienen una gran demanda, pero hay menos asientos; esa es la contradicción interesante que estamos viendo”.
El resultado podría ser que los diseñadores se vuelvan más generalistas, con una sola persona que utilice genAI capaz de hacer el trabajo de dos o tres trabajadores. En ese caso, los equipos podrían reducirse, con el “giro positivo” de que los diseñadores tendrán libertad para asumir nuevas cargas de trabajo.
«Ahora se pueden realizar muchos más proyectos, por lo que esas personas pueden pasar a diferentes compromisos que antes no eran posibles», dijo Seabrook. «Así que [this leads to] un aumento en el volumen de trabajo, pero los proyectos individuales serán administrados por equipos más pequeños.
«…Esa es la dinámica interesante que estamos viendo ahora».
Los modelos GenAI para la creación de imágenes siguen avanzando
Si bien IBM ha visto ventajas al utilizar Firefly internamente, Seabrook también destacó algunas limitaciones en esta etapa, todavía relativamente temprana, de su desarrollo.
Por ejemplo, las imágenes creadas por los modelos Firefly tienden a tener un estilo particular que se adapta mejor a algunos usos que a otros. Los resultados pueden tener un brillo ilustrativo, con un nivel de saturación que es indicativo de imágenes generadas por IA. «Es una característica del medio», dijo Seabrook.
Eso podría ser una buena opción para algunos escenarios (imágenes de estilo ciencia ficción, por ejemplo) y genAI ha abierto un nuevo género de concepto creativo, dijo. Puede generar imágenes fantásticas que, de otro modo, llevaría mucho tiempo producir manualmente.
«A medida que la calidad mejora y se vuelve un poco más realista e indescifrable en comparación con una fotografía normal, se abre un tipo de caso de uso completamente diferente en términos de cómo usar esas imágenes», dijo Seabrook.
También anticipa capacidades futuras en las que se puede utilizar material de referencia para filtrar el contenido generado por Firefly para cumplir con las guías de estilo de la marca. «Toda la industria espera con ansias ese tipo de personalización, porque es entonces cuando el resultado será realmente diferenciado para su marca», afirmó.
Al igual que con otras áreas del desarrollo de genAI, las capacidades de los modelos que sustentan Firefly están avanzando rápidamente. El modelo Firefly 2.0 fue una “gran mejora” con respecto al 1.0.
A medida que la tecnología madura y los resultados se vuelven más confiables y predecibles, Seabrook prevé una gama más amplia de usos, como la “personalización en tiempo real a escala” en campañas de marketing para clientes.
«…La tecnología seguirá mejorando», dijo. «Vamos a estar atentos para asegurarnos de que sea contenido confiable, que esté claramente acreditado de la manera correcta para que la gente sepa que es generado por IA. y todos esos otros aspectos importantes de ética y prejuicios están integrados en todo lo que hacemos.
«Suponiendo que se realicen todos esos pagos, comenzaremos a implementarlo en muchos más casos de uso para los clientes», dijo.
Seabrook también ve un gran potencial para que Firefly se utilice más ampliamente dentro de IBM. «Es una buena apuesta y tenemos muchas ganas de que llegue la próxima generación que llegará pronto».
Copyright © 2024 IDG Communications, Inc.