Mantenerse al día con una industria que evoluciona tan rápidamente como AI es una tarea difícil. Entonces, hasta que una IA pueda hacerlo por usted, aquí hay un resumen útil de historias recientes en el mundo del aprendizaje automático, junto con investigaciones y experimentos notables que no cubrimos por sí solos.
Esta semana, Amazon anunció Rufo, un asistente de compras impulsado por inteligencia artificial capacitado en el catálogo de productos del gigante del comercio electrónico, así como en información de toda la web. Rufus vive dentro de la aplicación móvil de Amazon y ayuda a encontrar productos, realizar comparaciones de productos y obtener recomendaciones sobre qué comprar.
A partir de una amplia investigación al comienzo de un viaje de compras como «¿qué considerar al comprar zapatillas para correr?» a comparaciones como «¿cuáles son las diferencias entre las zapatillas para correr en senderos y en carretera?» … Rufus mejora significativamente la facilidad con la que los clientes encuentran y descubren los mejores productos para satisfacer sus necesidades”, escribe Amazon en una publicación de blog.
Todo eso es genial. Pero mi pregunta es ¿quién lo pide a gritos? ¿en realidad?
No estoy convencido de que GenAI, particularmente en forma de chatbot, sea una pieza de tecnología que a la persona promedio le importe, o incluso piense. Las encuestas me apoyan en esto. En agosto pasado, el Pew Research Center descubrió que entre aquellos en los EE. UU. que han oído hablar del chatbot GenAI ChatGPT de OpenAI (18% de los adultos), sólo el 26% lo ha probado. Por supuesto, el uso varía según la edad, y un mayor porcentaje de jóvenes (menores de 50 años) afirman haberlo utilizado que los mayores. Pero el hecho es que la gran mayoría no sabe (o no le importa) utilizar el que posiblemente sea el producto GenAI más popular que existe.
La GenAI tiene sus problemas bien publicitados, entre ellos la tendencia a inventar hechos, infringir los derechos de autor y difundir prejuicios y toxicidad. El intento anterior de Amazon de crear un chatbot GenAI, Amazonas Q, luchó poderosamente y reveló información confidencial el primer día de su publicación. Pero yo diría que el mayor problema actual de GenAI (al menos desde el punto de vista del consumidor) es que hay pocas razones universalmente convincentes para usarlo.
Claro, GenAI como Rufus puede ayudar con tareas específicas y limitadas como comprar por ocasión (por ejemplo, encontrar ropa para el invierno), comparar categorías de productos (por ejemplo, la diferencia entre brillo labial y aceite) y mostrar las principales recomendaciones (por ejemplo, regalos para el Día de San Valentín). ¿Pero está abordando las necesidades de la mayoría de los compradores? No según un reciente encuesta de la startup de software de comercio electrónico Namogoo.
Namogoo, que preguntó a cientos de consumidores sobre sus necesidades y frustraciones cuando se trata de compras en línea, descubrió que las imágenes de los productos eran, con diferencia, el factor más importante para una buena experiencia de comercio electrónico, seguidas de las reseñas y descripciones de los productos. Los encuestados clasificaron la búsqueda como el cuarto lugar más importante y la “navegación simple” el quinto; recordar preferencias, información e historial de compras fue el penúltimo.
La implicación es que la gente generalmente compra pensando en un producto; esa búsqueda es una ocurrencia tardía. Quizás Rufus cambie la ecuación. Me inclino a pensar que no, especialmente si se trata de un lanzamiento difícil (y bien podría darse el recepción de otros experimentos de compras GenAI de Amazon), pero supongo que han sucedido cosas más extrañas.
Aquí hay algunas otras historias destacadas de IA de los últimos días:
- Google Maps experimenta con GenAI: Google Maps presenta una función GenAI para ayudarlo a descubrir nuevos lugares. Aprovechando los grandes modelos de lenguaje (LLM), la función analiza las más de 250 millones de ubicaciones en Google Maps y las contribuciones de más de 300 millones de Local Guides para obtener sugerencias basadas en lo que estás buscando.
- Herramientas GenAI para música y más: En otras noticias de Google, el gigante tecnológico lanzó herramientas GenAI para crear música, letras y imágenes y trajo Gemini Pro, uno de sus LLM más capaces, para los usuarios de su chatbot Bard en todo el mundo.
- Nuevos modelos abiertos de IA: El Instituto Allen para la IA, el instituto de investigación de IA sin fines de lucro fundado por el fallecido cofundador de Microsoft, Paul Allen, ha lanzado varios modelos de lenguaje GenAI que, según afirma, son más «abiertos» que otros y, lo que es más importante, tienen licencia de tal manera que los desarrolladores pueden utilizarlos. sin restricciones para la formación, la experimentación e incluso la comercialización.
- La FCC toma medidas para prohibir las llamadas generadas por IA: La FCC propone que el uso de tecnología de clonación de voz en llamadas automáticas se considere fundamentalmente ilegal, lo que facilitará acusar a los operadores de estos fraudes.
- Shopify lanza un editor de imágenes: Shopify está lanzando un editor de medios GenAI para mejorar las imágenes de los productos. Los comerciantes pueden seleccionar un tipo entre siete estilos o escribir un mensaje para generar un nuevo fondo.
- GPT, invocados: OpenAI está impulsando la adopción de GPT, aplicaciones de terceros impulsadas por sus modelos de IA, al habilitar ChatGPT usuarios para invocarlos en cualquier chat. Los usuarios pagos de ChatGPT pueden incorporar GPT a una conversación escribiendo «@» y seleccionando un GPT de la lista.
- OpenAI se asocia con Common Sense: En un anuncio no relacionado, OpenAI dijo que se está asociando con Common Sense Media, la organización sin fines de lucro que revisa y clasifica la idoneidad de varios medios y tecnología para niños, para colaborar en pautas de IA y materiales educativos para padres, educadores y adultos jóvenes.
- Navegación autónoma: The Browser Company, que fabrica Arc Browser, está en la búsqueda de construir una IA que navegue por la web por usted y le brinde resultados sin pasar por los motores de búsqueda, escribe Ivan.
Más aprendizajes automáticos
¿Sabe una IA qué es “normal” o “típico” para una situación, medio o expresión determinada? En cierto modo, los modelos de lenguaje grandes son especialmente adecuados para identificar qué patrones se parecen más a otros patrones en sus conjuntos de datos. Y de hecho eso es lo que encontraron los investigadores de Yale en su investigación sobre si una IA podría identificar la «tipicidad» de una cosa en un grupo de otras. Por ejemplo, dadas 100 novelas románticas, ¿cuál es la más “típica” y cuál la menos “típica” teniendo en cuenta lo que la marca ha almacenado sobre ese género?
Curiosamente (y frustrante), los profesores Balázs Kovács y Gaël Le Mens trabajaron durante años en su propio modelo, una variante de BERT, y justo cuando estaban a punto de publicarlo, apareció ChatGPT y en muchos sentidos duplicó exactamente lo que habían estado haciendo. “Se podría llorar”, dijo Le Mens en un comunicado de prensa. Pero la buena noticia es que la nueva IA y su antiguo modelo optimizado sugieren que, de hecho, este tipo de sistema puede identificar lo que es típico y atípico dentro de un conjunto de datos, un hallazgo que podría ser útil en el futuro. Los dos señalan que, aunque ChatGPT respalda su tesis en la práctica, su naturaleza cerrada dificulta el trabajo científico.
Los científicos de la Universidad de Pensilvania estaban estudiando Otro concepto extraño a cuantificar: el sentido común.. Al pedir a miles de personas que calificaran afirmaciones como “obtienes lo que das” o “no comas alimentos después de su fecha de caducidad” según su “sentido común”. Como era de esperar, aunque surgieron patrones, hubo «pocas creencias reconocidas a nivel de grupo».
«Nuestros hallazgos sugieren que la idea de sentido común de cada persona puede ser exclusivamente suya, lo que hace que el concepto sea menos común de lo que cabría esperar», dice el coautor principal Mark Whiting. ¿Por qué aparece esto en un boletín de IA? Porque, como casi todo lo demás, resulta que algo tan “simple” como el sentido común, que uno podría esperar que eventualmente tenga la IA, ¡no es nada simple! Pero al cuantificarlo de esta manera, los investigadores y auditores pueden decir cuánto sentido común tiene una IA o con qué grupos y sesgos se alinea.
Hablando de prejuicios, muchos modelos de lenguaje grandes son bastante flexibles con la información que ingieren, lo que significa que si les das el mensaje correcto, pueden responder de manera ofensiva, incorrecta o ambas cosas. Latimer es una startup que busca cambiar eso con un modelo que pretende ser más inclusivo por diseño.
Aunque no hay muchos detalles sobre su enfoque, Latimer dice que su modelo utiliza recuperación de generación aumentada (pensada para mejorar las respuestas) y un montón de contenido con licencia único y datos provenientes de muchas culturas que normalmente no están representadas en estas bases de datos. Entonces, cuando preguntas sobre algo, el modelo no recurre a alguna monografía del siglo XIX para responderte. Aprenderemos más sobre el modelo cuando Latimer publique más información.
Sin embargo, una cosa que un modelo de IA definitivamente puede hacer es cultivar árboles. Árboles falsos. Investigadores del Instituto de Silvicultura Digital de Purdue (donde me gustaría trabajar, llámenme) crearon un modelo súper compacto que simula el crecimiento de un árbol de forma realista. Este es uno de esos problemas que parece sencillo pero no lo es; puedes simular el crecimiento de un árbol que funciona si estás haciendo un juego o una película, claro, pero ¿qué pasa con el trabajo científico serio? «Aunque la IA se ha vuelto aparentemente omnipresente, hasta ahora ha demostrado ser muy exitosa en el modelado de geometrías 3D no relacionadas con la naturaleza», dijo el autor principal Bedrich Benes.
Su nuevo modelo pesa sólo alrededor de un megabyte, lo cual es extremadamente pequeño para un sistema de inteligencia artificial. Pero, por supuesto, el ADN es aún más pequeño y denso y codifica todo el árbol, desde la raíz hasta la yema. El modelo todavía funciona en abstracciones (de ninguna manera es una simulación perfecta de la naturaleza), pero muestra que las complejidades del crecimiento de los árboles pueden codificarse en un modelo relativamente simple.
Por último, un robot de investigadores de la Universidad de Cambridge que puede leer braille más rápido que un humano, con un 90% de precisión. ¿Porque preguntas? En realidad, no es para que lo utilicen personas ciegas: el equipo decidió que era una tarea interesante y fácilmente cuantificable para probar la sensibilidad y la velocidad de las yemas de los dedos robóticos. Si puede leer braille con solo hacer zoom sobre él, ¡es una buena señal! Puedes leer más sobre este interesante enfoque aquí.. O mira el vídeo a continuación: