Edgar Cervantes / Autoridad Android
TL;DR
- Se ha descubierto que la función AI Overviews de Google recomienda volver a agregar pegamento a la pizza.
- Esta vez, el modelo de IA hizo referencia a publicaciones de noticias que documentaban el incidente anterior.
- El gigante de las búsquedas ya ha reducido las descripciones generales de IA para que no aparezcan con tanta frecuencia en los resultados.
En un giro extraño, la función de búsqueda de inteligencia artificial de Google parece estar atrapada en un bucle recursivo de su error más infame: recomendar pegamento en la pizza. Después de recibir críticas por sugerir a los usuarios que peguen el queso de su pizza para evitar que se resbale, Resúmenes de IA ahora hace referencia a artículos de noticias sobre ese mismo incidente para… bueno, todavía recomienda agregar pegamento a las pizzas.
Google comenzó a probar su función AI Overviews el año pasado, pero los usuarios tenían que aceptarla antes de poder ver resúmenes en sus resultados de búsqueda. Sin embargo, el mes pasado, la compañía decidió lanzar la función al público en general luego de su conferencia de desarrolladores de E/S. Desde entonces, la empresa ha sido criticada después de que la IA ofreciera consejos inexactos y dañinos a usuarios desprevenidos. Si bien el caso del pegamento en la pizza es el más conocido, AI Overviews también ha sugerido comer piedras y “agregar más aceite al fuego de aceite de cocina”.
Google sólo admitió parcialmente su culpa en ese momento, echando la culpa a las consultas de búsqueda que provocaron las controvertidas respuestas en una publicación de blog sobre el tema. «No hay mucho contenido web que contemple seriamente esa pregunta», decía mientras se refería a la búsqueda de un usuario de «¿Cuántas piedras debo comer?» Google también afirmó que muchas de las capturas de pantalla virales eran falsas. Sin embargo, la empresa Reseñas restringidas de IA para que no aparezcan en tantos resultados de búsqueda después de la controversia.
Hoy en día, las descripciones generales de IA aparecen en aproximadamente el 11% de los resultados de búsqueda de Google, cifra muy inferior a la cifra del 27% en los primeros días del lanzamiento de la función. Sin embargo, parece que es posible que la empresa no haya solucionado el problema de raíz que inició toda la controversia.
Colin McMillen, ex empleado de Google, manchado La función AI Overviews regurgita su error más infame: agregar pegamento a la pizza. Esta vez, la fuente no fue una publicación oscura en un foro de hace una década, sino artículos de noticias que documentan el paso en falso de Google. McMillen simplemente buscó «cuánto pegamento agregar a la pizza», una consulta de búsqueda ciertamente absurda que cae dentro de la defensa de la compañía mencionada anteriormente.
No pudimos activar una descripción general de IA para que apareciera con la misma consulta de búsqueda. Sin embargo, el fragmento destacado de Google intervino con un texto resaltado que sugería «un octavo de taza» de un artículo de noticias reciente. Los fragmentos destacados no funcionan con IA generativa, pero el motor de búsqueda los utiliza para resaltar posibles respuestas a preguntas comunes.
Las alucinaciones en modelos de lenguaje grandes no son una ocurrencia nueva, poco después ChatGPT Lanzado en 2022, se hizo conocido por generar texto sin sentido o engañoso. Sin embargo, OpenAI logró dominar la situación con barreras de seguridad efectivas. Microsoft dio un paso más con Bing Chat (ahora Copiloto), lo que permite al chatbot buscar en Internet y verificar sus respuestas. Esta estrategia arrojó excelentes resultados, probablemente gracias al «comportamiento emergente» de GPT-4 que le otorga cierta capacidad de razonamiento lógico.
Por el contrario, los modelos PaLM 2 y Gemini de Google funcionan muy bien en tareas creativas y de escritura, pero han tenido problemas con la precisión objetiva incluso con la capacidad de navegar por Internet.