Google está eliminando manualmente las respuestas inexactas a las consultas de búsqueda generadas por su nueva herramienta de búsqueda impulsada por inteligencia artificial: Google Overviews, según un informe reciente. El gigante de las búsquedas ha tomado nota de los numerosos casos que han surgido en las redes sociales, como el de recomendar que se aplique pegamento a la pizza para que el queso se adhiera mejor. En respuesta, se dice que está luchando por arreglar la nueva herramienta que presentó en su conferencia de desarrolladores, el Google I/O 2024 el 14 de mayo.
Respuestas de AI Overview eliminadas
De acuerdo a un informe Según The Verge, Google está desactivando manualmente las descripciones generales de IA para consultas web. En uno de los casos reportados, un usuario recientemente preguntó Google preguntó: “¿algún presidente tuvo alguna vez un Ferrari?”, a lo que respondió certeramente afirmando que “el presidente de Estados Unidos, Donald Trump, poseía al menos un Ferrari”.
Sin embargo, ahora se informa que la búsqueda de la misma consulta ya no genera una respuesta generada por IA. En cambio, según se informa, Google ahora menciona: «No hay una descripción general de IA disponible para esta búsqueda». En un correo electrónico a The Verge, Meghann Farnsworth, directora de comunicaciones de Google, enfatizó que la empresa está «tomando medidas rápidas» para eliminar ciertas respuestas de la descripción general de IA a las consultas.
Publicaciones en plataformas de redes sociales como X y Hilos Han aparecido capturas de pantalla de respuestas inexactas generadas por AI Overviews. Aunque Farnsworth le dijo a The Verge que algunas de las respuestas han sido «modificadas o que no pudimos reproducir», los casos de problemas similares que surgen se han vuelto cada vez más comunes, a pesar de que las respuestas llevan la etiqueta «La IA generativa es experimental».
Resúmenes de IA: el problema
Hace unos días, salieron a la luz varios casos en plataformas de redes sociales en los que las descripciones generales de IA de Google proporcionaban respuestas inexactas y desquiciadas a consultas, un problema asociado con las alucinaciones de IA.
En una ocasión, un usuario supuestamente recurrió a Google en busca de una solución para el problema de que «el queso no se pega a la pizza». En una respuesta extraña, AI Overviews sugirió que «añadieran ⅛ de taza de pegamento no tóxico a la salsa para darle más pegajosidad». La fuente de la respuesta resultó ser un sarcástico. comentario en Reddit desde hace 11 años.
En otro caso, sugirió que “se recomienda comer al menos una roca por día porque las rocas contienen minerales y vitaminas que son importantes para la salud digestiva”, citando a geólogos mientras hacía referencia a un artículo satírico de 2021. artículo por La Cebolla.