«Correr con tijeras es un ejercicio cardiovascular que puede aumentar el ritmo cardíaco y requiere concentración y atención», dice el nuevo Google Función de búsqueda de IA. «Algunos dicen que también puede mejorar los poros y darte fuerza».
La función de inteligencia artificial de Google obtuvo esta respuesta de un sitio web llamado Comedia de ancianitas, que como su nombre deja claro, es un blog de comedia. Pero el error es tan ridículo que ha estado circulando en las redes sociales, junto con otras resúmenes de IA obviamente incorrectas en Google. Efectivamente, los usuarios cotidianos ahora están combinando estos productos en las redes sociales.
En ciberseguridad, algunas empresas contratan “equipos rojos” (hackers éticos) que intentan vulnerar sus productos como si fueran malos actores. Si un equipo rojo encuentra una vulnerabilidad, la empresa puede solucionarla antes de que se envíe el producto. Ciertamente, Google llevó a cabo una especie de equipo rojo antes de lanzar un producto de inteligencia artificial en la Búsqueda de Google, que es estimado para procesar billones de consultas por día.
Es sorprendente, entonces, que una empresa con muchos recursos como Google todavía ofrezca productos con defectos obvios. Es por eso que ahora se ha convertido en un meme hacer payasadas sobre las fallas de los productos de IA, especialmente en una época en la que la IA se está volviendo más ubicua. Hemos visto esto con mala ortografía ChatGPTla incapacidad de los generadores de vídeo para comprender cómo los humanos comen espaguetisy Grok A.I. resúmenes de noticias sobre X que, como Google, no entienden de sátira. Pero estos memes podrían en realidad servir como comentarios útiles para las empresas que desarrollan y prueban la IA.
A pesar de la naturaleza notoria de estas fallas, las empresas de tecnología a menudo minimizan su impacto.
«Los ejemplos que hemos visto son consultas generalmente muy poco comunes y no son representativos de las experiencias de la mayoría de las personas», dijo Google a TechCrunch en un comunicado enviado por correo electrónico. «Realizamos pruebas exhaustivas antes de lanzar esta nueva experiencia y utilizaremos estos ejemplos aislados a medida que continuamos perfeccionando nuestros sistemas en general».
No todos los usuarios ven los mismos resultados de IA y, cuando llega una sugerencia de IA particularmente mala, el problema a menudo ya se ha solucionado. En un caso más reciente que se volvió viral, Google sugirió que si estás haciendo pizza pero el queso no se pega, podrías agregar aproximadamente un octavo de taza de pegamento a la salsa para “darle más pegajosidad”. Al final resultó que, la IA está obteniendo esta respuesta de un comentario de Reddit de hace once años de un usuario llamado «f––smith».
Más allá de ser un error increíble, también indica que las ofertas de contenido de IA pueden estar sobrevaloradas. Google tiene un contrato de 60 millones de dólares con Reddit para licenciar su contenido para el entrenamiento de modelos de IA, por ejemplo. Reddit firmó un acuerdo similar con AbiertoAI la semana pasada, y las propiedades de Automattic WordPress.org y Tumblr son rumoreado estar en conversaciones para vender datos a Midjourney y OpenAI.
Hay que reconocer que muchos de los errores que circulan en las redes sociales provienen de búsquedas no convencionales diseñadas para hacer tropezar a la IA. Al menos espero que nadie esté buscando seriamente los “beneficios para la salud de correr con tijeras”. Pero algunos de estos errores son más graves. La periodista científica Erin Ross publicado en X que Google escupe información incorrecta sobre qué hacer si te muerde una serpiente de cascabel.
La publicación de Ross, que obtuvo más de 13.000 me gusta, muestra que AI recomendó aplicar un torniquete a la herida, cortarla y succionar el veneno. De acuerdo con la Servicio Forestal de EE. UU.estas son todas las cosas que deberías no hazlo si te muerden. Mientras tanto, en Bluesky, el autor T Kingfisher amplió una publicación que muestra el Géminis de Google. Identificar erróneamente un hongo venenoso como un champiñón blanco común: las capturas de pantalla de la publicación tienen desparramar a otras plataformas como advertencia.
Cuando una mala respuesta de la IA se vuelve viral, la IA podría confundirse más por el nuevo contenido sobre el tema que surge como resultado. El miércoles, el periodista del New York Times Aric Toler publicó una captura de pantalla en X eso muestra una consulta que pregunta si un perro ha jugado alguna vez en la NHL. La respuesta de la IA fue sí: por alguna razón, la IA llamó perro al jugador de Calgary Flames, Martin Pospisil. Ahora, cuando haces la misma consulta, la IA obtiene un artículo de el punto diario sobre cómo la IA de Google sigue pensando que los perros practican deportes. La IA está siendo alimentada con sus propios errores, envenenándola aún más.
Este es el problema inherente al entrenamiento de estos modelos de IA a gran escala en Internet: a veces, la gente en Internet miente. Pero al igual que hay No hay regla contra un perro que juega baloncesto.lamentablemente no existe ninguna norma que prohíba a las grandes empresas tecnológicas enviar productos de IA defectuosos.
Como dice el refrán: basura entra, basura sale.