Mientras circulaba “Todos los ojos puestos en Rafah”, Shayan Sardarizadeh, periodista de BBC Verify, publicado en X que «ahora se ha convertido en la imagen generada por IA más viral que jamás haya visto». Es irónico, entonces, que todos esos ojos puestos en Rafah en realidad no estén viendo a Rafah en absoluto.
Establecer el papel de la IA en el acto de difundir noticias se volvió complicado rápidamente. meta, como NBC News señaló esta semana, ha hecho esfuerzos para restringir el contenido político en sus plataformas incluso cuando Instagram se ha convertido en una “salida crucial para los periodistas palestinos”. El resultado es que las imágenes reales de Rafah pueden restringirse como “contenido gráfico o violento”, mientras que una imagen de IA de tiendas de campaña puede difundirse a lo largo y ancho. Es posible que la gente quiera ver lo que sucede sobre el terreno en Gaza, pero es una ilustración de la IA a la que se le permite llegar a sus feeds. Es devastador.
Mientras tanto, los periodistas se encuentran en la posición de que su trabajo se introduzca en modelos en grandes idiomas. El miércoles, Axios informó que Vox Media y The Atlantic habían llegado a acuerdos con OpenAI que permitirían al fabricante de ChatGPT utilizar su contenido para entrenar sus modelos de IA. Escribiendo en el propio The Atlantic, Damon Beres lo llamó un “negocio del diablo”, señalando el derechos de autor y batallas éticas Actualmente, la IA está luchando y señalando que la tecnología “no se ha sentido exactamente como una amiga de la industria de las noticias”, una afirmación que algún día podría llegar a la memoria de un chatbot. Si pasan unos años, gran parte de la información que existe (la mayor parte de lo que la gente “ve”) no provendrá de relatos de testigos ni será el resultado de un ser humano que observe las pruebas y aplique el pensamiento crítico. Será un facsímil de lo que informaron, presentado en la forma que se considere adecuada.
Es cierto que esto es drástico. Como señaló Beres, “la IA generativa podría resultar buena”, pero hay motivos de preocupación. El jueves, WIRED publicó un informe masivo analizando cómo se utiliza la IA generativa en las elecciones de todo el mundo. Destacó todo, desde imágenes falsas de Donald Trump con votantes negros hasta llamadas automáticas deepfake del presidente Biden. Se actualizará a lo largo del año y supongo que será difícil mantenerse al día con toda la información errónea que proviene de los generadores de IA. Una imagen puede haber puesto los ojos en Rafah, pero también podría fácilmente poner los ojos en algo falso o engañoso. La IA puede aprender de los humanos, pero no puede. como lo hizo utsalva a las personas de las cosas que se hacen unos a otros.
Hilos sueltos
La búsqueda está jodida. Como un estúpido villano de Bond, The Algorithm ha amenazado a los usuarios de Internet durante años. Ya sabes de lo que estoy hablando: el misterioso sistema que decide qué publicación X, Instagram Reel o TikTok deberías ver a continuación. Sin embargo, la prevalencia de uno de esos algoritmos realmente llamó la atención esta semana: Google. Después de unos días difíciles durante los cuales el gigante de las búsquedas “Resúmenes de IA”fue criticado en las redes sociales por decirle a la gente que Ponle pegamento a la pizza y come piedras. (no al mismo tiempo), la empresa se apresuró a fregar los malos resultados. Mi colega Lauren Goode tiene ya escrito sobre las formas en que la búsqueda (y los resultados que proporciona) tal como la conocemos está cambiando. Pero me gustaría ofrecer un argumento diferente: la búsqueda está un poco jodida. Parece que cada consulta en estos días llama a un chatbot con el que nadie quiere hablar y, personalmente, pasé la mayor parte de la semana tratando de encontrar nuevas formas de búsqueda que mostraran lo que realmente estaba buscando, en lugar de una Descripción general. Ah, luego estaba todo ese asunto de los 2.500 documentos relacionados con la búsqueda. siendo filtrado.
contenido de tiktok
Este contenido también se puede ver en el sitio. se origina de.