A lo largo de los años, Engadget ha sido el objetivo de una estafa de SEO común, en la que alguien reclama la propiedad de una imagen y exige un enlace a un sitio web en particular. Muchos otros sitios web le dirían lo mismo, pero ahora los estafadores están haciendo que sus avisos de eliminación de DMCA falsos y sus amenazas de acciones legales parezcan más legítimos con la ayuda de herramientas de inteligencia artificial de fácil acceso.
Según un informe de 404Mediosel editor del sitio web Tedio Recibí un «aviso de infracción de derechos de autor» por correo electrónico de una firma de abogados llamada Commonwealth Legal la semana pasada. Al igual que intentos similares más antiguos de engañar al destinatario, el remitente dijo que se están comunicando «en relación con una imagen» conectada a su cliente. En este caso, el remitente exigió que se agregara un «enlace visible y en el que se pudiera hacer clic» a un sitio web llamado «tech4gods» debajo de la foto supuestamente robada.
Dado que Tedium en realidad utilizó una fotografía de un proveedor libre de regalías, el editor investigó la demanda, encontró el sitio web del bufete de abogados y, tras una inspección más detallada, se dio cuenta de que las imágenes de sus abogados habían sido generadas por IA. Como 404Medios Como señala, las imágenes de los abogados tenían miradas vacías en los ojos que se ven comúnmente en fotografías creadas con herramientas de inteligencia artificial. Si realiza una búsqueda inversa de imágenes en ellos, obtendrá resultados de un sitio web con la URL generate.photos, que utiliza inteligencia artificial para crear «fotos de modelos únicas y sin preocupaciones… desde cero». El editor también descubrió que la dirección del bufete de abogados que se supone que está en el cuarto piso de un edificio apunta a una estructura de un piso en Google Street View. El propietario de tech4gods dijo que no tuvo nada que ver con la estafa, pero admitió que solía comprar vínculos de retroceso para su sitio web.
Este es solo un ejemplo de cómo los malos actores pueden usar herramientas de inteligencia artificial para engañar y estafar a las personas, y tenemos que estar más atentos ya que casos como este probablemente seguirán creciendo. Los motores de búsqueda de imágenes inversas son tus amigos, pero Puede que no sea infalible y puede que no siempre ayude. Los deepfakes, por ejemplo, se han convertido en un gran problema en los últimos años, ya que los malos actores continúan usándolos para crear videos y audio convincentes, no solo para estafar a la gentesino también a difundir información errónea en línea.