Abierto AI‘s ChatGPT ha sido durante mucho tiempo ‘mudo’, dispuesto a ayudar en el cibercrimen, una analogía de Ícaro para la edad y una amenaza a los datos confidenciales de la empresa.
Sin embargo, al parecer tenemos que volver a analizar todo esto, ya que están surgiendo informes de que el herramienta de inteligencia artificial una vez más está filtrando contraseñas en el interior, solo para variar, de los tickets de soporte corporativo.
Por Ars TécnicaChatGPT recientemente entregó a un usuario registros de chat del sistema de soporte de una compañía farmacéutica, que consisten en el informe de error de otro usuario relacionado con un portal de usuario… que contenía las credenciales de ese usuario.
Limpieza en pasillo GPT
“Fui a hacer una consulta […] y cuando volví a acceder momentos después, noté las conversaciones adicionales. No estaban allí cuando usé ChatGPT anoche. […] No se hicieron consultas, simplemente aparecieron en mi historial y ciertamente no son mías (y tampoco creo que sean del mismo usuario)», dijo a la publicación Chase Whiteside, lector de Ars Technica.
Whiteside también pudo obtener «el nombre de una presentación en la que alguien estaba trabajando», «detalles de una propuesta de investigación inédita» y, uno para el verdadero anorak de TechRadar Pro: un script «escrito» en PHP. a fin de cuentas, probablemente robado de un repositorio público de Github.
Lo que es interesante/sombrío (eliminar según la visión del mundo) es que, a pesar de que ChatGPT no tiene nada cercano a un historial impecable, Whiteside dice que son «un usuario bastante frecuente» del servicio y no dan señales de que este incidente, o cualquier ChatGPT- incidente en forma que hemos informado en el último año o lo que sea, les ha hecho reflexionar. Señoras, señores e indefinido: una dependencia en acción.
Análisis: Quiero tirar el concepto intangible de la IA a un tanque de ácido, ¿pueden ayudarme?
Mire, en TechRadar Pro somos muy especializados, lo sabemos. Usted nos lee, así que ya sabe que la ‘inteligencia artificial’ no es una computadora sensible, y es simplemente un multimillonario que introduce a la fuerza obras digitales protegidas por derechos de autor en una CPU para crear un corpus que será escupido a las masas como pepitas de naranja después. la maniobra de Heimlich.
Si pones monos en una habitación llena de computadoras, eventualmente simplemente controlarán-c + control-v las obras completas de Shakespeare. O, más bien, el valor de medio acto de Romeo y Julieta antes de decirle que para respuestas rápidas más largas debe pagar $20 al mes.
Las computadoras realmente no tienen contexto, en realidad no estás hablando con una persona humana. Sabes esto y más, eres genial, pero nadie más lo sabe, o a nadie más le importa el daño que está causando la ‘IA’, o tal vez un poco de ambas cosas.
Parece que cada semana aumenta la edad promedio de una persona que me pregunta ‘¿qué es la IA? No la entiendo, pero la uso diariamente, así que quiero tenerla’ aumenta, mientras que mi tasa de éxito en comunicar qué es, el cinismo especulador detrás de esto. , y el daño resultante que causa, en términos realistas, disminuye. De manera confiable, me encuentro con ‘No sé, me hace la vida más fácil’ o alguna variación del mismo.
«Solo una pequeña filtración descarada de datos de usuario, amigo», es cada vez más la postura de tu madre que publica un estado en Facebook diciendo que NO le da permiso a Mark Zuckerberg para usar sus publicaciones privadas o sus datos personales antes de publicar un cierre borroso. Fotografías de un nuevo lunar en su muslo que la preocupa. Probablemente por eso tenemos los gobiernos que tenemos.
Tengo la sensación más furtiva de haber escrito antes sobre la sumisión tecnológica ciega, entonces, ¿qué estoy diciendo? En este viejo manzana mundo del espectáculo de medicina de la piedad, dígales la verdad: que los chatbots de IA pueden amenazar, jurary ser racista (un titular no seguro para el trabajo pero absolutamente acertado de The Verge, allí).
No les digas que esto es simplemente una máquina que aprende de su comportamiento abismal y se lo refleja, aunque así sea. Literalmente, en el caso de Whiteside, quien se encontró con nuestro reportero anónimo de errores exclamando «esto es una locura» a un agente de servicio al cliente vivo y que respira.
Dígales que piensen en los niños. Estará prohibido dentro de quince días.