La gente está engañando a los chatbots de IA para que ayuden a cometer crímenes
Los investigadores han descubierto un «jailbreak universal» para los chatbots de IA El jailbreak puede engañar a los principales chatbots para ayudar a cometer crímenes u otra actividad poco ética Algunos modelos de IA ahora están siendo diseñados deliberadamente sin...