Llama 2 LLM de Meta todavía es propenso a sufrir alucinaciones y otras vulnerabilidades de seguridad graves
En contexto: A menos que esté directamente involucrado en el desarrollo o la capacitación de un modelo de lenguaje grande, no piensa ni siquiera se da cuenta de sus posibles vulnerabilidades de seguridad. Ya sea proporcionando información errónea o filtrando...