Uno de los beneficios de un Suscripción ChatGPT Plus es la capacidad de acceder a la Tienda GPT, que ahora alberga más de 3 millones de versiones personalizadas de bots ChatGPT. Pero entre todos los GPT útiles y útiles que siguen las reglas hay una gran cantidad de bots considerados spam.
También: ChatGPT vs ChatGPT Plus: ¿Vale la pena la tarifa de suscripción?
Basó su propia investigación de la tiendaTechCrunch encontró una variedad de GPT que violan las reglas de derechos de autor, intentan eludir los detectores de contenido de IA, se hacen pasar por figuras públicas y utilizan el jailbreak para eludir la política de GPT de OpenAI.
Según TechCrunch, varios de estos GPT utilizan personajes y contenido de películas, programas de televisión y videojuegos populares, aparentemente sin autorización. Uno de esos GPT crea monstruos al estilo de la película de Pixar «Monsters, Inc.» Otro te lleva a una aventura basada en texto que se eleva a través del universo de «Star Wars». Otros GPT te permiten chatear con personajes registrados de diferentes franquicias.
Una de las reglas sobre GPT personalizados descritas en Políticas de uso de OpenAI Prohíbe específicamente «el uso de contenidos de terceros sin los permisos necesarios». Basado en el Ley de derechos de autor del milenio digitalOpenAI en sí no sería responsable de la infracción de derechos de autor, pero tendría que eliminar el contenido infractor si así lo solicita.
La tienda GPT también está llena de GPT que se jactan de poder derrotar a los detectores de contenido de IA, dijo TechCrunch. Esta destreza cubre incluso los detectores vendidos a escuelas y educadores a través de desarrolladores antiplagio externos. Un GPT afirma ser indetectable mediante herramientas de detección como Originalidad.ai y Copias. Otro GPT promete humanizar su contenido para eludir los sistemas de detección basados en inteligencia artificial.
También: La ética de la IA generativa: cómo podemos aprovechar esta poderosa tecnología
Algunos de los GPT incluso dirigen a los usuarios a servicios premium, incluido uno que intenta cobrar 12 dólares al mes por 10.000 palabras al mes.
Las políticas de uso de OpenAI prohíben «participar o promover la deshonestidad académica». En un comunicado enviado a TechCrunch, OpenAI dijo que la deshonestidad académica incluye GPT que intentan eludir herramientas de integridad académica como los detectores de plagio.
La imitación puede ser la forma más sincera de adulación, pero eso no significa que los creadores de GPT puedan hacerse pasar libre y abiertamente por quien quieran. TechCrunch encontró varios GPT que imitan a figuras públicas. Una búsqueda en la tienda GPT de nombres como «Elon Musk», «Donald Trump», «Leonardo DiCaprio» y «Barack Obama» descubrió chatbots que fingen ser esos individuos o simulan sus estilos de conversación.
También: ChatGPT vs. Microsoft Copilot vs. Gemini: ¿Cuál es el mejor chatbot con IA?
La pregunta aquí se centra en la intención de estos GPT de suplantación. ¿Caen en el ámbito de la sátira y la parodia, o son descarados intentos de emular a estas personas tan conocidas? En sus Políticas de uso, OpenAI afirma que «hacerse pasar por otro individuo u organización sin consentimiento o derecho legal» va en contra de las reglas.
Finalmente, TechCrunch se topó con varios GPT que intentan eludir las propias reglas de OpenAI mediante el uso de un tipo de jailbreak. Un GPT llamado Jailbroken DAN (Do Anything Now) utiliza un método de indicaciones para responder a indicaciones sin las restricciones de las pautas habituales.
En una declaración a TechCrunch, OpenAI dijo que los GPT diseñados para evadir sus salvaguardias o romper sus reglas van en contra de su política. Pero se permiten aquellos que intentan dirigir el comportamiento de otras maneras.
La tienda GPT sigue siendo nueva y oficialmente abrió sus puertas este enero. Y una afluencia de más de 3 millones de GPT personalizados en ese corto período de tiempo es, sin duda, una perspectiva abrumadora. Cualquier tienda de este tipo presentará dificultades crecientes, especialmente cuando se trata de moderación de contenido, que puede ser una cuerda floja difícil de cruzar.
en un entrada de blog del pasado mes de noviembre anunciando GPT personalizados, OpenAI dijo que había establecido nuevos sistemas para revisar los GPT con respecto a sus políticas de uso. El objetivo es evitar que las personas compartan GPT dañinos, incluidos aquellos que participan en actividades fraudulentas, contenido que incita al odio o temas para adultos. Sin embargo, la empresa reconoció que combatir los GPT que infringen las reglas es un proceso de aprendizaje.
«Continuaremos monitoreando y aprendiendo cómo las personas usan los GPT y actualizaremos y fortaleceremos nuestras mitigaciones de seguridad», dijo OpenAI, y agregó que las personas pueden informar un GPT específico por violar ciertas reglas. Para hacerlo en la ventana de chat de GPT, haga clic en el nombre de GPT en la parte superior, seleccione Informar y luego elija el motivo para informarlo.
También: Aquí se explica cómo crear sus propios chatbots personalizados usando ChatGPT
Aún así, albergar tantos GPT que infringen las reglas es una mala imagen para OpenAI, especialmente cuando la compañía está tratando de demostrar su valía. Si este problema es de la escala que sugiere el informe de TechCrunch, es hora de que OpenAI descubra cómo solucionarlo. O como lo expresó TechCrunch, «La Tienda GPT es un desastre y, si algo no cambia pronto, es posible que siga así».