Más allá de estos objetivos generales, el documento también proporciona instrucciones claras, a las que el blog se refiere como «reglas». Estas reglas están diseñadas para abordar situaciones complejas y “ayudar a garantizar la seguridad y la legalidad” de las acciones de la IA. Algunas de estas reglas incluyen seguir instrucciones de los usuarios, cumplir con las leyes, evitar la creación de riesgos en la información, respetar los derechos y la privacidad de los usuarios y evitar la generación de contenido inapropiado o NSFW (no seguro para el trabajo).
Finalmente, la especificación del modelo reconoce que puede haber situaciones en las que estos objetivos y reglas «entren en conflicto». Para sortear estas complejidades, el documento sugiere comportamientos predeterminados a seguir por el modelo de IA. Estos comportamientos predeterminados incluyen asumir las mejores intenciones de los usuarios, ser útiles sin «sobrepasar” límites y fomentar interacciones respetuosas.
«Esta es la dirección ideal que deberían tomar los modelos y es fantástico ver a OpenAI haciendo el esfuerzo con esta nueva especificación sobre cómo debe comportarse un modelo según el usuario con mayor contexto y personalización, pero más «responsablemente», dijo Neil Shah. Vicepresidente de investigación y socio de Counterpoint Research, una firma global de investigación y consultoría.
El énfasis de OpenAI en la transparencia y la colaboración
OpenAI, en la publicación del blog, reconoció la especificación del modelo como un «documento vivo», lo que significa que está abierto a comentarios y evolucionando junto con el campo de la IA.
«Nuestra intención es utilizar la especificación del modelo como guía para que los investigadores y etiquetadores de datos creen datos como parte de una técnica llamada aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF)». decía otro documento de OpenAI que detalla la especificación del modelo. «La especificación, al igual que nuestros propios modelos, se actualizará continuamente en función de lo que aprendamos al compartirla y escuchar los comentarios de las partes interesadas».
RLHF impulsará cómo un modelo se adaptará mejor al comportamiento humano real, pero también lo hará transparente con objetivos, principios y reglas establecidos. Esto lleva el modelo OpenAI al siguiente nivel, haciéndolo más responsable y útil, afirmó Shah. «Aunque será un objetivo en constante movimiento para ajustar las especificaciones, ya que hay muchas áreas grises con respecto a cómo se interpreta una consulta y cuál es el objetivo final, y el modelo tiene que ser lo suficientemente inteligente y responsable para detectar si la consulta y la respuesta son menos responsables”.