OpenAI fija nuevas reglas para que los modelos GPT tengan un comportamiento adecuado

OpenAI, la compañía de Sam Altman, presenta un documento que sirve de base para definir el comportamiento de sus modelos de inteligencia artificial. Este archivo, llamado 'Model Spec', especifica el "comportamiento deseado" para los modelos "en OpenAI API y ChatGPT", por lo tanto, incluye detalles sobre cómo tienen que responder los modelos de lenguaje a las consultas de los usuarios –ya sea el tono, personalidad o longitud de las respuestas– para evitar los posibles conflictos.

Con este documento, OpenAI quiere fijar unos objetivos, reglas y valores predeterminados. Además, afirma que tiene la intención de "construir e implementar IA de manera responsable" para "brindar más transparencia", "dar forma al comportamiento del modelo" e "iniciar una conversación pública sobre cómo se podría cambiar y mejorar".

Por lo tanto, de acuerdo a este primer borrador, los objetivos principales de 'Model Spec' consisten en proporcionar un sentido direccional del comportamiento deseado, ayudar a los usuarios con instrucciones y respuestas útiles, respetar la ley y las normas sociales, beneficiar a la humanidad y garantizar seguridad.

No obstante, para cumplir con todos estos objetivos mencionadas, el documento 'Model Spec' establece que un modelo de inteligencia artificial debe respetar a los usuarios, cumplir con la legislación aplicable, seguir la cadena de mando, proteger la privacidad de los internautas y no responder a los usuarios con contenido para adultos.

¿Qué pasa si un modelo con IA cumple las normas de 'Model Spec'?

Si un modelo de OpenAI cumple con los objetivos, reglas y valores predeterminados de 'Model Spec', dicha inteligencia artificial conseguirá un comportamiento predeterminado para manejar conflictos, afrontar las interacciones de los usuarios, adoptar un punto de vista objetivo, desalentar el odio y no interferir en las opiniones. Estos son los principios que especifica la compañía de Altman:

  • Objetivos: Proporcionan una idea direccional de qué comportamiento es deseable, sin embargo, estos objetivos suelen ser demasiado amplios para dictar acciones específicas en escenarios complejos donde no todos los objetivos están alineados. Asimismo, proporcionan un orden parcial de las preferencias de los usuarios.
  • Reglas: Las normas desempeñan un papel importante a la hora de garantizar seguridad y legalidad. Se utilizan para abordar situaciones de alto riesgo en las que el potencial de consecuencias negativas significativas es inaceptable y, por lo tanto, los desarrolladores o los usuarios no pueden anularlos.
  • Comportamientos predeterminados: Proporcionan un modelo para manejar conflictos, demostrando cómo priorizar y equilibrar objetivos cuando su importancia relativa es "difícil de articular".

Por otro lado, la compañía de Altman indica en el borrador que "este marco está diseñado para maximizar la direccionabilidad y el control para usuarios y desarrolladores, permitiéndoles ajustar el comportamiento del modelo a sus necesidades mientras se mantiene dentro de límites claros"

'Model Spec' podría actualizarse con frecuencia

Según el diario The Verge, 'Model Spec' no afectará inmediatamente a los modelos lanzados actualmente de OpenAI, como GPT-4 o DALL-E 3, ya que continúan operando según las políticas de uso existentes.

Joanne Jang, gerente de producto de OpenAI, https://www.theverge.com/2024/5/8/24152273/openai-model-spec-behavior-rules-guidelines-artificial-intelligence que 'Model Spec' "pretende ser un documento vivo que podría actualizarse con frecuencia". Añadiendo que esperan que este modelo "proporcione información temprana a medida que desarrollamos un proceso sólido para recopilar e incorporar comentarios para garantizar que estamos construyendo responsablemente hacia nuestra misión".

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Zircon - This is a contributing Drupal Theme
Design by WeebPal.