Noticias

Operai actualiza las especificaciones del modelo para equilibrar mejor la libertad del usuario con barandillas de seguridad

Published

on

Operai acaba de lanzar una gran actualización de su especificación de modelo. Este es esencialmente el plan que gobierna cómo se comportan sus modelos AI en ChatGPT y la API de OpenAI. El marco revisado enfatiza la libertad intelectual y la autonomía del usuario al tiempo que mantiene los límites de seguridad esenciales, un equilibrio delicado que refleja el enfoque evolutivo de la compañía para el desarrollo y la implementación de la IA.

Puntos clave:

  • La especificación del modelo tiene una “cadena de mando” jerárquica que define cómo los modelos priorizan las instrucciones, con las reglas de la plataforma que tienen prioridad sobre las entradas de desarrollador y usuario.
  • Ahora está disponible en el dominio público bajo una licencia Creative Commons CC0, lo que permite a los desarrolladores e investigadores adaptarse y construirlo libremente.
  • La compañía ha comenzado a medir el cumplimiento del modelo a los principios de la especificación a través de pruebas integrales
  • La actualización abarca explícitamente la libertad intelectual dentro de los límites de seguridad definidos, lo que permite la discusión de temas controvertidos al tiempo que mantiene restricciones contra el daño concreto.

La especificación del modelo actualizado presenta una cadena de comando clara que prioriza las reglas a nivel de la plataforma, seguido de las instrucciones del desarrollador y luego las entradas del usuario. Esta estructura jerárquica tiene como objetivo brindar a los usuarios y desarrolladores un control sustancial sobre el comportamiento del modelo al tiempo que preservan medidas de seguridad críticas.

“Esta actualización refuerza nuestra creencia en la exploración y discusión abierta, con énfasis en el control de usuarios y desarrolladores, así como barandillas para evitar daños”, dijo Openii en su anuncio.

Openai ha lanzado esta versión de la especificación del modelo bajo una licencia Creative Commons CC0, colocándola efectivamente en el dominio público. Esto permitirá a los desarrolladores e investigadores adaptarse y aprovechar libremente el marco en su propio trabajo, acelerando la innovación en la seguridad y la alineación de la IA.

La compañía también ha comenzado a medir qué tan bien sus modelos se adhieren a los principios de las especificaciones del modelo a través de un enfoque de prueba integral. Utilizando una combinación de indicaciones generadas por IA y revisión de expertos, OpenAI evalúa el rendimiento del modelo en varios escenarios, desde interacciones rutinarias hasta casos de borde complejos. Los resultados tempranos indican una mejor alineación en comparación con sus sistemas de mayo pasado, aunque la compañía reconoce que todavía hay margen de mejora.

Uno de los aspectos más importantes de la actualización es su abrazo explícito de la libertad intelectual: una notable desviación de los chatbots de IA actuales, incluidas las versiones anteriores de ChatGPT, que han sido criticadas por exhibir prejuicios políticos y ser demasiado cauteloso en discutir temas controvertidos. El nuevo marco establece que la IA debe permitir a los usuarios explorar, debatir y crear sin restricciones arbitrarias, independientemente de cuán desafiante o controvertido sea un tema.

Esto representa un cambio del enfoque conservador a menudo restrictivo adoptado por muchos sistemas de IA que tienden a evitar o mostrar sesgo en las discusiones sobre política, problemas sociales o eventos históricos controvertidos. Sin embargo, esta libertad opera dentro de los límites claramente definidos: mientras que el modelo puede participar en discusiones sobre temas delicados, está programado para rechazar las solicitudes que podrían provocar daños concretos, como proporcionar instrucciones para armas peligrosas o violar la privacidad personal.

El enfoque medido de la compañía para el comportamiento del modelo se refleja en sus seis principios básicos: seguir una cadena de mando, buscar la verdad en colaboración, ofrecer trabajos de calidad, mantenerse dentro de los límites de seguridad, mantener la accesibilidad y usar estilos de comunicación apropiados. Estas pautas tienen como objetivo crear sistemas de IA que sean poderosos y responsables.

Además, OpenAI está dando una libertad significativa a los desarrolladores para personalizar el comportamiento del asistente, siempre que estas personalizaciones no entren en conflicto con las reglas de seguridad a nivel de plataforma central. Por ejemplo, los desarrolladores pueden ajustar el estilo de comunicación de la IA, establecer preferencias de contenido específicas o definir roles especializados para sus aplicaciones.

Si bien la especificación del modelo proporciona a los desarrolladores una flexibilidad considerable, dibuja una línea clara con respecto a la transparencia y el engaño. Los desarrolladores pueden personalizar la postura de la IA sobre varios temas, incluso anulando la configuración predeterminada de objetividad y neutralidad. Sin embargo, Openai enfatiza que el engaño intencional viola sus políticas de uso y puede dar lugar a las sanciones de cuenta. Este equilibrio refleja la filosofía más amplia de OpenAI de que las fuerzas del mercado deberían impulsar la innovación, señalando que “los desarrolladores que imponen reglas demasiado restrictivas a los usuarios finales serán menos competitivos en un mercado abierto”, al tiempo que mantienen límites claros contra el mal uso.

Como parte de su compromiso con la mejora continua, OpenAI ha realizado estudios piloto con aproximadamente 1,000 personas que revisan el comportamiento modelo y las reglas propuestas. Si bien estos estudios iniciales aún no son representativos de perspectivas más amplias, ya han influido en algunas modificaciones a la especificación del modelo.

Operai dice que planea expandir sus métodos de evaluación e incorporar comentarios más diversos. Las actualizaciones futuras de la especificación del modelo se publicarán en su sitio web dedicado, lo que facilita que la comunidad de IA rastree los cambios y contribuya al desarrollo continuo de estas directrices.

Al formalizar estos límites, OpenAi se asegura de que la IA siga siendo una herramienta poderosa para los desarrolladores y usuarios, al tiempo que evita que se convierta en un vector para la manipulación y la información errónea. Los desarrolladores tienen flexibilidad, pero con responsabilidad. Si violan los términos de uso de OpenAI, su acceso a la API puede ser restringido o revocado.

Este equilibrio, entre la personalización y la responsabilidad ética, refleja el esfuerzo más amplio de OpenAI para permitir a las empresas construir aplicaciones con AI mientras mantiene la confianza y la integridad en las interacciones de IA.

Chris McKay es el fundador y editor jefe de Maginative. Su liderazgo de pensamiento en alfabetización de IA y adopción estratégica de IA ha sido reconocido por las principales instituciones académicas, medios y marcas globales.

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version