En el mundo de la inteligencia artificial, OpenAI ha anunciado el lanzamiento de su última familia de modelos, GPT-o1, que promete ser más poderosa y mejor razonada que sus predecesores. Esto significa que utilizar GPT-o1 requerirá un enfoque ligeramente diferente al acostumbrado con modelos anteriores como GPT-4 o GPT-4o, ya que este nuevo modelo cuenta con mayores capacidades de razonamiento.
Según la documentación de la API de OpenAI, los modelos o1 «se desempeñan mejor con indicaciones directas y sencillas». Es importante evitar técnicas como instruir al modelo o utilizar instrucciones cortas, ya que podrían no mejorar su rendimiento e incluso obstaculizarlo en ciertas ocasiones.
La recomendación de OpenAI para los usuarios de o1 es mantener las indicaciones simples y directas, sin guiar al modelo en exceso, ya que este comprende bien las instrucciones por sí mismo. Además, se aconseja evitar cadenas de pensamiento en las indicaciones, ya que los modelos o1 razonan de manera interna.
En cuanto al uso de delimitadores como comillas triples, etiquetas XML y títulos de sección, se sugiere emplearlos para que el modelo pueda tener claridad sobre las secciones que está interpretando. Asimismo, se recomienda limitar el contexto adicional para la generación aumentada con recuperación (RAG), ya que agregar más contexto o documentos cuando se utilizan los modelos para tareas RAG podría complicar excesivamente su respuesta.
Estas recomendaciones contrastan notablemente con las sugerencias previas realizadas por OpenAI para los usuarios de sus modelos anteriores. Anteriormente, la compañía sugería ser increíblemente específico, incluir detalles y brindar instrucciones paso a paso, mientras que con GPT-o1 se confía en que el modelo pueda «pensar» por sí solo sobre cómo resolver las consultas.
Ethan Mollick, profesor en la Wharton School of Business de la Universidad de Pensilvania, compartió en su blog «One Useful Thing» que su experiencia como usuario temprano de o1 demostró que este modelo funciona mejor en tareas que requieren planificación, donde el modelo determina por sí mismo cómo resolver problemas.
La ingeniería de indicaciones, que ha evolucionado para ser una habilidad importante y una categoría laboral en crecimiento, se ha convertido en un método para profundizar en aspectos específicos y obtener las respuestas deseadas de un modelo de IA. Otros desarrolladores de IA han lanzado herramientas para facilitar la creación de indicaciones al diseñar aplicaciones de IA, como Prompt Poet de Google, desarrollado con la ayuda de Character.ai, que integra fuentes de datos externas para hacer que las respuestas sean más relevantes.
Aunque GPT-o1 aún es nuevo y las personas están descubriendo la mejor forma de utilizarlo, se prevé que la ingeniería de indicaciones cambiará y evolucionará con el tiempo, ya que los modelos de IA como GPT-o1 no requerirán estos métodos a medida que su inteligencia aumente con el tiempo.
GIPHY App Key not set. Please check settings