AntHropic crea sistema de inteligencia artificial que interactúa con el público.

El rival de OpenAI, la startup Anthropic, ha publicado recientemente los sistemas de instrucciones para su familia de modelos de IA llamada Claude. Esta acción ha marcado un nuevo estándar de transparencia dentro de la industria de la inteligencia artificial, según observadores especializados.

Los sistemas de instrucciones funcionan de manera similar a las instrucciones de operación de los modelos de lenguaje de gran escala (LLMs), indicando a los modelos las reglas generales que deben seguir al interactuar con los usuarios, así como los comportamientos o personalidades que deben exhibir. También suelen mostrar la fecha límite para la información aprendida por el LLM durante su entrenamiento.

Si bien la mayoría de los LLMs cuentan con sistemas de instrucciones, no todas las compañías de IA los hacen públicos. Descubrir los sistemas de instrucciones de los modelos se ha convertido incluso en una especie de hobby para los ‘jailbreakers’ de la IA.

Sin embargo, Anthropic ha superado a los ‘jailbreakers’ al revelar las instrucciones de operación de sus modelos Claude 3.5 Sonnet, Claude 3 Haiku y Claude 3 Opus en su sitio web, bajo la sección de notas de lanzamiento.

Además, el Jefe de Relaciones con Desarrolladores de Anthropic, Alex Albert, anunció en X (anteriormente Twitter) su compromiso de mantener actualizados a los usuarios sobre los sistemas de instrucciones, afirmando: «Vamos a registrar los cambios que realicemos en los sistemas de instrucciones por defecto en Claude dot ai y nuestras aplicaciones móviles.»

Lo que revelan los sistemas de instrucciones de Anthropic

Los sistemas de instrucciones para los tres modelos revelan detalles interesantes sobre cada uno de ellos, sus capacidades, la fecha de corte de su conocimiento y diversos matices de personalidad.

Claude 3.5 Sonnet es la versión más avanzada, con una base de conocimiento actualizada hasta abril de 2024. Proporciona respuestas detalladas a preguntas complejas y respuestas concisas a tareas más simples, enfatizando tanto la precisión como la brevedad. Este modelo aborda temas controvertidos con cuidado, presentando información sin etiquetarla explícitamente como sensible o reclamando objetividad. Además, Claude 3.5 Sonnet evita frases rellenas o disculpas innecesarias y es particularmente consciente de cómo maneja el reconocimiento de imágenes, asegurando que nunca reconoce explícitamente ningún rostro.

Claude 3 Opus opera con una base de conocimiento actualizada hasta agosto de 2023 y sobresale en el manejo de tareas complejas y la escritura. Está diseñado para ofrecer respuestas concisas a consultas simples y respuestas completas a preguntas más complejas. Claude 3 Opus aborda temas controvertidos ofreciendo una amplia gama de perspectivas, evitando los estereotipos y proporcionando puntos de vista equilibrados. Aunque comparte algunas similitudes con el modelo Sonnet, no incorpora las mismas pautas de comportamiento detalladas, como evitar disculpas o afirmaciones innecesarias.

Claude 3 Haiku es el modelo más rápido de la familia Claude, también actualizado hasta agosto de 2023. Está optimizado para brindar respuestas rápidas y concisas a preguntas simples, al tiempo que proporciona respuestas completas cuando se necesitan para problemas más complejos. La estructura de los sistemas de instrucciones para Haiku es más directa en comparación con Sonnet, centrándose principalmente en la velocidad y eficiencia, sin las sutilezas de comportamiento más avanzadas que se encuentran en el modelo Sonnet.

La importancia de la publicación de los sistemas de instrucciones de Anthropic

Una crítica común sobre los sistemas de IA generativos gira en torno al concepto de una «caja negra», donde es difícil averiguar por qué y cómo un modelo tomó una decisión. El problema de la caja negra ha llevado a investigaciones sobre la explicabilidad de la IA, una forma de arrojar algo de luz sobre el proceso predictivo de toma de decisiones de los modelos. El acceso público a los sistemas de instrucciones es un paso hacia la apertura de esa caja negra, pero solo en la medida en que las personas entiendan las reglas establecidas por las compañías de IA para los modelos que han creado.

Desarrolladores de IA celebraron la decisión de Anthropic, notando que la publicación de los documentos sobre los sistemas de instrucciones de Claude y las actualizaciones al respecto se destaca entre otras empresas de IA.

A pesar de la publicación de los sistemas de instrucciones para los modelos Claude, Anthropic no ha abierto el código fuente real para ejecutar los modelos, ni el conjunto de datos de entrenamieúdo ni los «pesos» subyacentes (o configuraciones del modelo) permanecen en manos de Anthropic solo.

Sin embargo, la publicación de los sistemas de instrucciones de Anthropic para los modelos Claude muestra a otras compañías de IA un camino hacia una mayor transparencia en el desarrollo de modelos de IA. Y beneficia a los usuarios al mostrarles cómo se diseña su chatbot de IA para actuar.

¿Qué opinas?

120 Votos
Upvote Downvote

Escrito por Redacción - El Semanal

El Semanal: Tu fuente de noticias, tendencias y entretenimiento. Conéctate con lo último en tecnología, cultura, economía y más. Historias que importan, contadas de manera dinámica y accesible. ¡Únete a nuestra comunidad!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Harris y Walz se sientan con CNN para entrevista exclusiva tras inicio de campaña

Críticas a línea de tratamiento de opiáceos en Gobierno de B.C. por enfoque erróneo.