Nuevo sistema de Anthropic genera indicaciones para Artefactos; prompts de familia Claude incompletos.

La empresa Anthropic ha generado gran expectación en el ámbito de la inteligencia artificial al anunciar que próximamente lanzará los sistemas de instrucciones para su última función, Artifacts, luego de que se encontrara que los sistemas de instrucciones para su familia de modelos Claude estaban incompletos.

Según un portavoz de Anthropic, la compañía tiene previsto añadir más detalles sobre los sistemas de instrucciones en las próximas semanas, incluyendo información detallada sobre Artifacts. A pesar de que Artifacts se hizo disponible la semana pasada como parte de la familia de modelos Claude, los sistemas de instrucciones relacionados no se incluyeron en el último lanzamiento. Artifacts permite ejecutar fragmentos de código junto a la interfaz de chat de Claude.

La liberación de los sistemas de instrucciones de Claude por parte de Anthropic recibió elogios por su transparencia por parte de los medios de comunicación, incluyendo VentureBeat, al ser una de las pocas grandes compañías de IA que ofrecen al público un vistazo a cómo están configurados los comportamientos de sus modelos. Sin embargo, investigadores como Mohammed Sahli encontraron deficiencias en las afirmaciones de la compañía, en parte debido a la exclusión de los sistemas de instrucciones de Aritifact.

Anthropic explicó que la razón por la cual los sistemas de instrucciones de Artifacts no se incluyeron en el lanzamiento de la semana pasada es sencilla. Artifacts no estaba disponible para todos los usuarios de Claude hasta la semana pasada. De hecho, Artifacts se hizo público solo después del anuncio del lanzamiento de los sistemas de instrucciones.

Los sistemas de instrucciones son importantes para los desarrolladores de modelos de IA, aunque no están obligados a publicarlos. Encontrar estas instrucciones de funcionamiento es casi como un pasatiempo para muchos «hackers» de IA, y es de esperar que estas instrucciones circulen entre los círculos de desarrolladores después de que un modelo sea lanzado.

La apertura pública de los sistemas de instrucciones de los LLMs muestra cómo los desarrolladores esperan que se comporte y por qué rechazará algunas solicitudes de los usuarios.

Según los documentos de sistemas de instrucciones de Anthropic, Claude 3.5 Sonnet, la versión más avanzada de su modelo insignia, enfatiza la precisión y la brevedad al responder preguntas. El modelo no etiquetará explícitamente la información como sensible u objetiva, y evitará frases de relleno o disculpas.

Por otro lado, Claude 3 Opus, el modelo más grande, trabaja con una base de conocimientos actualizada hasta agosto de 2023. Está autorizado a abordar temas controvertidos con una amplia gama de puntos de vista, pero evitará los estereotipos y ofrecerá opiniones equilibradas. La versión más pequeña, Claude 3 Haiku, se centra en la rapidez y no tiene las mismas pautas de comportamiento que Claude 3.5 Sonnet.

Dado que aún no conocemos los sistemas de instrucciones de Artifacts, según la publicación de Medium de Sahli, se dice que la función está instruida para trabajar a través de problemas complejos de manera sistemática y se enfoca en respuestas concisas a las consultas.

¿Qué opinas?

120 Votos
Upvote Downvote

Escrito por Redacción - El Semanal

El Semanal: Tu fuente de noticias, tendencias y entretenimiento. Conéctate con lo último en tecnología, cultura, economía y más. Historias que importan, contadas de manera dinámica y accesible. ¡Únete a nuestra comunidad!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Jaguar en la montaña ataca a niño de cinco años | El Semanal

El CIO impulsa el bienestar emocional en las organizaciones: clave transformadora.