El último modelo de Inteligencia Artificial presentado por Mark Zuckerberg, conocido como Llama 3.1, ha generado un debate sobre si realmente cumple con los estándares de estar basado en código abierto. A pesar de las afirmaciones de Zuckerberg sobre la importancia del código abierto en la IA, algunas cuestiones sobre la transparencia y acceso a los datos utilizados para entrenar el modelo han surgido.
En un reciente comunicado, Zuckerberg enfatizó que la IA de código abierto es fundamental para el futuro de la tecnología, sin embargo, Meta ha mantenido en secreto los conjuntos de datos utilizados para entrenar el Llama 3.1. Aunque se ha puesto a disposición de forma gratuita en GitHub, el modelo plantea desafíos en cuanto a los límites de uso y la necesidad de firmar una licencia con Meta si supera cierto número de usuarios activos mensuales.
La falta de transparencia en la industria de la IA no es exclusiva de Meta, ya que otros modelos propietarios como GPT-4 también enfrentan críticas por la opacidad en el proceso de entrenamiento. Esto ha llevado a controversias y acuerdos legales, como el caso en el que Google pagó a Reddit por el uso de datos para entrenar sus modelos de IA.
El concepto de «peso abierto», utilizado por Meta para proporcionar acceso a los archivos de las redes neuronales entrenadas, ha planteado preguntas sobre la verdadera naturaleza del modelo Llama 3.1. A diferencia de los modelos de peso cerrado, que requieren suscripciones o acceso restringido, el peso abierto permite a los usuarios descargar y utilizar los archivos directamente.
Expertos de la Universidad Radboud en Nijmegen han evaluado diferentes modelos de IA, incluyendo el Llama 3.1, para determinar su grado de apertura. A pesar de los esfuerzos de Zuckerberg y otros líderes de la industria por promover la idea de código abierto, las evaluaciones sugieren que los metamodelos todavía tienen un largo camino por recorrer en ese aspecto.
En definitiva, la discusión en torno al modelo Llama 3.1 y su clasificación como código abierto refleja un debate más amplio sobre la transparencia y accesibilidad en la industria de la IA. A pesar de los avances tecnológicos, la claridad en el uso de los términos y la ética en el desarrollo de estos modelos siguen siendo desafíos importantes para el futuro de la inteligencia artificial.
GIPHY App Key not set. Please check settings