in

La estrategia minimalista en modelos de IA revoluciona el ahorro millonario empresarial

El minimalismo en los modelos de inteligencia artificial: una nueva estrategia para ahorrar millones

En la era de la inteligencia artificial (IA), las empresas han encontrado una forma de optimizar sus recursos y reducir costos mediante el uso de modelos minimalistas. Estos modelos, diseñados para realizar tareas específicas, han demostrado ser una alternativa eficiente y rentable a los modelos de lenguaje grande (LLM) que han dominado el mercado hasta ahora.

La llegada de los LLM ha permitido a las empresas imaginar proyectos innovadores, lo que ha llevado a un aumento en los programas piloto que ahora están en fase de implementación. Sin embargo, a medida que estos proyectos ganaron impulso, las empresas se dieron cuenta de que los LLM anteriores eran difíciles de manejar y, lo que es peor, costosos.

En este contexto, han surgido los modelos pequeños y la destilación como una solución. Modelos como la familia Gemma de Google, Phi de Microsoft y Small 3.1 de Mistral permiten a las empresas elegir modelos rápidos y precisos que se adaptan a tareas específicas. Al optar por un modelo más pequeño para casos de uso particulares, las empresas pueden reducir el costo de ejecutar sus aplicaciones de IA y potencialmente lograr un mejor retorno de la inversión.

Los expertos señalan que los modelos pequeños requieren menos recursos computacionales, memoria y tiempos de inferencia más rápidos, lo que se traduce en menores gastos de infraestructura y capital. Además, los modelos específicos para tareas tienen un alcance más limitado, lo que hace que su comportamiento sea más predecible y mantenible a lo largo del tiempo sin necesidad de ingeniería de prompts compleja.

Los desarrolladores de modelos de precios fijan sus modelos pequeños de acuerdo con su capacidad. Por ejemplo, el modelo o4-mini de OpenAI cuesta $1.1 por millón de tokens para entradas y $4.4 por millón de tokens para salidas, en comparación con el modelo completo o3, que cuesta $10 por entrada y $40 por salida.

Hoy en día, las empresas tienen una amplia gama de modelos pequeños, modelos específicos para tareas y modelos destilados para elegir. La mayoría de los modelos insignia ofrecen una variedad de tamaños. Por ejemplo, la familia de modelos Claude de Anthropic incluye Claude Opus, el modelo más grande, Claude Sonnet, el modelo general, y Claude Haiku, la versión más pequeña. Estos modelos son lo suficientemente compactos como para operar en dispositivos portátiles como laptops o teléfonos móviles.

La cuestión del ahorro

Cuando se habla de retorno de la inversión, la pregunta siempre es: ¿cuál es el ROI? ¿Debe ser un retorno sobre los costos incurridos o el ahorro de tiempo que finalmente se traduce en dólares ahorrados a largo plazo? Los expertos señalan que el ROI puede ser difícil de evaluar porque algunas empresas creen que ya han alcanzado el ROI al reducir el tiempo dedicado a una tarea, mientras que otras esperan ahorros reales en dólares o un aumento en el negocio para determinar si las inversiones en IA han sido efectivas.

Normalmente, las empresas calculan el ROI mediante una fórmula simple: ROI = (Beneficios-Costo)/Costos. Sin embargo, con los programas de IA, los beneficios no son inmediatamente evidentes. Los expertos sugieren que las empresas identifiquen los beneficios esperados, estimen estos beneficios basándose en datos históricos, sean realistas sobre el costo total de la IA, incluyendo la contratación, la implementación y el mantenimiento, y comprendan que deben estar comprometidos a largo plazo.

Con los modelos pequeños, los expertos argumentan que estos reducen los costos de implementación y mantenimiento, especialmente cuando se ajustan los modelos para proporcionarles más contexto para la empresa.

Factores de costo adecuados para el propósito

No es necesario sacrificar el rendimiento por el tamaño del modelo. Hoy en día, las organizaciones entienden que la elección del modelo no se limita a elegir entre GPT-4o o Llama-3.1; se trata de saber que algunos casos de uso, como la resumición o la generación de código, están mejor atendidos por un modelo pequeño.

Los expertos enfatizan que las empresas deben comenzar con el modelo más grande para ver si lo que están imaginando funciona en absoluto, porque si no funciona con el modelo más grande, no significa que funcione con modelos más pequeños.

Evaluación continua

Independientemente del tamaño del modelo, los expertos enfatizan la flexibilidad para abordar cualquier problema potencial o nuevo caso de uso. Si las empresas comienzan con un modelo grande y un modelo más pequeño con rendimiento similar o mejor y costo más bajo, no deben ser rígidos en su elección de modelo.

Las empresas deben entender que la tecnología que subyace a los flujos de trabajo que están creando, los procesos que están haciendo más eficientes, cambiarán. La clave es encontrar plataformas que faciliten el ajuste entre modelos automáticamente y que también permitan ajustar los modelos para evitar costos adicionales.

¿Qué opinas?

Escrito por Redacción - El Semanal

El Semanal: Tu fuente de noticias, tendencias y entretenimiento. Conéctate con lo último en tecnología, cultura, economía y más. Historias que importan, contadas de manera dinámica y accesible. ¡Únete a nuestra comunidad!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Nicholas Hoult y David Corenswet revelan detalles de su prueba para Superman

Expertos en dulces se reúnen en Hong Kong en encuentro internacional