Google lanza nuevos modelos experimentales Gemini, dejando caer las versiones ‘más fuertes’ y ‘significativamente mejoradas’
Google continúa con sus agresivas actualizaciones de Gemini mientras avanza hacia su modelo 2.0.
La compañía anunció hoy una variante más pequeña de Gemini 1.5, Gemini 1.5 Flash-8B, junto con un Gemini 1.5 Flash «significativamente mejorado» y un Gemini 1.5 Pro «más potente». Estos modelos muestran un rendimiento superior en muchos puntos internos de referencia, afirma la empresa, con «grandes avances» en 1.5 Flash en general y un 1.5 Pro que es mucho mejor en matemáticas, programación y consignas complejas.
Logan Kilpatrick, líder de producto de Google AI Studio, presumió en un post en X que «Gemini 1.5 Flash es el mejor… del mundo para los desarrolladores en este momento».
Google presentó Gemini 1.5 Flash, la versión ligera de Gemini 1.5, en mayo. La familia de modelos Gemini 1.5 fue diseñada para manejar contextos largos y poder razonar sobre información detallada de más de 10 millones de tokens, lo que permite procesar entradas multimodales de alto volumen, incluyendo documentos, videos y audios.
Hoy, Google pone a disposición una «versión mejorada» de una variante más pequeña de 8 mil millones de parámetros de Gemini 1.5 Flash. Mientras tanto, el nuevo Gemini 1.5 Pro muestra mejoras en el rendimiento en programación y consignas complejas y sirve como «sustituto directo» de su modelo anterior lanzado a principios de agosto.
Kilpatrick ofreció pocos detalles adicionales, indicando que Google pondrá a disposición una versión futura para uso en producción en las próximas semanas que «¡esperamos que llegue con evaluaciones!».
Las investigadoras de Google DeepMind califican la escala de Gemini 1.5 de «sin precedentes» entre los LLM contemporáneos.
Google lanzará automáticamente solicitudes al nuevo modelo a partir del 3 de septiembre y eliminará el modelo anterior de Google AI Studio y la API para «evitar confusiones al mantener demasiadas versiones activas al mismo tiempo», dijo Kilpatrick.
«Estamos emocionados de ver qué piensan y escuchar cómo este modelo podría desbloquear aún más casos de uso multimodales», publicó en X.
La Organización de Sistemas de Modelos Grandes (LMSO) elogió los modelos, publicando: «¡Grandes felicitaciones al equipo de Google DeepMind Gemini por el increíble lanzamiento!».
Como es habitual con los lanzamientos iterativos de modelos, los comentarios iniciales han sido variados, desde elogios sicománticos hasta burlas y confusión.
Algunos usuarios de X cuestionaron por qué tantas actualizaciones consecutivas en lugar de una versión 2.0. Uno comentó: «Amigo, esto ya no es suficiente 😐 necesitamos Gemini 2.0, una actualización real».
Por otro lado, muchos autodenominados fanáticos elogiaron las actualizaciones rápidas y los envíos rápidos, reportando «mejoras sólidas» en el análisis de imágenes. «La velocidad es increíble», publicó uno, y otro señaló que Google continúa enviando mientras que OpenAI ha estado efectivamente en silencio. Algunos críticos, sin embargo, lo califican de «terrible» y «perezoso» con tareas que requieren salidas más largas, diciendo que Google está «muy por detrás» de Claude, OpenAI y Anthropic.
Un usuario de X lamentó que la actualización «lamentablemente sufra de la enfermedad del código perezoso», similar a GPT-4 Turbo.
Otro llamó a la versión actualizada «definitivamente no tan buena» y dijo que a menudo «se vuelve loca y comienza a repetir cosas sin parar como suelen hacer los modelos pequeños». Otro estuvo de acuerdo en que estaba emocionado por probarlo, pero que Gemini ha «sido, con mucho, el peor en programación».
Algunos también se burlaron de las capacidades de nominación poco inspiradas de Google y recordaron su gran error de conciencia a principios de este año.
«Ustedes han perdido por completo la capacidad de nombrar las cosas», bromeó un usuario, y otro estuvo de acuerdo: «En serio, necesitan a alguien que los ayude con la nomenclatura».
Y uno preguntó irónicamente: «¿Gemini 1.5 sigue odiando a la gente blanca?»
GIPHY App Key not set. Please check settings