Ya disponible Gemma 3n, la IA de código abierto de Google capaz de ejecutarse en un 'smartphone' de 2GB de RAM

Guardar

Google ha lanzado oficialmente su nuevo modelo de inteligencia artificial (IA) de código abierto Gemma 3n que, sin necesidad de conexión a internet, es capaz de ejecutarse de forma eficiente en un 'smartphone' con 2GB de memoria RAM.

La compañía dio a conocer su nuevo modelo el pasado mes de mayo, diseñado para funcionar de manera fluida en tabletas, 'smartphones' y ordenadores portátiles, así como ofrecer experiencias de IA de forma rápida y con un bajo consumo de forma local.

Tal y como se dio a conocer entonces, Gemma 3n incluye la ene en su nombre por su vinculación directa con Gemini Nano, ya que utiliza la misma arquitectura avanzada presente en ese otro modelo de Google, que está optimizada para la IA multimodal eficiente en el dispositivo.

Ahora, Google ha ampliado oficialmente su familia de modelos de IA Gemma 3, con el nuevo Gemma 3n, que ya está disponible con todo su potencial de arquitectura móvil y es compatible con herramientas como Hugging Face Transformers, llama.cpp, Google AI Edge, Ollama y MLX, entre otras.

Así lo ha dado a conocer la tecnológica en un comunicado en su blog para desarrolladores, donde ha detallado que representa un "gran avance" para la IA en el dispositivo, aportando "potentes capacidades multimodales" con un rendimiento que "antes solo se veía en los modelos fronterizos basados en la nube".

Entre las novedades que incluye Gemma 3n, Google ha subrayado que se trata de un modelo multimodal por diseño que admite de forma nativa entradas y salidas de texto, imágenes, audio y vídeo.

Igualmente, está disponible en los tamaños E2B y E4B, que cuentan con 2.000 millones y 4.000 millones de parámetros respectivamente, con capacidad para operar con solo 2GB de memoria RAM en el caso del tamaño E2B y 3GB de RAM para la versión E4B. En el caso de este último, Google ha matizado que alcanza una puntuación LMArena superior a 1.300, el primer modelo con menos de 10.000 millones en conseguir alcanzar este estándar.

Asimismo, el núcleo de Gemma 3n integra una arquitectura innovadora como es la denominada MatFormer, para mejorar la flexibilidad computacional. Según ha explicado la compañía, esta arquitectura se basa en las muñecas rusas conocidas como Matryoshka, y permite la inferencia elástica, de manera que los modelos más grandes contienen versiones más pequeñas de si mismos para adaptarse a las necesidades del momento y optimizar recursos.

Junto a MatFormer, también dispone de incrustaciones por capa (PLE) para impulsar la eficiencia de memoria, esto es lo que permite que el modelo se ejecute en dispositivos con solo 2GB de RAM, ya que mejora la calidad del modelo sin aumentar el consumo de memoria, al permitir que una parte significativa de los parámetros se carguen eficientemente en la CPU, en lugar de cargar todos los parámetros den la VRAM.

También integra codificadores de audio avanzado y de visión basados en audio, como MobileNet-V5, entre otras características. Con todo ello, a la hora de ofrecer resultados, Gemma 3n está disponible en 140 idiomas para texto, acompañado de una comprensión multimodal en 35 idiomas. Con ello, es capaz de resolver cuestiones relacionadas con las matemáticas, programación y razonamiento.

Los usuarios ya pueden experimentar directamente con Gemma 3n en Google AI Studio, así como descargar el modelo desde Hugging Face y Kaggle, así como crear herramientas de IA en el dispositivo con Google AI Edge Gallery, Ollama, MLX y llama.cpp, entre otros.