Gemma 4: i modelli AI open source di Google

Il 1° aprile 2026 Google ha presentato Gemma 4. Quattro modelli. Licenza Apache 2.0. Architettura derivata da Gemini 3.

Non è un aggiornamento incrementale. È un cambio di strategia: modelli di livello frontier distribuiti senza restrizioni commerciali.

Quattro modelli per quattro scenari

La famiglia Gemma 4 è progettata per ambienti radicalmente diversi. Ogni variante ha un target preciso.

Effective 2B (E2B)

Pensato per dispositivi edge. Smartphone, sistemi IoT, hardware embedded come Raspberry Pi. È il modello più leggero della famiglia.

Effective 4B (E4B)

Mobile computing avanzato. Sviluppato in collaborazione con Qualcomm e MediaTek. Ottimizzato per NPU e chip mobile di nuova generazione.

26B Mixture of Experts (MoE)

Architettura MoE: attiva solo 4 miliardi di parametri per inferenza, indipendentemente dalla dimensione totale del modello. Il costo computazionale è contenuto. Le prestazioni no.

Attualmente sesto nella classifica testuale di LMArena.

31B Dense

Il modello principale della famiglia. Progettato per workstation e server locali. Terzo posto globale a LMArena con un punteggio di circa 1452 punti.

Tutti i modelli Gemma 4 supportano input multimodali: testo, immagini, audio e video. Sono ottimizzati per agentic workflows, generazione di codice e system prompting avanzato.

Prestazioni: i numeri che contano

Il 31B supera Gemini 2.5 Pro e Qwen 3.5-397B nei benchmark pubblici. Si avvicina alle prestazioni di Claude 4.5 Sonnet.

Il dato più interessante non è il punteggio assoluto. È la densità di capacità per parametro. Secondo Google, l'efficienza computazionale è paragonabile a modelli fino a 30 volte più grandi.

Sul fronte hardware: sia il 26B che il 31B girano su una singola Nvidia H100 da 80GB con pesi non quantizzati. Per chi lavora con infrastruttura on-premise, questo è il numero che cambia i conti.

La licenza Apache 2.0: perché conta

La vera discontinuità non è tecnica. È legale.

Gemma 4 adotta la Apache License 2.0. Significa che chiunque può:

  • usare i modelli
  • modificarli
  • distribuirli
  • integrarli in prodotti commerciali

Senza restrizioni sostanziali. Senza royalty. Senza vincoli di utilizzo.

Per molti osservatori questa scelta avrà un impatto maggiore dei benchmark. Un modello con licenza permissiva entra nei prodotti, nelle pipeline e nelle aziende in modo diverso da un modello closed o con termini di uso commerciale limitati.

Il contesto: la competizione tra modelli aperti

Il lancio arriva in un momento di accelerazione nel settore dei modelli aperti.

Negli ultimi mesi la concorrenza cinese ha guadagnato terreno. Alibaba con la serie Qwen. DeepSeek con i propri modelli. Entrambi puntano sull'efficienza e sulla distribuzione libera.

Google risponde con Gemma 4 e con dati di adozione significativi. La community Gemma ha raggiunto:

  • oltre 400 milioni di download
  • più di 100.000 varianti create dagli sviluppatori

Tra i progetti più rilevanti: modelli linguistici per lingue meno rappresentate (bulgaro, tra gli altri) e Cell2Sentence-Scale, sviluppato alla Yale University per la ricerca oncologica.

Questi numeri indicano una cosa sola: Gemma non è un esperimento accademico. È infrastruttura produttiva.

Dove scaricare Gemma 4

I modelli sono disponibili su più piattaforme. La scelta dipende dall'ambiente di lavoro.

  • Google AI Studio — 31B, 26B MoE. Inferenza cloud, nessun setup.
  • Google AI Edge Gallery — E2B, E4B. App Android/iOS per dispositivi edge.
  • Hugging Face — Tutti i modelli. Standard per ricerca e fine-tuning.
  • Ollama — Tutti i modelli. Esecuzione locale via CLI.
  • Kaggle — Tutti i modelli. Notebook e ricerca.
  • Nvidia NGC — 31B, 26B MoE. Ottimizzato per GPU Nvidia.
  • Android Studio — E2B, E4B. AI coding locale tramite AICore Developer Preview.

I modelli sono ottimizzati per GPU Nvidia, GPU AMD e Google Cloud TPU.

FAQ su Gemma 4

Cos'è Gemma 4 e chi lo ha sviluppato?

Gemma 4 è una famiglia di modelli linguistici open source sviluppata da Google e pubblicata il 1° aprile 2026. È costruita sulla stessa architettura di Gemini 3 ed è distribuita con licenza Apache 2.0.

Quali sono le differenze tra i modelli Gemma 4?

La famiglia include quattro varianti: E2B per dispositivi edge, E4B per mobile computing, 26B MoE per inferenza efficiente e 31B Dense per workstation e server. Ogni modello ha un profilo hardware e prestazionale diverso.

Posso usare Gemma 4 per applicazioni commerciali?

Sì. La licenza Apache 2.0 consente uso commerciale, modifica e distribuzione senza restrizioni sostanziali.

Come si confronta Gemma 4 con altri modelli open source?

Il modello 31B occupa il terzo posto nella classifica testuale di LMArena con circa 1452 punti, superando Gemini 2.5 Pro e Qwen 3.5-397B. Il 26B MoE è sesto, pur usando solo 4B parametri attivi per inferenza.

Quale hardware serve per eseguire Gemma 4 in locale?

I modelli 26B e 31B girano su una singola Nvidia H100 da 80GB con pesi non quantizzati. I modelli E2B ed E4B sono progettati per dispositivi mobile e edge, incluso Raspberry Pi.

Conclusione

Gemma 4 porta modelli di livello competitivo su hardware accessibile. Con licenza Apache 2.0, senza vincoli commerciali.

Il vantaggio non è solo nei benchmark. È nella libertà di integrazione. Chi costruisce prodotti su AI, gestisce infrastruttura on-premise o sviluppa applicazioni verticali ha ora un'opzione solida e gratuita.

← Tutti gli articoli