Durante la settimana scorsa Google ha annunciato un sacco di novità interessanti e volevo fare il punto della situazione…
Google ha annunciato👇
Diamo un’occhiata una per una, e ti lascio tutti i link per approfondire 💪
📌 La nuova famiglia di modelli Gemma 3
Gemma 3 è una famiglia di modelli piccoli open weights che si basa sulla stessa tecnologia dei modelli Gemini 2.0, i modelli di punta di Google.💡
I modelli della famiglia Gemma 3 sono disponibili in versioni da: 1B, 4B, 12B e 27B di parametri.
Se ci pensi sono numeri molto bassi dato che i modelli migliori hanno centinaia di miliardi di parametri. 😂
Questa differenza, però, è motivata: i modelli Gemma sono progettati per funzionare direttamente sui dispositivi come telefoni o PC. 📲
Ed è questo l’aspetto interessante…
La possibilità di utilizzare questi modelli su hardware di questo tipo semplifica il lavoro degli sviluppatori perché permette di sviluppare applicazioni che analizzano immagini, testi e video in maniera più semplice.
E a livello di performance? 🤔
Il modello da 27B di parametri segna buoni punteggi in alcuni benchmark, ma come vi ho detto nelle puntate precedenti i benchmark sono da prendere con le pinze. 👀
Ah tra l’altro ora sta girando molto questo benchmark che valuta le performance di un modello in base a quanto è in grado di andare avanti nel gioco Super Mario 😂
Dagli un’occhiata qui 👈
Insomma siamo a Marzo 2025 e quest’anno si è parlato molto di AI “open”. Prima DeepSeek, ora Google…sappiamo che anche Meta potrebbe tornare in pista con Llama 4 già ad Aprile al LlamaCon.
Vedremo i rilasci dei prossimi mesi… 👀
📌 Gemini 2.0 Flash Experimental
Questo è assurdo 🤯
Google aveva annunciato a Dicembre la funzionalità di generazione di immagini in output.
E ora puoi provarlo gratis su Google AI Studio.
Basta che selezioni il modello “Gemini 2.0 Flash Experimental”.
In pratica tu dai in input al modello un’immagine e gli chiedi sotto forma di testo delle modifiche.
Questo è un esempio che ho trovato su X 😂
📌 Deep Research
Facciamo un passo indietro…
Hai presente la funzionalità Deep Research di OpenAI?
È il sistema di ricerca che parte da una richiesta e analizza una grande mole di informazioni e pagine web per restituire un report ben articolato, con tutti i rimandi alle fonti.
Ecco, questa funzionalità è disponibile anche su Gemini… e ora Google l’ha resa gratuita. 💸
In questi giorni ho fatto un po’ di test e devo dire che non è male…
Non è ai livelli della stessa funzionalità di OpenAI ma per essere gratis va benissimo 😂
Puoi già provarla se vuoi, basta selezionare “Deep Research” nella tendina di Gemini.
📌 Gemini Robotics e Gemini Robotics-ER
Questa è la novità bomba 💣
In pratica Google ha sviluppato questi due nuovi modelli:
📍 Gemini Robotics 👉 modello Vision-Language-Action (VLA) che parte dalla base di Gemini 2.0 con l'aggiunta di azioni fisiche per il controllo diretto di movimenti e azioni dei robot
📍 Gemini Robotics - Embodied Reasoning (ER) 👉 dedicato alla comprensione avanzata dello spazio.
Mi spiego meglio.
Finora, i modelli multimodali risolvevano problemi complessi attraverso l’analisi di testo, immagini, audio e video.
Ma non erano in grado di “interagire” con il mondo fisico.
I nuovi modelli migliorano le capacità dei robot portando a👇
Ti lascio a questo link un sacco di video dimostrativi pubblicati da Google che così ti fai un’idea più chiara di cosa intendo.
Siamo solo all’inizio e…non so tu, però io non vedo l’ora di avere un robot che cucina, stira, mi rifà il letto etc… 😂
Ci siamo, questo era un recap di tutte le cose importanti! ☘️
Giacomo Ciarlini - Head of Content & Education - Datapizza
Alexandru Cublesan - Media Manager & Creator - Datapizza
Utilizziamo i cookies al fine di raccogliere ed utilizzare dati come dichiarato nell’informativa sulla privacy.
Cliccando su "Accetta", aderisci all'utilizzo dei nostri cookies.
Scopri di più