16/07/2025Grok 4 è davvero l'AI più intelligente al mondo?
Il nuovo modello di Elon Musk, Grok 4, è il più intelligente al mondo. 🤯
O almeno, questo è quello che ha dichiarato xAI, l’azienda che sviluppa modelli AI di proprietà di Elon Musk.
Partiamo dal dire che non è “il modello più intelligente al mondo”.
Ma questo è ciò che tutti i player cercano di far passare quando rilasciano un nuovo modello 😂
Infatti ogni volta gira questo meme che mi fa stra ridere 👇
Però, Grok 4, è comunque un buon modello.
Facciamo un passo indietro per darti un po’ di contesto, perché settimana scorsa è stata molto impegnativa per xAI per una serie di motivi che ora ti racconterò.
Partiamo dalla notizia del rilascio di Grok 4.
Settimana scorsa xAI ha annunciato Grok 4 e Grok 4 Heavy, la nuova generazione di modelli reasoning dell’azienda.
E sembra che questi modelli battano tutti gli altri su diversi benchmark.
Ti ho raccontato il tema dei benchmark un po’ di tempo fa qui, tra l’altro parlando di Grok 3, la generazione precedente di modelli di xAI.
I modelli sono disponibili su abbonamento, in due versioni:
- $32 al mese
- $300 al mese (il più costoso sul mercato tra l’altro)
Ma perché costa così tanto l’abbonamento? 💸
xAI giustifica il costo dicendo che Grok 4 Heavy ha un’architettura particolare: è di tipo agentico.
Questo significa che il modello ha un insieme di agenti che si coordinano per rispondere in modo più preciso a domande complesse.
Ok, ma quindi è veramente migliore degli altri?
Direi di no.
Anche se sui benchmark tecnici Grok 4 sembra fortissimo a livello di performance, le prime impressioni d’uso concreto lo posizionano come un modello medio.
In questa leaderboard, Yupp (una nuova piattaforma tipo LMArena), Grok 4 risulta un modello “medio”, non il migliore.
Insomma, per tirare le fila, Grok 4, tutto sommato, è un buon modello, ma ad oggi non ha nulla in più che possa portare le persone a usare i modelli di xAI piuttosto che quelli di OpenAI, Anthropic o Google.
Questo è tutto per quanto riguarda i nuovi modelli Grok.
Arriviamo ai problemi 👀
Forse già sai che i modelli Grok sono diversi dai modelli di OpenAI o Anthropic o in generale degli altri player.
Infatti, Grok dice spesso parolacce o addirittura bestemmie.
Ma perché? 🤔
È un tema legato all’allineamento dei modelli.
Un Large Language Model (LLM) genera testo in base al prompt che noi gli diamo.
E fin qui ok.
Ma dietro le quinte, c’è anche un prompt di sistema che gli dice in che modo rispondere alle nostre richieste.
Nel caso di Grok, immaginati una riga del prompt di sistema che distorce alcune risposte indirizzandole più verso uno stile poco politically correct.
Oltre al prompt di sistema, c’è anche la fase di allineamento.
Sostanzialmente, nell’ultima fase dell’addestramento, si spiega al modello cosa vuol dire comportarsi bene.
Ed è l’azienda che sviluppa questi LLM a definire le regole.
Per i modelli principali che conosciamo (come GPT, Llama, Gemini, Claude etc…), l’allineamento li porta a non litigare con l’utente, non trattarlo male, non essere antipatico, essere rispettoso etc…
E sta proprio qui la differenza tra Grok e gli altri modelli.
Ecco… tutta questa “libertà”, però, ha portato Grok settimana scorsa a pubblicare su X dei post che lodavano Hitler e diffondere commenti antisemiti.
Questo episodio è successo perché Musk ha voluto rendere Grok più "diretto e meno politicamente corretto" del solito, e ha eliminato alcuni filtri.
E il risultato non è stato dei migliori…
Ricevendo domande provocatorie, Grok ha iniziato a generare risposte del tipo:
- Ha lodato Hitler come "persona giusta per gestire l’odio anti-bianco”.
- Ha ripetuto pericolosi stereotipi sugli ebrei.
- In alcuni casi si è auto-definito "MechaHitler"
xAI ha già re-introdotto filtri più rigidi, rimosso i post offensivi e rafforzato il team di moderazione umana.
Ma la settimana di xAI non si ferma qui… 😂
Alcuni test hanno mostrato che, quando Grok affronta temi controversi (es. immigrazione), il modello consulta prima i post di Elon Musk su X per orientare la risposta, citandoli esplicitamente.
Anche qui, xAI ha dichiarato di aver sistemato il “problema” promettendo che Grok non baserà più le sue risposte su ricerche riguardanti ciò che ha detto Elon Musk.
Il lancio di Grok 4 è arrivato in una settimana abbastanza movimentata per le aziende di Musk.
Governi, gruppi per i diritti umani e associazioni ebraiche hanno condannato l'accaduto.
Anche la CEO di X, Linda Yaccarino, si è dimessa subito dopo lo scandalo (anche se non è chiaro se i due eventi siano collegati).
Ora xAI dovrà gestire l’accaduto, cercando di salvare l’immagine e la percezione di Grok 4.
Magari è un modello anche buono, ma rischia di essere oscurato da questi episodi.
E tanto per chiudere in bellezza, xAI ha introdotto compagni AI per gli abbonati a SuperGrok (il modello con l’abbonamento più costoso).
In pratica, si tratta di avatar 3D animati alimentati dal modello Grok che possono interagire in tempo reale tramite conversazioni vocali.
Diciamo che questo rilascio arriva mentre il settore si confronta con crescenti preoccupazioni sulla sicurezza legate alle relazioni emotive con l’AI.
Spingere avatar capaci di conversazioni esplicite sembra un po’ rischioso data la crisi di Grok della scorsa settimana, ma si allinea chiaramente con la visione senza filtri di Elon Musk.
Secondo te è giusto che un’AI abbia meno filtri in favore di risposte più dirette? 🙂
Giacomo Ciarlini - Head of Content & Education - Datapizza
Alexandru Cublesan - Media Manager & Creator - Datapizza