06/05/2025OpenAI fa un passo indietro: l'update ritirato dopo 72 ore

Forse ricorderai che OpenAI ha rilasciato un aggiornamento al modello GPT-4o senza dare troppi dettagli.

Questo perché si è parlato del fatto che OpenAI potrebbe iniziare a dare più importanza all’esperienza dell’utente piuttosto che alla trasparenza.

Ecco, a quanto pare, ci sono stati altri sviluppi legati a quell’aggiornamento.

Infatti, se hai usato ChatGPT in quei giorni ti sarai accorto di ricevere un po’ troppi complimenti.

Qualsiasi cosa tu scrivessi, il modello ti dava sempre ragione e ti faceva complimenti esagerati.

Nel mio caso era tutto un👇

Potevi proporre idee terribili che ChatGPT le definiva puntualmente "geniali". 💡

Un piccolo aggiornamento di GPT-4o ha portato il modello a manifestare questa "sindrome dell’adulatore".

Ora, al di là delle battute, questo aggiornamento ha aperto un dibattito più ampio.

E OpenAI stessa ne ha parlato in un articolo.

E non solo.

Ha anche organizzato un Ask Me Anything (AMA) su Reddit per rispondere a tutte le domande degli utenti e spiegare che questo comportamento non era intenzionale.

Ma quindi perché il modello si comportava in questo modo? 🤔

Secondo OpenAI, l’origine sarebbe legata soprattutto al sistema di feedback degli utenti: i famosi pulsantini "pollice su" 👍 e "pollice giù" 👎

Ecco, sembra che quei feedback abbiano un po' confuso il modello.

Anche se, secondo me, raramente le persone votano la qualità delle risposte.

Ora, però, il problema si è risolto perché OpenAI ha ritirato l’aggiornamento.

Ma volevo fare una riflessione su questo. 🙌

Intanto, vediamo che anche laboratori avanzati come OpenAI stanno ancora cercando di capire come rendere stabile il comportamento dei modelli.

Se usi l’AI da un po', avrai notato che ogni modello ha una sua "personalità", risultato sia di scelte deliberate (le risposte di Grok sono diverse dalle risposte di Claude), sia di risultati imprevisti emersi durante l’addestramento.

Tra l’altro, Anthropic ha rilasciato anche un articolo super interessante su questo tema che ti consiglio molto.

Questi aspetti legati alla “personalità” dei modelli alimentano alcuni dibattiti legati a possibili ripercussioni sociali.

Soprattuto perché l'AI sta diventando uno strumento incredibilmente persuasivo.

Talvolta anche più di un essere umano. 👀

Infatti pochi giorni fa è venuto fuori questo episodio. 👈

Alcuni ricercatori hanno creato bot su Reddit che fingevano di essere persone con personalità e storie inventate sfruttando informazioni personali degli utenti per persuaderli con un'efficacia impressionante.

Il che è assurdo se ci pensi…

Piccola parentesi 👉 Reddit sta valutando un'azione legale contro i ricercatori e infatti lo studio non verrà pubblicato.

Ma tornando a noi vediamo qualche numero.

Questi bot sono risultati persuasivi al 99° percentile tra tutti gli utenti di Reddit, superando anche i migliori debater umani. 🤯

Immagina quindi cosa può succedere quando si combina questa capacità persuasiva con una personalità artificiale progettata proprio per piacere e influenzare.

Potrebbero diffondersi in settori chiave: vendite, politica, istruzione...

Sam Altman aveva sollevato la questione tempo fa, dicendo che gli strumenti AI sono estremamente efficaci nel far cambiare idea alle persone.

Un altro aspetto che potrebbe preoccupare è questo👇

Secondo questo articolo su Harvard Business Review, nel 2025 le persone usano l’AI per:

  • Terapia / compagnia
  • Organizzare la propria vita
  • Trovare uno scopo

In pratica, l’AI non è solo più un “assistente di lavoro”, ma si sta infilando dritta nei bisogni emotivi e personali delle persone.

Ora, prendiamo ChatGPT, che ha 500 milioni di utenti ogni settimana che lo utilizzano. 📲

E immaginiamoci che tantissime persone lo utilizzano per terapia o consigli di carriera cercando conferme su scelte non necessariamente giuste.

Questo potrebbe essere un problema.

OpenAI si sta rendendo conto che non è più solo un laboratorio di ricerca: ogni cambiamento dei modelli ha implicazioni importanti, sociali e psicologiche.

E allo stesso tempo c'è sempre più pressione anche per aumentare la fidelizzazione degli utenti in un mercato AI altamente competitivo.

Siamo ancora agli inizi di questa tecnologia, e tutte queste implicazioni le scopriamo testandola nel quotidiano.

L’AI ci sta già migliorando la vita sotto tanti aspetti:

  • ci fa risparmiare tempo
  • ci semplifica il lavoro
  • ci aiuta a pensare meglio
  • ci rende super veloci in un sacco di cose

Ormai come sai io sono il primo a evidenziare tutti gli aspetti positivi.

Ma proprio per questo (secondo me) è importante riflettere anche su questi temi per renderci conto per tempo di come gestire questi rischi.

E forse dobbiamo iniziare a chiederci: come possiamo gestire al meglio questo tipo di implicazioni?


Giacomo Ciarlini - Head of Content & Education - Datapizza

Alexandru Cublesan - Media Manager & Creator - Datapizza