Settimana scorsa si è tenuto il re:Invent, dove Amazon presenta le novità legate alla sua suite Cloud, AWS.
In particolare ha annunciato la preview del suo nuovo assistente AI, Q.
In breve:
Gli altri dettagli li puoi trovare nel blog post dell’annuncio.
Quindi sì, finalmente anche Amazon ha la sua risposta a ChatGPT, Bard e Claude.
Ora, non sembra nulla di rivoluzionario, probabilmente è a livello di GPT-3.5, e soffrirà degli stessi problemi (allucinazioni) degli altri modelli.
In generale, stiamo vedendo come OGNI grossa tech stia lanciando il suo assistente basato su AI generativa, xAI e Amazon sono le ultime.
Tuttavia…
Anthropic è il più serio competitor di OpenAI ad oggi come “AI lab”, e ha in questi giorni anche lanciato Claude v2.1.
Claude 2.1 ha una finestra di contesto di 200.000 token (+150.000 parole!!) e vari miglioramenti in termini di affidabilità e “recall” (la capacità di trovare elementi anche lontani nel testo di input).
Ma tornando a Q…
Quello che pensiamo è che il grande valore sarà l’aiuto ai cloud developer / architect.
Perché?
Il mondo moderno è basato sul cloud, e costruire applicazioni in modo veloce, scalabile e robusto è cruciale per ogni tipo di applicazione o azienda.
Il fatto di aver un assistente-architetto che ti aiuta a progettare un’infrastruttura, magari seguendo le best practices, trovando i possibili bug… c’è un enorme valore in tutto ciò!
Quindi niente, vediamo come si evolve e quanto funziona bene, e come per ogni prodotto di AI generativa, è probabile che migliorerà moooolto in fretta.
Infine, guardando il panorama…
Pochi giorni fa ChatGPT ha compiuto un anno dal rilascio, e quest’anno di rilasci di nuove AI ce ne sono stati davvero ogni settimana.
Tuttavia ancora nessuna è a livello di GPT-4, che continua a essere di gran lunga la più “intelligente” e “capace” di tutti gli assistenti.
Questo potrebbe essere dovuto al fatto che OpenAI ha trovato un “ingrediente segreto”?
O perché che ha fatto scraping dell’intero web prima che le piattaforme, da Reddit al Wall Street Journal, realizzassero il problema e chiudessero i cancelli per i bot che raccolgono dati?
Il “moat competitivo” di OpenAI sta nei dati o negli algoritmi?
Facci sapere cosa ne pensi nella nostra community Discord, avvengono belle conversazioni 🙂
Ti lasciamo il link 👇
Join the Datapizza Community 🍕📈 Discord Server!
Pika, una startup che sta creando una piattaforma AI per modificare e generare video a partire da didascalie e immagini, ha annunciato oggi di aver raccolto 55 milioni di dollari.
Il round è stato guidato da Lightspeed Venture Partners e altri investitori importanti, tra cui il fondatore di Quora Adam D'Angelo, l'ex CEO di GitHub Nat Friedman.
L’ultimo video presentazione è incredibile, ti lasciamo il trailer.
Puoi già metterti in waitlist.
👉 https://x.com/pika_labs/status/1729510078959497562?s=20
Uno degli obiettivi di Datapizza è aumentare la consapevolezza sull’AI.
Sulle grandi potenzialità di questa tecnologia e sulle serie implicazioni che porta con sé.
Infatti pensiamo che non sia necessario conoscere come funzionano le reti neurali o che cos'è l'overfitting per usare l'AI oggi.
È invece fondamentale conoscerne il funzionamento base, le potenzialità e le sfide che pone.
Abbiamo letto un bell'articolo di SAS che spiega meglio questo tema.
Se non portiamo la conoscenza dell'AI a tutti, stiamo risolvendo il problema sbagliato.
Una spiegazione semplice e visuale di come funzionano i Transformers, l’architettura alla base dei modelli GPT e dell’AI generativa moderna.
Transformers, Explained: Understand the Model Behind GPT-3, BERT, and T5
Questo articolo è super interessante e spiega come i modelli di linguaggio possano essere considerati dei “motori di ragionamento”.
Sono rudimentali e acerbi, ma mostrano capacità sorprendenti che ci dovrebbero fare riflettere.
Molto consigliata.