Dall’uscita di modelli di linguaggio come ChatGPT, una delle applicazioni più usate e utili è quella di usare l’AI generativa per programmare.
Strumenti come GitHub Copilot permettono ai programmatori di accelerare il loro lavoro (fino al 45%) e la maggior parte non potrebbe più “tornare indietro” (77%).
In genere questi strumenti si presentano come degli “autocomplete” estremamente potenti, ma c’è un nuovo approccio che sta emergendo…
Questo approccio si basa sull’affidare completamente la generazione del codice al modello AI.
Il metodo si chiama AlphaCodium ed è stato ideato da Codium, una popolare piattaforma di AI per coding.
In pratica funziona così:
⁃ Si fornisce all’AI il “task” da completare
⁃ Si costruisce una catena di prompt fatta così
Ha funzionato?
Se si, bene, hai scritto il programma corretto!
Se no, ripeti, cercando di aggiustare il codice e ritestandolo.
Ecco un’immagine di come funziona (tratta dal blog)
Super interessante no?
Inoltre questo nuovo approccio mi fa riflettere su una cosa…
Stiamo assistendo alla nascita del “Flow Engineering”, che differisce dal tanto chiacchierato “Prompt Engineering”, in quanto non si concentra sull’ottimizzare il singolo comando che viene dato al modello (il “prompt”).
Il Flow Engineering prevede di costruire un “workflow intelligente” per sfruttare le capacità dei modelli di linguaggio.
I vantaggi?
⁃ Questo metodo è stato testato con vari modelli e ha raddoppiato le performance rispetto al singolo prompt “Scrivi il codice per questo problema”.
È un METODO, che si può applicare a qualsiasi modello (proprietario oppure opensource)
Ma soprattutto dimostra quanti “frutti bassi dell’albero” ci siano ancora da cogliere solo con i modelli attuali (tipo GPT4 / Mistral).
Se ci pensi, è come se con i modelli di AI generativa (GPT) avessimo… inventato il motore a scoppio.
Ok, super utile anche già così…
Però pensa a tutto quello che è stato inventato DOPO e ATTORNO al motore a scoppio: automobili, aerei, macchinari industriali…
In generale, ogni volta che avviene un grande salto tecnologico, poi in genere ci sono intere generazioni di cose da costruire, anche solo come innovazioni di UX, o che prevedono il “mettere assieme diversi pezzi del puzzle”.
Come dice Ethan Mollick:
“Abbiamo una decade per capire solo le implicazioni di GPT4…”
I prompt di AlphaCodium
Hai un’idea o un progetto?
Vieni sul nostro Discord e parliamone, sicuramente puoi trovare persone super forti e interessate con cui discutere e magari perché no, realizzare la tua idea!
By Giacomo Ciarlini - Head of Content & Education - Datapizza
E’ appena uscito questo nuovo paper che introduce un nuovo metodo per insegnare ai modelli di linguaggio a… conversare.
In pratica invece di fare la fase di pretraining per “imparare conoscenza” e poi di Reinforcement Learning (RLHF per imparare a conversare, questo approccio unisce le due cose in un solo metodo di addestramento detto “Self-Rewarding Language Models”.
In pratica il modello impara “da solo” a giudicare la qualità del suo operato, senza supervisione umana.
Questo metodo sembra performare meglio di quelli esistenti ed è super promettente.
Link al paper, molto figo → https://arxiv.org/abs/2401.10020
Prova assolutamente Phind, è un motore di ricerca simile a Perplexity.
Permette di effettuare ricerche complesse ee aggregare velocemente i risultati.
E’ gratuito, ma puoi fare l’upgrade per avere più ricerche e usare GPT4 dietro le quinte.
Non male!