22/08/2023 đť Come si programma con lâAI Generativa?
L'esplosione dei Large Language Models (LLM) sta offrendo agli sviluppatori un ventaglio di opzioni sempre piĂš ampio per costruire applicazioni.
Ma come si può sfruttare al meglio questa opportunità ?
Abbiamo pensato di scriverti un paio dei nostri appunti per indirizzare i tuoi sforzi sulla strada giusta e farti risparmire tempo.
Ecco una lista di approcci, in ordine crescente di complessitĂ e costo:
â Prompting: Dare istruzioni a un LLM pre-addestrato permette di costruire un prototipo in poche ore, senza bisogno di un dataset di addestramento.
â One-shot o few-shot prompting: Oltre al prompt, dare all'LLM alcuni esempi di come svolgere un compito può migliorare i risultati (parecchio, può far passare da âinutilizzabileâ a âpiuttosto buonoâ). Consiglio: massimizza la diversitĂ degli esempi.
â Fine-tuning: Un LLM pre-addestrato può essere ulteriormente addestrato per il tuo compito specifico su un piccolo dataset personalizzato (almeno un paio di centinaia di esempi â parti da Curie e poi passa a Davinci).
â Pretraining: Addestrare da zero un LLM richiede molte risorse, ma può portare a modelli specializzati come BloombergGPT (finanza) o Med-PaLM 2 (medicina): questa strada è piuttosto infattibile se non sei una grande organizzazione.
Per la maggior parte dei team, consigliamo di iniziare con il prompting, che permette di avere un'applicazione funzionante in poco tempo.
Se la qualità dell'output non fosse soddisfacente, si può passare gradualmente a tecniche piÚ complesse.
Ma attenzione: passare al fine-tuning dopo aver utilizzato il prompting su un modello proprietario, come GPT-4, che NON è disponibile per il fine-tuning, può portare a ulteriori complessità .
La scelta del modello da utilizzare è un altro aspetto cruciale: i modelli piĂš piccoli richiedono meno potenza di elaborazione e funzionano bene per molte applicazioni, ma i modelli piĂš grandi tendono ad avere una maggiore âconoscenza del mondoâ e una migliore capacitĂ di ragionamento.
Ah e usa il concetto di Chain-of-Thoughts!
Speriamo che quest consigli ti possano essere utili, e se stai âcostruendo coseâ non esitare a contattarci!
News interessanti
- Lo shortage di GPU continua. Nvidia è felice peròâŚ
- Microsoft offrirĂ ChatGPT in âprivate modeâ tramite Azure
- Amazon sta testando le recensioni generate da AI
- No, OpenAI non andrĂ in bancarotta nel 2024: debunking
đ Datapizza Selection đ
Nuovi tools AI da provare:
Ecco alcuni nuovi tools AI che durante la settimana abbiamo provato:
- đ¨âđť Nvidia ha rilasciato NEVA, un modello che può prendere in input immagini e rispondere in modo contestuale
- đĄÂ Avaturn ti permette di creare modelli 3D con AI generativa
- đŚÂ Tweetify ti permette di scrivere dei tweet (o degli âXâ) partendo da un contenuto long form
Il progetto Open Source
Joon Sung Park e i suoi colleghi di Stanford e Google hanno ampliato GPT-3.5 per creare agenti generativi che si muovono e interagiscono tra di loro in un piccolo paese in modo simili agli esseri umani.
Il codice è ora disponibile open source!

La risorsa da salvare
Dai unâocchiata a questo articolo, è estremamente denso di informazioni sul tema GPU per AI generativa.
Super dettagliato e anche un poâ tecnico, ma risorsa incredibile, da salvare assolutamente! đ https://gpus.llm-utils.org/nvidia-h100-gpus-supply-and-demand/