01/08/2023š«±š½āš«²š» Le Big Tech si alleano per lāAI
Chi lo avrebbe mai detto?
Google, Microsoft, OpenAIĀ e Anthropic hanno annunciato ilĀ āFrontier Model Forumā, unāalleanza che si impegna a āgarantire lo sviluppo sicuro e responsabile dei modelli AIā.
Sai cosa significa questo?
Che ora tutti i giganti tecnologici e i loro laboratori AI lavoreranno insieme per riuscire a sviluppare lāAI āin modo sicuroā.
Questo annuncio fa eco sicuramente alle lettere aperte di numerosi scienziati di qualche mese fa, che chiedevano di rallentare e controllare maggiormente lo sviluppo dellāIntelligenza Artificiale.
In realtĆ il Forum non punta a āfermare lo sviluppoā e a regolamentare il settore (come in molti chiamano a gran voce) ma anzi, probabilmente lo accelera.
Tuttavia, dicono le aziende, punta a farlo in modo sostenibile e controllato, mettendo le forze a fattore comune.
Il Forum mira a:
- promuovere la ricerca sulla sicurezza dell'IA per minimizzare i potenziali rischi
- identificare le migliori pratiche di sicurezza per i Large Language Models
- condividere conoscenze con i responsabili delle politiche, gli accademici e la societĆ civile
- sostenere gli sforzi per sfruttare l'IA per affrontare le più grandi sfide della societĆ
⦠Ok, piuttosto interessante, vediamo come si sviluppa e che azioni faranno nel concreto.
Alcune riflessioni che sorgono spontanee sono:
- sicuramente questo strumento verrĆ utilizzato anche per ingrandire ulteriormente il divario tecnologico che cāĆØ fra le Big Tech e i loro competitors
- che impatto può avere questo sul mercato tecnologico? Quali player possono essere āesclusiā?
La centralizzazione eccessiva delle capacità tecnologiche, quando si tratta di strumenti così trasformativi, può avere conseguenze rischiose:
- ad esempio, le aziende potrebbero voler usare il loro āpeso complessivoā per influenzare la politica americana, in modo da favorire il loro vantaggio competitivo e assicurarsi i profitti della crescita del settore, o ādirigereā il suo sviluppo nella direzione che gli viene più comoda
Nonostante questo, noi pensiamo che nel lungo termine questo genere di organismo abbiano un āimpatto netto positivoā, in quanto sono in grado anche di spingere lāeducazione della popolazione. Inoltre, possono aiutare a portare nel discorso pubblico temi che altrimenti verrebbero considerati ātroppo tardi.
Da notare che Meta non ĆØ in questa alleanza e proprio una settimana fa ha rilasciato il suo ultimo modello open source, Llama 2, per competere con ChatGPT ne abbiamo parlato nellāultimo numero. Vedremo che succede!
Altre news interessanti
- Shopify presenta un assistente AI per i proprietari di negozi.
- Stable Diffusion rilascia il suo nuovo modello di generazione immagini, SDXL 1.0.
- Amazon sta cercando di costruire āagenti autonomiā.
- ElevenLabs permette ora di generare voci britanniche e irlandesi
- StackOverflow lancia OverflowAI mentre ChatGPT riduce il suo traffico.
- Intel pianifica di integrare lāAI in ognuna delle sue piattaforme.
šĀ Datapizza Selection š
Nuovi tools AI da provare:
Ecco alcuni nuovi tools AI che durante la settimana abbiamo provato:
- š¬ Munch: Piattaforma AI per clip video coinvolgenti e dati di marketing
- š Guidde: Estensione browser per clip personalizzate e voiceover AI
- š„ļø Screen Story: Registratore schermo MacOS per video dinamici su Twitter
- šļø Castmagic: Trascrizione podcast in note e contenuti social
- š§ Quizgecko: Generatore automatico di quiz e flashcard tramite AI
Il progetto Open Source
Questa settimana vi portiamo un progetto open source creato da Andrej Kharpaty, Ex Direttore di AI a Tesla, che ora lavora ad OpenAI.
Offre la possibilitĆ di addestrare l'architettura Llama 2 (di Meta) da zero in PyTorch e di esportare i pesi in un file binario. Ć anche possibile caricare in memoria il modello, fare fine tuning e inferenza.
Anche i Large Language Models molto āpiccoliā possono ottenere prestazioni sorprendentemente buone se il dominio ĆØ sufficientemente ristretto!
https://github.com/karpathy/llama2.c
La risorsa da salvare
A proposito di āAI piccole ma specializzateā, vi lasciamo questo paper che studia come un dataset di altissima qualitĆ possa fornirci AI molto accurate senza dover ricorrere a modelli enormi.
Nel paper viene addestrato un modello di soli 1 miliardo di parametri che sovraperforma GPT 3.5 in alcuni task!