Per i giganti dell'AI, a volte il più piccolo è meglio
Le grandi aziende tecnologiche e le startup stanno ora puntando su modelli di intelligenza artificiale più piccoli ed efficienti secondo il WSJ. Inizialmente, miravano a sviluppare modelli molto estesi come GPT-4 di OpenAI, che utilizzano trilioni di parametri e costano oltre 100 milioni di dollari per essere creati. Tuttavia, ora si concentrano su modelli più ridotti ed economici con un numero inferiore di parametri.
Microsoft propone la sua famiglia Phi di modelli ridotti, con una dimensione pari a solo 1/100 del modello gratuito utilizzato da ChatGPT di OpenAI. Questi modelli sono meno costosi da addestrare e utilizzare, ma offrono comunque prestazioni elevate.
I modelli di intelligenza artificiale di piccole dimensioni utilizzano dati limitati e sono concepiti per compiti specifici, il che li rende:
- Economico
- Più rapido nei tempi di risposta
- Specializzato
Yusuf Mehdi, Direttore Commerciale di Microsoft, ha affermato che gestire grandi modelli di intelligenza artificiale sarà troppo costoso per essere sostenibile nel tempo.
I modelli più piccoli possono funzionare su dispositivi, il che significa che non sono necessari costosi supercomputer cloud. Apple vuole utilizzare l'IA sui telefoni per renderli più veloci e sicuri. Anche altre aziende tecnologiche stanno seguendo la stessa strada.
Vantaggi in termini di costo e prestazioni
Microsoft ha investito molto nell'intelligenza artificiale generativa, ma ha scoperto che i modelli di grande dimensione erano più costosi del previsto. I modelli più piccoli, come Phi, richiedono meno dati e potenza di calcolo, risultando quindi più economici. Quest'anno, anche Google e startup come Mistral, Anthropic e Cohere hanno rilasciato modelli più piccoli.
L'uso di modelli più piccoli può ridurre notevolmente i costi. Yoav Shoham, co-fondatore di AI21 Labs, ha affermato che questi modelli potrebbero rispondere a domande a un sesto del costo rispetto ai modelli più grandi. I modelli più piccoli funzionano bene quando sono personalizzati su dataset specifici, come documenti legali o comunicazioni interne, offrendo quasi la stessa qualità a un costo inferiore.
Punti principali sui modelli più piccoli:
- Meno intensivo in termini di dati
- Costi di addestramento ridotti
- Efficiente per compiti specifici
21 novembre 2024 · 15:27
Gli Stati Uniti dominano l'innovazione AI, la Cina insegue nel ranking di Stanford
Experian ha sostituito i loro chatbot AI utilizzando modelli più piccoli. Ali Khan, il Chief Data Officer, ha affermato che i modelli più piccoli funzionano altrettanto bene e permettono di risparmiare molto denaro. Questi modelli più ridotti hanno inoltre meno probabilità di fornire risposte errate, rendendoli più efficienti.
Le tendenze attuali stanno definendo il futuro.
La crescita dei grandi modelli di intelligenza artificiale ha rallentato, permettendo ai modelli più piccoli di progredire. Da quando OpenAI ha rilasciato GPT-4, non ci sono stati significativi avanzamenti nei modelli di grandi dimensioni. Questo rallentamento è stato causato dalla carenza di nuovi dati di alta qualità per l'addestramento.
Microsoft si sta ora concentrando sull'ottimizzazione dell'intelligenza artificiale. Sébastien Bubeck, responsabile del progetto Modello Phi presso Microsoft, ha affermato che è fondamentale focalizzarsi sull'efficienza in questo momento.
In sintesi:
- Progressi lenti nei modelli di grandi dimensioni
- Crescente attenzione all'efficienza
- Piccoli modelli che svolgono specifici compiti con efficacia
Nonostante le aziende stiano intraprendendo nuove direzioni, continuano a utilizzare grandi modelli. Apple e Microsoft stanno integrando la tecnologia di OpenAI nei loro prodotti, ma rappresenta solo una piccola parte della loro offerta in ambito AI. Apple ha inoltre menzionato brevemente i suoi aggiornamenti in campo AI durante una recente presentazione.
Il passaggio a modelli di IA più piccoli e specializzati indica un cambiamento dall'idea di creare grandi dimostrazioni appariscenti verso rendere l'IA utile e conveniente per le imprese. Ora l'attenzione è rivolta agli usi pratici, rendendo l'IA facilmente accessibile ed efficiente per le attività quotidiane.
20 novembre 2024 · 17:56
Salto sensoriale: l'AI riconosce le texture delle superfici con tecnologia quantistica
Condividi questo articolo