Modelli linguistici compatti: l'intelligenza artificiale diventa mobile e più ecologica grazie a CALDERA

Tempo di lettura: 2 minuti
Di Torio Alleghi
- in
Dispositivi mobili con connessioni di rete AI luminose.

RomeRicercatori di Princeton e Stanford hanno sviluppato un nuovo metodo per rendere i grandi modelli linguistici (LLM) più compatti, permettendo loro di funzionare meglio su dispositivi mobili come telefoni e laptop. Questo approccio aiuta a migliorare la privacy, a risparmiare energia e a ridurre i costi legati all'uso di questi LLM.

Un nuovo algoritmo chiamato CALDERA consente di utilizzare i grandi modelli linguistici locali senza inviare dati a server remoti, risparmiando così energia e costi. CALDERA riduce il surplus di dati e la precisione dei livelli dei modelli linguistici, permettendo loro di essere memorizzati su dispositivi locali con una minima perdita di accuratezza.

Tecniche di Compressione Avanzate: Risparmio Energetico per Dispositivi Quotidiani

La tecnica impiega metodi di “bassa precisione” e “basso rango” per comprimere significativamente i dati. La bassa precisione riduce il numero di bit necessari per l'archiviazione e l'elaborazione, risparmiando energia. Il basso rango elimina le parti superflue nelle matrici di peso dei modelli di linguaggio. Insieme, questi metodi aumentano l'efficienza della compressione fino al 5% rispetto all'uso della sola bassa precisione. Questo miglioramento consente l’uso di tali modelli su dispositivi di tutti i giorni come smartphone e laptop.

Alcuni potenziali vantaggi di questo modello più compatto sono:

  • Maggiore privacy grazie alla possibilità di far funzionare i LLM senza inviare dati a server esterni.
  • Minore consumo energetico dovuto alla riduzione delle esigenze computazionali.
  • Ideale per dispositivi con risorse limitate.

Questa evoluzione si allinea con la tendenza attuale nell'ambito dell'IA, dove c'è un forte impegno nel rendere le tecnologie dell'IA più accessibili consentendo loro di funzionare localmente. Eseguire modelli linguistici di grandi dimensioni direttamente sul dispositivo dell'utente mantiene i dati su quel dispositivo, riducendo significativamente il rischio di violazioni dei dati e accessi non autorizzati. Questo aspetto è particolarmente cruciale man mano che l'IA gestisce informazioni personali e sensibili.

Eseguire un ampio modello linguistico su un dispositivo mobile può risultare complicato perché consuma molta memoria e potenza, riducendo così la durata della batteria se i modelli non sono ben ottimizzati. Anche se le tecniche che utilizzano basse precisioni contribuiscono a risparmiare energia, non risolvono tutti i problemi. I futuri miglioramenti potrebbero richiedere la combinazione di strategie di ottimizzazione provenienti da diversi settori.

Questa ricerca dimostra che possiamo rendere gli strumenti di intelligenza artificiale più accessibili a tutti. Riducendo in modo efficiente le dimensioni dei grandi modelli linguistici, è possibile utilizzarli sui dispositivi personali, facilitando l'integrazione dell'IA nella vita quotidiana.

Lo studio è pubblicato qui:

NaN

e la sua citazione ufficiale - inclusi autori e rivista - è

NaN
Scienza: Ultime notizie
Leggi di più:

Condividi questo articolo

Commenti (0)

Pubblica un commento
NewsWorld

NewsWorld.app è un sito di notizie premium gratuito. Forniamo notizie indipendenti e di alta qualità senza addebitare per articolo e senza un modello di abbonamento. NewsWorld ritiene che le notizie generali, di business, economiche, tecnologiche e di intrattenimento dovrebbero essere accessibili a un alto livello gratuitamente. Inoltre, NewsWorld è incredibilmente veloce e utilizza tecnologie avanzate per presentare articoli di notizie in un formato altamente leggibile e attraente per il consumatore.


© 2024 NewsWorld™. Tutti i diritti riservati.