Nuova ricerca: la tecnologia avanzata dei semiconduttori rivoluziona l'addestramento AI grazie a ECRAM

Tempo di lettura: 2 minuti
Di Maria Astona
- in
Illustrazione di semiconduttori avanzati che migliorano la tecnologia AI.

RomeRicercatori di POSTECH e dell'Università della Corea hanno potenziato la tecnologia dei semiconduttori utilizzando la Memoria Elettrochimica ad Accesso Casuale (ECRAM) per migliorare i calcoli dell'IA. Questo progresso aiuta a superare i limiti dell'hardware digitale attuale, come CPU e GPU, che fatica a tenere il passo con il rapido sviluppo dell'IA, inclusi gli applicativi di intelligenza generativa.

Ecco alcuni punti chiave:

  • Il team di ricerca comprende il professor Seyoung Kim, Kyungmi Noh, Hyunjeong Kwak e il professor Hyung-Min Lee.
  • I dispositivi ECRAM regolano la conducibilità elettrica tramite il movimento degli ioni.
  • Questi dispositivi utilizzano una struttura a tre terminali per operazioni di lettura/scrittura dei dati efficienti.
  • I dispositivi ECRAM del team sono stati fabbricati in una matrice 64×64, un notevole miglioramento rispetto alla precedente matrice 10×10.

L'hardware analogico regola la resistenza dei semiconduttori tramite tensione o corrente esterna. Questo metodo elabora simultaneamente i compiti di intelligenza artificiale attraverso una matrice a croce. Sebbene l'hardware analogico sia efficace per compiti specifici e per elaborare dati continui, fatica a gestire le diverse esigenze di apprendimento e inferenza nelle computazioni.

Il team di ricerca ha superato queste sfide sviluppando i dispositivi ECRAM. Questi dispositivi regolano la conducibilità elettrica mediante la concentrazione di ioni e dispongono di percorsi separati per leggere e scrivere dati, utilizzando una bassa quantità di energia. Il gruppo ha realizzato una matrice di 64x64 dispositivi ECRAM, la più grande riportata finora. I risultati hanno mostrato eccellenti prestazioni elettriche, un'affidabile commutazione, un alto tasso di successo e una notevole coerenza.

I ricercatori hanno utilizzato l'algoritmo Tiki-Taka, un metodo di apprendimento avanzato, su un hardware efficiente. Questo ha migliorato la precisione dell'addestramento delle reti neurali AI. Hanno scoperto che il metodo di addestramento dell'hardware mantiene stabili i pesi e non sovraccarica le reti neurali. Questa scoperta è cruciale per rendere la tecnologia potenzialmente disponibile per uso commerciale.

Questa innovazione potrebbe rivoluzionare i calcoli dell'IA. L'hardware digitale ha limiti di potenza e scalabilità. Una soluzione analogica basata su ECRAM potrebbe essere più efficiente dal punto di vista energetico e scalabile per l'IA. La struttura a tre terminali, che consente operazioni a basso consumo, è promettente per applicazioni su larga scala.

Il Professor Seyoung Kim ha illustrato come grandi array e algoritmi AI specializzati possano superare i metodi digitali attuali in termini di prestazioni ed efficienza energetica. Questa ricerca potrebbe portare a nuove tecnologie di addestramento AI capaci di gestire modelli più complessi e di maggiori dimensioni.

Lo studio ha ricevuto sostegno da diverse organizzazioni coreane, come il Ministero del Commercio, dell'Industria e dell'Energia, e KEIT. La collaborazione tra università e imprese dimostra un forte impegno nel migliorare la tecnologia dei semiconduttori per l'IA. Questo progresso potrebbe portare presto a importanti usi commerciali, poiché l'IA si sta rapidamente espandendo in molte aree.

L'utilizzo di dispositivi ECRAM nell'hardware analogico può rendere il calcolo dell'intelligenza artificiale più efficiente e scalabile rispetto all'hardware digitale attuale. Il lavoro del team di ricerca indica una direzione futura entusiasmante per la tecnologia AI.

Lo studio è pubblicato qui:

http://dx.doi.org/10.1126/sciadv.adl3350

e la sua citazione ufficiale - inclusi autori e rivista - è

Kyungmi Noh, Hyunjeong Kwak, Jeonghoon Son, Seungkun Kim, Minseong Um, Minil Kang, Doyoon Kim, Wonjae Ji, Junyong Lee, HwiJeong Jo, Jiyong Woo, Hyung-Min Lee, Seyoung Kim. Retention-aware zero-shifting technique for Tiki-Taka algorithm-based analog deep learning accelerator. Science Advances, 2024; 10 (24) DOI: 10.1126/sciadv.adl3350
Intelligenza Artificiale: Ultime notizie

Condividi questo articolo

Commenti (0)

Pubblica un commento