Nuevo avance en semiconductores: tecnología ECRAM transforma la eficiencia del entrenamiento de IA

Tiempo de lectura: 2 minutos
Por Pedro Martinez
- en
Ilustración de semiconductores avanzados mejorando la tecnología de IA.

MadridInvestigadores de POSTECH y la Universidad de Corea han mejorado la tecnología de semiconductores al utilizar la Memoria de Acceso Aleatorio Electroquímica (ECRAM) para potenciar los cálculos de IA. Este avance ayuda a superar las limitaciones del hardware digital actual, como las CPU y GPU, que tienen dificultades para seguir el ritmo del rápido desarrollo de la IA, incluidas las aplicaciones generativas.

A continuación, algunos puntos clave:

  • El equipo de investigación incluye a los profesores Seyoung Kim y Hyung-Min Lee, junto con Kyungmi Noh y Hyunjeong Kwak.
  • Los dispositivos ECRAM ajustan la conductividad eléctrica a través del movimiento de iones.
  • Estos dispositivos emplean una estructura de tres terminales para operaciones eficientes de lectura/escritura de datos.
  • El equipo fabricó los dispositivos ECRAM en una matriz de 64×64, una mejora significativa respecto a la matriz anterior de 10×10.

El hardware analógico regula la resistencia de los semiconductores mediante voltaje o corriente externa. Esta técnica procesa tareas de IA simultáneamente a través de una matriz de puntos cruzados. Aunque el hardware analógico es eficaz para tareas específicas y datos continuos, tiene dificultades para adaptarse a las diversas necesidades de aprendizaje e inferencia en cálculos.

El equipo de investigación superó estos retos al desarrollar dispositivos ECRAM. Estos dispositivos regulan la conductividad eléctrica mediante la concentración de iones y tienen vías separadas para leer y escribir datos, utilizando poca energía. El equipo creó una matriz de 64×64 dispositivos ECRAM, la más grande registrada hasta la fecha. Los resultados mostraron un excelente rendimiento eléctrico, cambios confiables, alta tasa de éxito y consistencia.

Los investigadores aplicaron el algoritmo Tiki-Taka, un avanzado método de aprendizaje, en su hardware eficiente. Esto mejoró la precisión del entrenamiento de redes neuronales de IA. Descubrieron que el método de entrenamiento del hardware mantiene los pesos estables y no sobrecarga las redes neuronales. Este hallazgo es relevante para la posible comercialización de la tecnología.

Esta innovación podría transformar los cálculos de IA. El hardware digital tiene limitaciones en términos de energía y escalabilidad. Una solución analógica basada en ECRAM podría ser más eficiente energéticamente y escalable para la inteligencia artificial. La estructura de tres terminales que permite operaciones de bajo consumo es prometedora para aplicaciones a gran escala.

El profesor Seyoung Kim analizó cómo las matrices de gran tamaño y los algoritmos de IA especializados podrían superar los métodos digitales actuales en rendimiento y eficiencia energética. Esta investigación podría abrir camino a nuevas tecnologías de entrenamiento de IA capaces de gestionar modelos de IA más complejos y de mayor tamaño.

El estudio contó con el apoyo de varias organizaciones coreanas, como el Ministerio de Comercio, Industria y Energía, y KEIT. La colaboración entre universidades y empresas refleja un esfuerzo significativo por mejorar la tecnología de semiconductores para IA. Este avance podría derivar en importantes aplicaciones comerciales pronto, ya que la IA se está expandiendo rápidamente en muchos campos.

El uso de dispositivos ECRAM en hardware analógico puede hacer que el cálculo de IA sea más eficiente y escalable que con el hardware digital actual. El trabajo del equipo de investigación señala una futura dirección prometedora para la tecnología de IA.

El estudio se publica aquí:

http://dx.doi.org/10.1126/sciadv.adl3350

y su cita oficial - incluidos autores y revista - es

Kyungmi Noh, Hyunjeong Kwak, Jeonghoon Son, Seungkun Kim, Minseong Um, Minil Kang, Doyoon Kim, Wonjae Ji, Junyong Lee, HwiJeong Jo, Jiyong Woo, Hyung-Min Lee, Seyoung Kim. Retention-aware zero-shifting technique for Tiki-Taka algorithm-based analog deep learning accelerator. Science Advances, 2024; 10 (24) DOI: 10.1126/sciadv.adl3350
Inteligencia Artificial: Últimas noticias

Compartir este artículo

Comentarios (0)

Publicar un comentario