L'IA allégée : des modèles linguistiques optimisés pour appareils mobiles par Princeton et Stanford

Temps de lecture: 2 minutes
Par Francois Dupont
- dans
Appareils mobiles avec des connexions réseau IA lumineuses.

ParisDes chercheurs de Princeton et Stanford ont mis au point une nouvelle méthode pour rendre les modèles de langage de grande taille plus compacts, ce qui permet de mieux les utiliser sur des appareils mobiles comme les téléphones et les ordinateurs portables. Cette approche améliore la confidentialité, économise de l'énergie et réduit les coûts liés à l'utilisation de ces modèles.

Utiliser des modèles de langage de grande taille (LLMs) implique souvent d'envoyer des données à des serveurs distants, ce qui est coûteux et énergivore. L'algorithme innovant CALDERA offre une solution en réduisant le volume de données et en diminuant la précision des couches LLM. Cela permet de stocker les LLMs sur des appareils locaux sans perdre en précision.

Compression avancée pour appareils quotidiens

Des avantages potentiels d'un modèle plus compact incluent :

  • Amélioration de la confidentialité grâce au fonctionnement des modèles de langage sans envoi de données à des serveurs externes.
  • Consommation d'énergie réduite en raison de besoins informatiques moindres.
  • Adaptabilité aux appareils disposant de ressources limitées.

Cette évolution s'inscrit dans la tendance actuelle de l'IA, visant à rendre ces technologies plus accessibles en permettant leur exécution locale. Faire fonctionner de grands modèles linguistiques sur l'appareil de l'utilisateur maintient les données sur ce même appareil, ce qui réduit considérablement les risques de fuites de données et d'accès non autorisés. Cela revêt une importance particulière à mesure que l'IA traite des informations de plus en plus personnelles et sensibles.

Exécuter un modèle de langage de grande taille sur un appareil mobile peut poser des défis, car cela nécessite beaucoup de mémoire et d'énergie, ce qui peut réduire la durée de vie de la batterie si les modèles ne sont pas bien optimisés. Bien que l'utilisation de techniques de faible précision contribue à économiser de l'énergie, elles ne résolvent pas tous les problèmes. Les améliorations futures devront probablement intégrer des stratégies d'optimisation issues de divers domaines.

Cette étude démontre qu'il est possible de rendre les outils d'IA plus accessibles à tous. En réduisant efficacement la taille des modèles de langage étendus, davantage de personnes pourront utiliser l'IA sur leurs appareils personnels, facilitant ainsi son intégration dans la vie quotidienne.

L'étude est publiée ici:

NaN

et sa citation officielle - y compris les auteurs et la revue - est

NaN
Intelligence Artificielle: Dernières nouvelles

Partager cet article

Commentaires (0)

Poster un commentaire
NewsWorld

NewsWorld.app est un site d'actualités premium gratuit. Nous fournissons des actualités indépendantes et de haute qualité sans facturer par article et sans modèle d'abonnement. NewsWorld estime que les actualités générales, commerciales, économiques, technologiques et de divertissement devraient être accessibles à un niveau élevé gratuitement. De plus, NewsWorld est incroyablement rapide et utilise une technologie avancée pour présenter des articles d'actualités dans un format très lisible et attrayant pour le consommateur.


© 2024 NewsWorld™. Tous droits réservés.