Nouvelle étude : l'IA peut-elle apprendre comme nous?

Temps de lecture: 2 minutes
Par Jean Rivière
- dans
"Cerveau de robot avec des connexions neuronales analysant les données rapidement"

ParisL'intelligence artificielle (IA) fait des progrès pour imiter les activités humaines. Elle peut lire, parler et gérer de grandes quantités de données. Elle peut également conseiller sur les décisions commerciales. Cependant, l'IA a encore des limitations importantes. Un gros problème est son interaction avec le monde physique. Les systèmes actuels d'IA nécessitent des millions d'exemples pour accomplir des tâches spécifiques, comme résoudre des problèmes mathématiques ou rédiger des essais.

Kyle Daruwalla est un NeuroAI Scholar au laboratoire Cold Spring Harbor (CSHL) qui cherche à améliorer l'intelligence artificielle. Il explore de nouvelles méthodes pour concevoir des systèmes d'IA. Sa dernière idée se penche sur la gestion des données par l'IA. Les systèmes modernes nécessitent beaucoup d'énergie car les données doivent parcourir de longues distances. Daruwalla s'inspire du fonctionnement du cerveau humain.

Voici quelques éléments clés concernant son nouveau design :

  • S'inspire du cerveau humain
  • Rend le déplacement des données plus efficace
  • Permet aux neurones de l'IA de s'ajuster en temps réel
  • Intègre la mémoire de travail dans le processus de l'IA

Dans le cerveau, les connexions évoluent constamment. Daruwalla a utilisé ce principe pour concevoir un système où les neurones d'IA reçoivent des retours instantanés et ajustent immédiatement leur fonctionnement. Cela permet de traiter les données sur-le-champ sans nécessiter de longs trajets.

Les recherches indiquent un lien entre la mémoire de travail et la réussite scolaire ou l'apprentissage. La mémoire de travail nous permet de rester concentrés tout en accédant aux informations stockées. Le modèle de Daruwalla soutient cette idée en montrant que chaque synapse artificielle doit avoir un système de mémoire de travail à proximité pour effectuer des ajustements.

Le nouveau modèle de Daruwalla pourrait permettre à l'intelligence artificielle d'apprendre de manière similaire aux humains. Cela rendrait l'IA plus efficace et plus simple à utiliser. Cela est important car les neurosciences fournissent des informations précieuses à l'IA depuis longtemps. Le modèle de Daruwalla pourrait aider à faire progresser les deux domaines.

La nouvelle conception met à jour le système progressivement sans interrompre l'ensemble du processus. Cela permet à l'IA de traiter les données de manière analogue à l'apprentissage humain. C'est une avancée majeure dans le développement d'une IA capable d'apprendre comme les humains.

L'intelligence artificielle a fait de grands progrès ces derniers temps, mais elle rencontre encore des difficultés avec les tâches physiques et la résolution de problèmes complexes. Daruwalla propose une nouvelle idée qui pourrait transformer la situation. Il souhaite utiliser le cerveau humain comme modèle pour créer des systèmes d'IA plus naturels et performants.

Le NeuroAI est un domaine de recherche qui fusionne les neurosciences et l'intelligence artificielle. Les travaux de Daruwalla dans ce domaine pourraient contribuer à améliorer la manière dont les systèmes d'IA apprennent et s'adaptent.

Son concept met en avant un déplacement de données optimisé et des ajustements constants. Cela pourrait remédier à certaines des limites des technologies d'intelligence artificielle actuelles.

Le nouveau modèle d’IA de Kyle Daruwalla s’inspire du fonctionnement du cerveau humain. Il permet de déplacer et de traiter les données de manière plus efficace. Son modèle intègre une mémoire de travail, rendant l’IA plus adaptable. Cela représente une avancée significative vers la création d'une IA capable d'apprendre comme les humains et pourrait mener à de futures améliorations en intelligence artificielle et en neurosciences.

L'étude est publiée ici:

http://dx.doi.org/10.3389/fncom.2024.1240348

et sa citation officielle - y compris les auteurs et la revue - est

Kyle Daruwalla, Mikko Lipasti. Information bottleneck-based Hebbian learning rule naturally ties working memory and synaptic updates. Frontiers in Computational Neuroscience, 2024; 18 DOI: 10.3389/fncom.2024.1240348
Intelligence Artificielle: Dernières nouvelles

Partager cet article

Commentaires (0)

Poster un commentaire
NewsWorld

NewsWorld.app est un site d'actualités premium gratuit. Nous fournissons des actualités indépendantes et de haute qualité sans facturer par article et sans modèle d'abonnement. NewsWorld estime que les actualités générales, commerciales, économiques, technologiques et de divertissement devraient être accessibles à un niveau élevé gratuitement. De plus, NewsWorld est incroyablement rapide et utilise une technologie avancée pour présenter des articles d'actualités dans un format très lisible et attrayant pour le consommateur.


© 2024 NewsWorld™. Tous droits réservés.