L'algorithme innovant des robots réduit les erreurs humaines dans les environnements de travail collaboratif

Temps de lecture: 2 minutes
Par Francois Dupont
- dans
Robot optimisant une tâche avec des zones de danger mises en évidence.

ParisLes nouvelles avancées en robotique ont permis de développer un algorithme permettant aux robots de détecter quand les humains ne prêtent pas attention. Cette progression significative, publiée dans la revue IEEE Transactions on Systems Man and Cybernetics Systems, améliore la sécurité et l'efficacité de la collaboration entre humains et robots.

Une équipe de l'École de Génie Mécanique et des Matériaux de l'Université de l'État de Washington a mis au point un algorithme pour résoudre un problème majeur : les erreurs humaines. Les études montrent que les distractions et la fatigue sont souvent à l'origine d'accidents au travail. Alors que les robots exécutent leurs programmes à la lettre, ils ne s'adaptent pas bien à l'imprévisibilité humaine.

Principales fonctionnalités du nouvel algorithme :

  • Évaluation de la négligence humaine.
  • Adaptations dynamiques du comportement des robots en fonction des actions humaines observées.
  • Mises à jour continues et en temps réel du niveau de négligence.

Le robot observe les comportements humains et détecte lorsque quelqu'un ne prête pas attention. Si un salarié ignore fréquemment les avertissements de sécurité, le robot adapte ses actions pour éviter les accidents. Cela peut impliquer que le robot modifie ses tâches pour éviter les zones où le travailleur risque de poser problème.

Cette recherche est exceptionnelle car elle se concentre sur les modifications des comportements humains. Contrairement aux algorithmes traditionnels qui visent à améliorer l'efficacité ou la sécurité, cette nouvelle méthode permet aux robots de s'adapter aux changements de comportement humain. Cette capacité d'adaptation est essentielle dans les environnements de travail où humains et robots collaborent.

Les simulations informatiques de cet algorithme appliqué aux lignes de conditionnement et d'assemblage ont montré des résultats prometteurs. La sécurité a augmenté de 80 % et l’efficacité de 38 %. Ces améliorations laissent à penser qu'il pourrait contribuer à réduire les accidents de travail et accroître la productivité.

Les chercheurs prévoient de tester leur algorithme dans des situations réelles prochainement. Des essais en laboratoire et sur le terrain à venir les aideront à évaluer l'efficacité de l'algorithme. En plus de vérifier l'inattention, l'équipe souhaite mesurer d'autres traits tels que la rationalité et la conscience du danger. Cela pourrait améliorer le comportement des robots lorsqu'ils travaillent avec des humains.

Une recherche financée par la National Science Foundation, avec la contribution de Bruno Sinopoli et Aaron F. Bobick de l'Université de Washington à St. Louis, souligne l'importance de concevoir des algorithmes prenant en compte les différences humaines pour améliorer la sécurité et l'efficacité dans les domaines où les robots sont de plus en plus utilisés.

L'étude est publiée ici:

http://dx.doi.org/10.1109/TSMC.2024.3404346

et sa citation officielle - y compris les auteurs et la revue - est

Mehdi Hosseinzadeh, Bruno Sinopoli, Aaron F. Bobick. Robot Action Planning in the Presence of Careless Humans. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2024; 1 DOI: 10.1109/TSMC.2024.3404346
Science: Dernières nouvelles
Lire la suite:

Partager cet article

Commentaires (0)

Poster un commentaire
NewsWorld

NewsWorld.app est un site d'actualités premium gratuit. Nous fournissons des actualités indépendantes et de haute qualité sans facturer par article et sans modèle d'abonnement. NewsWorld estime que les actualités générales, commerciales, économiques, technologiques et de divertissement devraient être accessibles à un niveau élevé gratuitement. De plus, NewsWorld est incroyablement rapide et utilise une technologie avancée pour présenter des articles d'actualités dans un format très lisible et attrayant pour le consommateur.


© 2024 NewsWorld™. Tous droits réservés.