Nouveaux horizons : le double tranchant de l'IA dans les découvertes biologiques

Temps de lecture: 2 minutes
Par Jean Rivière
- dans
« Réseau neuronal AI avec hologramme de brin d'ADN »

ParisDes chercheurs de l'École d'informatique de l'Université Carnegie Mellon ont élaboré de nouvelles directives pour l'utilisation des méthodes d'apprentissage automatique interprétable en biologie computationnelle. Ces directives visent à surmonter des défis majeurs et à offrir des opportunités pour une meilleure compréhension. Les modèles d'apprentissage automatique sont déjà indispensables pour l'analyse des données biomédicales, telles que les séquences génomiques et les images biologiques. Toutefois, il est crucial de comprendre le fonctionnement de ces modèles pour découvrir des processus biologiques en bonne santé et en maladie.

L'étude propose plusieurs recommandations clés :

  • Utiliser plusieurs méthodes d'apprentissage machine interprétables.
  • Définir divers hyperparamètres.
  • Éviter de sélectionner uniquement les résultats avantageux.

Un des inconvénients d'utiliser une seule méthode pour comprendre les modèles d'apprentissage automatique est qu'elle peut induire en erreur. Les chercheurs recommandent d'employer plusieurs techniques pour mieux appréhender le fonctionnement des modèles. Cela rend les résultats plus fiables.

L'engouement pour l'interprétabilité en apprentissage automatique est intense, mais les solutions faciles à utiliser se font toujours attendre. Avec la montée en complexité des modèles prédictifs, comprendre leurs mécanismes et leurs raisons de prédiction devient crucial, notamment dans le domaine biomédical. Les chercheurs de l'université de Carnegie Mellon soulignent que comprendre le fonctionnement des modèles est essentiel pour découvrir des processus biologiques fondamentaux.

Évaluer incorrectement les modèles peut entraîner des résultats biaisés. L'article souligne l'importance d'éviter de ne sélectionner que les résultats positifs. Une telle pratique peut rendre les découvertes scientifiques incomplètes ou trompeuses. Il est essentiel de bien réfléchir aux facteurs humains lors de la création et de l'utilisation de méthodes d'apprentissage automatique faciles à comprendre. Cela inclut de savoir qui utilisera ces méthodes et de comprendre comment elles seront utilisées et évaluées.

Les professeurs et doctorants de CMU ont collaboré pour analyser plusieurs articles en biologie computationnelle. Ils ont constaté que l'utilisation de l'apprentissage automatique interprétable était souvent incohérente. Les chercheurs souhaitent établir des lignes directrices standards afin de rendre ces méthodes plus fiables et uniformes.

Ces directives touchent de nombreuses personnes. Elles aident les chercheurs à comprendre le fonctionnement des grands modèles linguistiques et autres systèmes d'IA complexes. Ces règles permettent d'expliquer pourquoi certaines prédictions sont faites, ce qui peut grandement contribuer à la recherche scientifique et médicale.

L'accent sur la facilitation de la compréhension de l'IA s'aligne avec la tendance à développer une IA digne de confiance pour les utilisateurs. Cela met en lumière l'importance de la collaboration interdisciplinaire. Ces efforts permettront d'assurer une utilisation étendue et efficace des outils d'IA pour des travaux scientifiques cruciaux. À mesure que les modèles d'apprentissage automatique évoluent, les méthodes pour les interpréter avec précision doivent également évoluer. Cette étude pourrait mener à des applications plus éclairées et percutantes de l'IA en biologie.

Les recommandations présentées dans cet article ne s'adressent pas uniquement aux biologistes computationnels. Elles peuvent également être utiles aux chercheurs en apprentissage automatique pour développer de nouvelles méthodes et outils à la fois précis et faciles à comprendre. Cette approche pourrait renforcer le rôle de l'IA dans les découvertes scientifiques, notamment en décryptant les systèmes biologiques complexes.

L'étude est publiée ici:

http://dx.doi.org/10.1038/s41592-024-02359-7

et sa citation officielle - y compris les auteurs et la revue - est

Valerie Chen, Muyu Yang, Wenbo Cui, Joon Sik Kim, Ameet Talwalkar, Jian Ma. Applying interpretable machine learning in computational biology—pitfalls, recommendations and opportunities for new developments. Nature Methods, 2024; 21 (8): 1454 DOI: 10.1038/s41592-024-02359-7
Intelligence Artificielle: Dernières nouvelles

Partager cet article

Commentaires (0)

Poster un commentaire
NewsWorld

NewsWorld.app est un site d'actualités premium gratuit. Nous fournissons des actualités indépendantes et de haute qualité sans facturer par article et sans modèle d'abonnement. NewsWorld estime que les actualités générales, commerciales, économiques, technologiques et de divertissement devraient être accessibles à un niveau élevé gratuitement. De plus, NewsWorld est incroyablement rapide et utilise une technologie avancée pour présenter des articles d'actualités dans un format très lisible et attrayant pour le consommateur.


© 2024 NewsWorld™. Tous droits réservés.