Une nouvelle méthode pour modérer la confiance excessive des modèles d'IA
ParisLes chercheurs ont découvert une nouvelle méthode pour empêcher les modèles d'intelligence artificielle d'avoir excessivement confiance en leurs réponses incorrectes. Appelé Thermomètre, ce procédé vise à rendre les modèles de langage avancés plus fiables.
Les gens utilisent les grandes modèles de langage pour diverses tâches comme la traduction de langues, la détection de fraudes financières et la réponse aux questions du service client.
Ces modèles ne sont pas toujours fiables. Ils peuvent montrer une grande assurance en donnant des réponses erronées ou manquer de confiance lorsqu'ils fournissent les bonnes réponses. Cela rend difficile leur fiabilité.
Des chercheurs du MIT et du MIT-IBM Watson AI Lab ont mis au point Thermometer pour résoudre ce problème. Thermometer utilise un modèle supplémentaire plus petit afin d'ajuster les niveaux de confiance du LLM. Cette nouvelle méthode est efficace, ne nécessite pas beaucoup de puissance de calcul et maintient l'exactitude du modèle intacte.
Les méthodes traditionnelles d'ajustement des modèles d'apprentissage automatique sont conçues pour une tâche unique. Cependant, ces méthodes sont inefficaces pour les grands modèles de langage (LLM), car ceux-ci exécutent de nombreuses tâches. L'utilisation d'une méthode traditionnelle peut diminuer les performances d'un LLM sur des tâches pour lesquelles il n'a pas été ajusté.
Calibrer de grands modèles linguistiques nécessite habituellement de nombreux échantillons et des combinaisons, ce qui est coûteux en termes de calcul. Thermometer propose une approche différente en ajustant la confiance du modèle grâce au réglage de la température. Cette méthode bien établie de calibration utilise la "température" comme paramètre pour harmoniser les niveaux de confiance avec la précision des prédictions.
D'ordinaire, il est nécessaire de disposer d'un jeu de données de validation étiquetées pour déterminer la bonne température. Toutefois, obtenir des jeux de données étiquetées pour de nouvelles tâches est ardu. Par exemple, si une entreprise souhaite utiliser un modèle linguistique pour répondre à des questions sur un nouveau produit, il est probable qu'elle ne possède pas encore de jeu de données pour cela.
Le Thermomètre se base sur un modèle auxiliaire pour évaluer la température nécessaire. Ce modèle est formé à partir de données de plusieurs tâches courantes. Il peut ainsi s'adapter à de nouvelles tâches sans nécessiter de données étiquetées supplémentaires. Par exemple, un Thermomètre entraîné sur des questions d'algèbre et de médecine peut également corriger des réponses pour des questions de géométrie ou de biologie.
Le modèle Thermomètre s'est amélioré, bien qu'il ne soit pas encore parfait. Il n'a besoin que d'un accès limité au LLM, ce qui ne le ralentit que légèrement.
Les tests ont montré que Thermometer offrait des résultats d'incertitude plus précis et nécessitait moins de puissance de calcul que les autres méthodes.
Les scientifiques pensent que Thermometer peut accomplir de nouvelles tâches efficacement s'il est entraîné sur une variété de tâches. Ils ont également découvert qu'il fonctionne bien avec des modèles de tailles variées au sein du même groupe. Cela en fait une méthode très adaptable.
L'équipe envisage d'améliorer Thermometer pour des tâches plus complexes et des modèles linguistiques plus grands. Ils cherchent également à déterminer le nombre de jeux de données étiquetés nécessaires pour obtenir de bons résultats sur de nouvelles missions. Cette recherche a été financée par le MIT-IBM Watson AI Lab.
L'étude est publiée ici:
http://dx.doi.org/10.48550/arXiv.2403.08819et sa citation officielle - y compris les auteurs et la revue - est
Maohao Shen, Subhro Das, Kristjan Greenewald, Prasanna Sattigeri, Gregory Wornell, Soumya Ghosh. Thermometer: Towards Universal Calibration for Large Language Models. arXiv.org, 2024; DOI: 10.48550/arXiv.2403.0881918 novembre 2024 · 14:36
Étudier le comportement des souris avec précision grâce à l’IA et à moins d’animaux
18 novembre 2024 · 12:24
L'IA détecte rapidement les tumeurs cérébrales invisibles lors d'interventions chirurgicales
17 novembre 2024 · 11:45
L'IA prédictive cible les sites à risque pour une surveillance améliorée des eaux souterraines
Partager cet article