Quand l'IA dépasse-t-elle la limite ? Régulation en question
ParisLes régulateurs cherchent à déterminer quand un système d'IA devient dangereux. Une des principales méthodes pour évaluer cela est d'examiner sa puissance de calcul, mesurée en opérations en virgule flottante par seconde (flops). Les systèmes d'IA capables d'exécuter 10^26 flops—100 septillions de calculs par seconde—doivent désormais être signalés au gouvernement des États-Unis. Ce niveau élevé de puissance de calcul pourrait entraîner des menaces sérieuses, telles que la création d'armes de destruction massive ou le lancement de cyberattaques sévères.
Pour information, voici les seuils de régulation essentiels :
- Un modèle d'IA doit être capable de réaliser 10^26 flops pour devoir être signalé.
- Les modèles doivent également coûter au moins 100 millions de dollars pour être construits.
- L'AI Act de l'UE fixe un seuil plus bas, à 10^25 flops.
Certains critiques estiment que ces mesures peuvent être aléatoires et peuvent empêcher la créativité. Ils pensent que ces points de référence pourraient ignorer des modèles plus petits qui pourraient néanmoins être très performants et dangereux. La scientifique en informatique Sara Hooker souligne que les indicateurs actuels, comme les flops, ne reflètent pas nécessairement les risques potentiels d'une IA, car de nombreux développeurs réussissent à faire plus avec moins de puissance de calcul.
Les gouvernements peinent à établir des régulations pour l'IA en raison de l'évolution rapide de la technologie et des effets encore mal connus. Pour remédier à cela, ils ont adopté des règles temporaires susceptibles d'être mises à jour au fur et à mesure que l'IA progresse. Bien que ces règles tentent de gérer les problèmes à l'aide de critères clairs comme la puissance de traitement, elles ne peuvent prévoir tous les nouveaux défis qui pourraient émerger.
Alors que les nouveaux modèles technologiques utilisent moins de ressources, leur impact sur la société reste considérable, nécessitant une régulation rigoureuse. Ceci est particulièrement important à mesure que l'industrie technologique développe des modèles plus compacts et efficaces, susceptibles d'être détournés de leur usage initial. Des exemples comme ChatGPT d'OpenAI illustrent bien que, bien que ces outils soient bénéfiques, ils doivent constamment être surveillés pour des questions de sécurité et d'éthique.
Les physiciens tels qu'Anthony Aguirre, qui soutiennent l'utilisation de la métrique des flops, reconnaissent ses limitations mais estiment qu'elle offre un cadre de référence essentiel en cette période de progrès technologique rapide. Ils pensent que les nouvelles lois sont flexibles et peuvent être adaptées à mesure que de nouvelles informations apparaissent. Néanmoins, les critiques avertissent que se baser uniquement sur des mesures computationnelles pourrait freiner les nouvelles idées ou ignorer des dangers cachés dans des modèles qui paraissent sûrs.
Nous devons trouver de meilleures façons de réguler l'IA qui peut se transformer et s'adapter. Ces règles doivent encourager l'innovation tout en gérant les nouveaux risques. Il ne s'agit pas seulement de la puissance de l'IA ; il faut aussi prendre en compte les impacts sociétaux et les contextes d'utilisation. Par conséquent, les futures régulations de l'IA incluront probablement des contrôles de sécurité améliorés et des mesures plus détaillées.
Bien que les règles actuelles ne soient pas parfaites ni durables, elles contribuent à gérer le monde complexe de l'intelligence artificielle. L'objectif sera probablement de continuer à équilibrer les nouvelles avancées avec des régulations pour garantir une utilisation sécurisée de l'IA dans divers domaines.
18 novembre 2024 · 14:36
Étudier le comportement des souris avec précision grâce à l’IA et à moins d’animaux
18 novembre 2024 · 12:24
L'IA détecte rapidement les tumeurs cérébrales invisibles lors d'interventions chirurgicales
17 novembre 2024 · 11:45
L'IA prédictive cible les sites à risque pour une surveillance améliorée des eaux souterraines
Partager cet article