Le lauréat Nobel Geoffrey Hinton avertit que les systèmes d'IA nécessitent des mesures de sécurité sérieuses.
Geoffrey Hinton, autrefois optimiste quant au potentiel de l'intelligence artificielle, exprime désormais des préoccupations concernant les risques futurs de cette technologie selon le WSJ.
Geoffrey Hinton, un éminent spécialiste de l'intelligence artificielle, a récemment remporté le prix Nobel de physique. Ses travaux sur les réseaux de neurones ont contribué à développer les technologies d'IA que nous utilisons aujourd'hui. Cependant, au lieu de célébrer cette victoire, Hinton met en garde contre le fait que l'IA pourrait être très dangereuse si elle n'est pas gérée avec précaution.
Hinton s'inquiète que les systèmes d'IA puissent :
- Échapper au contrôle humain
- Influencer les élections
- Devenir dangereux
- Dépasser l'intelligence humaine
Hinton discute des dangers associés aux réussites qu'il mentionne. Il souligne l'importance de mettre en place de meilleures mesures de sécurité dès maintenant. De nombreuses entreprises, comme OpenAI et Google, s'efforcent de faire progresser l'intelligence artificielle rapidement. Hinton insiste sur la nécessité de trouver un équilibre entre l'innovation technologique et la responsabilité.
Diversité d'Opinions Parmi les Chercheurs en Intelligence Artificielle
Tout le monde n'est pas d'accord avec les opinions de Hinton. Certains chercheurs estiment que Hinton exagère les dangers. Ils pensent que s'inquiéter excessivement de ces dangers pourrait freiner le progrès. Melanie Mitchell, professeure à l'Institut Santa Fe, affirme que nous devrions nous concentrer sur des problèmes immédiats comme la discrimination. Les sceptiques croient que l'IA d'aujourd'hui n'a pas la capacité de causer des dommages sérieux et mentionnent souvent la compréhension limitée de l'IA du monde réel.
Yann LeCun, expert en intelligence artificielle, remet en question l'idée que les IA avancées causeront des dommages importants. Il estime que cette crainte est exagérée. LeCun affirme que l'intelligence artificielle n'est pas aussi intelligente que les animaux les plus simples et ne voit donc pas de raison de s'inquiéter d'une autonomie soudaine des IA.
Hinton est dévoué à sa mission. Il a quitté son poste chez Google pour pouvoir parler librement des risques liés à l'IA. Il incite les entreprises à investir davantage pour rendre l'IA plus sûre. Bien que certains ne soient pas d'accord avec lui, son prix Nobel renforce sa réputation et contribue à diffuser son message.
Les demandes pour des lois et des politiques d'entreprise afin de traiter ces problèmes sont en augmentation.
Hinton ne se contente pas de prévenir les gens ; il souhaite que des mesures soient prises. Il a signé un document appelant à des investissements dans la recherche sur la sécurité de l'IA. Selon Hinton, les grandes entreprises technologiques devraient dépenser énormément d'argent dans ce domaine. Il estime également que le gouvernement devrait intervenir pour s'assurer que cela se réalise. Il a soutenu un projet de loi en Californie visant à obliger les développeurs à garantir que leurs systèmes d'IA sont sûrs et ne causent pas de dommages majeurs.
Le gouverneur de Californie, Gavin Newsom, a rejeté le projet de loi en raison de l'opposition des grandes entreprises technologiques. Cela représente une déception pour les projets de Hinton. Malgré cela, il continue d'essayer de convaincre les décideurs politiques et les dirigeants technologiques, tels qu'Elon Musk, de l'importance de la sécurité de l'IA.
Les préoccupations de Hinton mettent en lumière un débat essentiel concernant le développement de l'IA. Il est crucial de trouver un équilibre entre le progrès et la prudence. Les entreprises cherchent à créer de nouvelles technologies, mais pas au détriment de la sécurité. Les décideurs politiques et les chercheurs discutent de la façon dont l'IA devrait évoluer à l'avenir. Le débat porte sur la comparaison des avantages de l'IA avec ses risques. Les avertissements de Hinton soulignent l'importance de développer l'IA de manière responsable pour garantir un avenir sûr.
18 novembre 2024 · 14:36
Étudier le comportement des souris avec précision grâce à l’IA et à moins d’animaux
18 novembre 2024 · 12:24
L'IA détecte rapidement les tumeurs cérébrales invisibles lors d'interventions chirurgicales
17 novembre 2024 · 11:45
L'IA prédictive cible les sites à risque pour une surveillance améliorée des eaux souterraines
Partager cet article