Les déboires des écoles californiennes face à l'IA : leçons essentielles
ParisLes deux plus grands districts scolaires de Californie, Los Angeles Unified et San Diego Unified, ont récemment rencontré des problèmes avec leurs programmes d'intelligence artificielle, révélant des leçons cruciales dans l'utilisation de l'IA à l'école. Ces incidents soulignent l'importance d'une adoption prudente et bien pensée.
À Los Angeles, le surintendant des écoles a lancé un chatbot nommé Ed avec de grandes ambitions. Les parents et les élèves avaient reçu la promesse que cette innovation améliorerait considérablement leur expérience scolaire. Cependant, après seulement trois mois et près de 3 millions de dollars dépensés, le projet a été annulé. Ce lancement rapide suivi d'un arrêt brusque suscite des interrogations sur l'évaluation préalable du projet. De plus, il manquait des informations claires sur l'efficacité du chatbot et son utilisation par les utilisateurs.
San Diego a rencontré un problème lorsque le district scolaire a acquis un outil d’IA pour évaluer les devoirs écrits sans que le conseil scolaire ne soit informé. Un enseignant a remarqué des erreurs dans les notes et a exprimé ses inquiétudes, révélant que le processus ne fonctionnait pas correctement. Cette situation a mis en lumière un manque de communication et de supervision.
Ces exemples mettent en lumière des éléments cruciaux à considérer lors de l'intégration de l'IA dans le domaine de l'éducation.
- Soumettre les outils d'IA à une évaluation minutieuse avant de les acheter
- Communiquer de manière transparente avec toutes les parties prenantes, y compris les enseignants et les parents
- Faire appel à des experts externes pour une évaluation impartiale
- Assurer une surveillance continue et une évaluation après la mise en place
- Former le personnel à utiliser et comprendre efficacement les outils d'IA
La Californie continue d’adopter la technologie IA. Le département de l'Éducation de l'État a recommandé aux écoles d'utiliser des outils d'IA. Cependant, prendre des décisions hâtives sans une planification minutieuse peut entraîner des erreurs coûteuses.
Utiliser des outils d'IA générative exige un équilibre entre enthousiasme et précaution. Il est crucial de ne pas perdre de vue l'importance de la sûreté et de la fiabilité dans l'élan du progrès de l'IA. Les applications de l'IA dans des domaines tels que l'évaluation ou la prévision des résultats des élèves présentent des risques considérables et nécessitent une analyse approfondie.
Modifier les politiques peut aider à réduire les risques. L'Union européenne régule l'IA en fonction de différents niveaux de risque. Le National Institute of Standards and Technology des États-Unis utilise un système similaire. La Californie pourrait s'inspirer de ces directives claires. Les législateurs envisagent un projet de loi pour créer un groupe visant à assurer une utilisation sûre de l'IA dans les écoles, ce qui pourrait aider à définir les meilleures pratiques.
Les éducateurs devraient consulter des évaluations indépendantes des outils d'IA. Des groupes comme Project Unicorn analysent la fiabilité et la sécurité des produits technologiques éducatifs. Collaborer avec ces organismes permet de faire des choix mieux informés.
Le directeur du district scolaire d'Anaheim Union a indiqué que la recherche d'économies par les districts ou les fournisseurs peut entraîner des problèmes. L'intégration de l'IA dans l'éducation doit être réalisée avec soin. Les enseignants doivent combiner innovation et prudence, en veillant à ce que les outils d'IA améliorent l'apprentissage sans compromettre la qualité ou l'équité.
18 novembre 2024 · 14:36
Étudier le comportement des souris avec précision grâce à l’IA et à moins d’animaux
18 novembre 2024 · 12:24
L'IA détecte rapidement les tumeurs cérébrales invisibles lors d'interventions chirurgicales
17 novembre 2024 · 11:45
L'IA prédictive cible les sites à risque pour une surveillance améliorée des eaux souterraines
Partager cet article