Los tropiezos de Los Ángeles y San Diego con la IA
MadridLos dos distritos escolares más grandes de California, Los Ángeles Unificado y San Diego Unificado, recientemente enfrentaron problemas con sus programas de IA. Esto demuestra lecciones importantes sobre el uso de la IA en las escuelas, subrayando la necesidad de una adopción cuidadosa y bien planificada.
En Los Ángeles, el superintendente escolar presentó un chatbot llamado Ed con grandes expectativas. Se prometió a padres y alumnos que mejoraría considerablemente su experiencia escolar. Sin embargo, después de solo tres meses y alrededor de $3 millones invertidos, el proyecto fue cancelado. Este inicio rápido y su abrupto fin hacen cuestionar cuán bien se evaluó el proyecto antes de su lanzamiento. Además, faltaba información clara sobre el rendimiento del chatbot y su uso por parte del público.
San Diego enfrentó un problema cuando el distrito escolar adquirió una herramienta de inteligencia artificial para calificar tareas de escritura, pero el consejo escolar no estaba informado al respecto. Un maestro detectó errores en las calificaciones y expresó sus preocupaciones, mostrando que el proceso no funcionaba correctamente. Este incidente puso de manifiesto la falta de comunicación y supervisión.
Estos ejemplos destacan puntos clave a considerar al implementar IA en el ámbito educativo.
- Exhaustivo proceso de selección y evaluación de herramientas de IA antes de su adquisición
- Comunicación transparente con todos los interesados, incluidos educadores y padres
- Consultoría con expertos externos para obtener evaluaciones imparciales
- Monitoreo y evaluación continua tras la implementación
- Capacitación para el personal en el uso y comprensión de las herramientas de IA
California continúa adoptando la tecnología de inteligencia artificial. El Departamento de Educación del estado ha recomendado a las escuelas el uso de herramientas de IA. Sin embargo, tomar decisiones rápidas sin una planificación adecuada puede resultar en costosos errores.
21 de noviembre de 2024 · 3:55
A pesar de las ganancias de Nvidia, caen las acciones asiáticas.
Utilizar herramientas de IA generativa requiere un enfoque equilibrado entre entusiasmo y cuidado. Es fundamental no permitir que el avance acelerado de la IA haga olvidar la necesidad de garantizar la seguridad y la fiabilidad. Aplicaciones de la IA en sectores como la evaluación o la predicción de resultados estudiantiles conllevan grandes riesgos y necesitan un examen minucioso.
Cambiar las políticas puede ayudar a reducir riesgos. La Unión Europea regula la inteligencia artificial según distintos niveles de riesgo. El Instituto Nacional de Estándares y Tecnología de Estados Unidos tiene un sistema similar. California podría beneficiarse de estas normas claras. Los legisladores están considerando un proyecto de ley para crear un grupo que garantice el uso seguro de la IA en las escuelas, lo que podría ayudar a definir las mejores prácticas.
Los educadores deben buscar evaluaciones independientes de herramientas de IA. Grupos como Project Unicorn revisan la fiabilidad y seguridad de productos tecnológicos educativos. Colaborar con estas organizaciones puede ayudar a tomar mejores decisiones.
El superintendente del Distrito Escolar de Anaheim Union High destacó que ahorrar en costos por parte de los distritos o proveedores puede causar problemas. La utilización de IA en la educación debe hacerse con precaución. Los docentes deben combinar las nuevas tecnologías con prudencia, asegurándose de que las herramientas de IA mejoren el aprendizaje sin comprometer la calidad o la equidad.
19 de noviembre de 2024 · 20:02
IA eficiente en movimiento: modelos de lenguaje optimizados para dispositivos móviles y laptops
18 de noviembre de 2024 · 9:36
Precisión en estudios de comportamiento de ratones mejorada con IA y menos animales
18 de noviembre de 2024 · 7:24
La IA detecta rápidamente tumores cerebrales difíciles en cirugía con tecnología de FastGlioma
Compartir este artículo