Lições do fracasso da IA nas escolas de Los Angeles e San Diego
São PauloOs dois maiores distritos escolares da Califórnia, Los Angeles Unified e San Diego Unified, recentemente enfrentaram problemas com seus programas de IA, revelando lições importantes sobre o uso de inteligência artificial nas escolas. Esses problemas evidenciam a necessidade de uma adoção cuidadosa e bem planejada.
Em Los Angeles, o superintendente escolar lançou um chatbot chamado Ed com grandes expectativas. Foi prometido aos pais e alunos que ele melhoraria significativamente a experiência escolar. Porém, após apenas três meses e quase 3 milhões de dólares investidos, o projeto foi cancelado. O início rápido e o fim repentino deixaram dúvidas sobre o quão bem o projeto foi avaliado antes de começar. Além disso, houve falta de informações claras sobre o desempenho do chatbot e como ele estava sendo utilizado.
San Diego enfrenta problemas após o distrito escolar adquirir uma ferramenta de IA para avaliar redações sem o conhecimento do conselho escolar. Um professor percebeu erros nas notas e levantou preocupações, evidenciando a falha no processo. Esse caso ressaltou a falta de comunicação e supervisão.
Esses exemplos destacam pontos importantes a serem considerados ao utilizar a IA na educação.
- Avaliação minuciosa e criteriosa das ferramentas de IA antes da compra
- Comunicação transparente com partes interessadas, incluindo educadores e pais
- Envolvimento de especialistas externos para avaliações imparciais
- Monitoramento contínuo e avaliação após a implementação
- Treinamento para a equipe utilizar e entender efetivamente as ferramentas de IA
Califórnia continua a adotar tecnologia de IA. O Departamento de Educação do estado recomendou que as escolas utilizem ferramentas de IA. No entanto, decisões precipitadas sem planejamento cuidadoso podem resultar em erros custosos.
Utilizar ferramentas de IA generativa exige um equilíbrio cuidadoso entre entusiasmo e precaução. É essencial não deixar que a rápida evolução da IA ofusque a necessidade de segurança e confiabilidade. O uso de IA em áreas como avaliação de desempenho escolar ou previsão de resultados dos alunos envolve riscos significativos e requer uma análise criteriosa.
Mudanças nas políticas podem ajudar a reduzir riscos. A União Europeia controla a IA com base em diferentes níveis de risco. O Instituto Nacional de Padrões e Tecnologia dos EUA possui um sistema semelhante. A Califórnia poderia adotar essas regras claras. Os legisladores estão considerando um projeto de lei para criar um grupo que garanta o uso seguro da IA nas escolas, o que poderia ajudar a definir melhores práticas.
Educadores devem buscar avaliações independentes de ferramentas de IA. Grupos como o Projeto Unicórnio analisam a confiabilidade e a segurança de produtos tecnológicos educacionais. Colaborar com essas organizações pode ajudar a tomar melhores decisões.
O superintendente do Distrito Escolar de Anaheim Union alertou que a economia de recursos por parte de distritos ou fornecedores pode ocasionar problemas. A utilização de IA na educação deve ser realizada com cautela. Os professores precisam equilibrar novas ideias com prudência, garantindo que as ferramentas de IA aprimorem o aprendizado sem comprometer a qualidade ou a equidade.
19 de novembro de 2024 · 20:02
IA eficiente ao alcance: modelos de linguagem otimizados para dispositivos móveis
18 de novembro de 2024 · 09:36
Estudo preciso do comportamento de camundongos com menos animais graças à IA inovadora
18 de novembro de 2024 · 07:24
AI revoluciona cirurgias ao identificar tumores cerebrais rapidamente com FastGlioma: avanço promissor na medicina
Compartilhar este artigo