Novo estudo: avanços em IA reduzem erros e melhoram a eficiência em infraestruturas críticas

Tempo de leitura: 2 minutos
Por Alex Morales
- em
'Rede de monitoramento de IA com alertas de erro reduzidos.'

São PauloCientistas da Escola de Ciência da Computação de Bristol deram passos significativos para corrigir erros de IA e melhorar a detecção de problemas inesperados em sistemas públicos essenciais. Essas melhorias são cruciais para tornar os sistemas que supervisionam e controlam os principais serviços públicos mais confiáveis.

Principais acontecimentos incluem:

  • Detecção de Anomalias Aprimorada: Novos algoritmos reduzem drasticamente os tempos de treino e aceleram a detecção sem comprometer a eficiência.
  • Integração de IA Explicável (XAI): Modelos de XAI agora fazem parte do sistema, ajudando operadores humanos a entenderem as decisões da IA.
  • Decisões Centrada no Humano: A supervisão humana é priorizada em decisões impulsionadas por IA, garantindo a responsabilidade.
  • Desenvolvimento de Sistema de Pontuação: Um novo sistema de pontuação para avaliar explicações da IA está sendo criado para ajudar operadores a medir a confiabilidade das informações da IA.

Novos avanços estão trazendo grandes benefícios para infraestruturas críticas como estações de tratamento de água e redes elétricas. Esses locais precisam detectar problemas de forma rápida e clara para evitar interrupções. Modelos tradicionais de IA exigem muito treinamento e seus resultados frequentemente são difíceis de entender. Os novos algoritmos são mais eficientes porque funcionam mais rápido e são mais fáceis de interpretar.

Pesquisadores da Universidade de Tecnologia e Design de Singapura testaram seus algoritmos utilizando a plataforma de testes SWaT (Tratamento de Água Seguro). Essa base de dados reais de tratamento de água ajudou a validar seus modelos. Os resultados foram positivos, demonstrando que os novos modelos de IA conseguem identificar anomalias rapidamente e com alta precisão.

Usar modelos de XAI muda tudo. Em muitos setores, a IA toma decisões sem justificá-las, o que pode gerar desconfiança e hesitação em utilizá-la. Com a XAI, os usuários podem compreender por que a IA fez determinadas recomendações, o que gera confiança e torna o sistema mais transparente e fácil de verificar.

Dr. Sarad Venugopalan afirmou que, embora as máquinas sejam eficientes em realizar tarefas repetitivas com rapidez e poucas falhas, a automação também traz seus desafios. É crucial que as recomendações geradas por IA sejam claras para que as pessoas possam tomar decisões bem informadas. Isso é especialmente fundamental em áreas onde as decisões tomadas com o auxílio de IA têm grande responsabilidade.

Também planejamos desenvolver um sistema de pontuação que mostrará o quão precisa e confiável é a IA em suas explicações. Isso ajudará as pessoas a entenderem a confiabilidade dos insights antes de tomarem decisões com base neles.

A equipe do Dr. Sridhar Adepu destaca a importância de uma IA que seja compreensível para as pessoas. Eles se esforçam para manter os operadores humanos envolvidos nas decisões, visando aumentar a eficácia e a confiabilidade das ferramentas que identificam problemas em sistemas críticos.

Esses avanços se concentram em melhorar a capacidade da IA de identificar problemas de maneira rápida e eficiente. Além disso, buscam garantir que a IA possa colaborar bem com as pessoas, mantendo os sistemas importantes seguros e confiáveis.

O estudo é publicado aqui:

NaN

e sua citação oficial - incluindo autores e revista - é

NaN
Inteligência Artificial: Últimas notícias

Compartilhar este artigo

Comentários (0)

Publicar um comentário