Nieuw onderzoek temt AI-fouten met verbeterde anomaliedetectie in vitale infrastructuren
AmsterdamWetenschappers van de School of Computer Science in Bristol hebben grote vooruitgang geboekt in het corrigeren van AI-fouten en het verbeteren van de detectie van onverwachte problemen in essentiële openbare systemen. Deze verbeteringen zijn cruciaal om de betrouwbaarheid van systemen die verantwoordelijk zijn voor het beheren en controleren van belangrijke openbare diensten te vergroten.
Belangrijke ontwikkelingen zijn:
- Verbeterde Anomaliedetectie: Nieuwe algoritmen verkorten de trainingstijden en versnellen de detectie zonder in te leveren op efficiëntie.
- Integratie van Uitlegbare AI (XAI): XAI-modellen zijn nu onderdeel van het systeem, waardoor menselijke operators AI-beslissingen beter kunnen begrijpen.
- Mensgerichte Besluitvorming: Menselijke controle blijft een prioriteit bij AI-gedreven besluiten, om verantwoording te waarborgen.
- Ontwikkeling van Scoresysteem: Er wordt gewerkt aan een nieuw scoresysteem om de betrouwbaarheid van AI-verklaringen voor operators te beoordelen.
Nieuwe vooruitgangen komen cruciale infrastructuren zoals waterzuiveringsinstallaties en elektriciteitsnetwerken zeer ten goede. Deze faciliteiten hebben snelle en duidelijke probleemdetectie nodig om onderbrekingen te voorkomen. Traditionele AI-modellen vereisen veel training en leveren vaak moeilijk te begrijpen resultaten op. De nieuwe algoritmen zijn beter omdat ze sneller werken en makkelijker te interpreteren zijn.
Onderzoekers aan de Singapore University of Technology and Design hebben hun algoritmes getest met behulp van de SWaT (Secure Water Treatment) testomgeving. Deze praktijkgegevens over waterzuivering hielpen hen hun modellen te verifiëren. De resultaten waren positief en lieten zien dat de nieuwe AI-modellen snel en nauwkeurig afwijkingen konden opsporen.
Het gebruik van XAI-modellen verandert alles. In veel sectoren neemt AI beslissingen zonder deze toe te lichten, wat kan leiden tot wantrouwen en aarzeling bij de gebruikers. Met XAI kunnen gebruikers begrijpen waarom de AI een bepaalde aanbeveling doet, wat vertrouwen opbouwt en het systeem transparanter en eenvoudiger te controleren maakt.
21 november 2024 · 08:55
Nvidia imponeert, maar Aziatische beurs reageert aarzelend op concurrentie.
Volgens Dr. Sarad Venugopalan zijn machines uitstekend in het snel en foutloos uitvoeren van herhalende taken, maar automatisering heeft ook zijn nadelen. Het is cruciaal dat AI-aanbevelingen duidelijk zijn, zodat mensen weloverwogen beslissingen kunnen nemen. Dit is bijzonder essentieel in sectoren waar mensen verantwoordelijk zijn voor de beslissingen die door AI worden beïnvloed.
We willen ook een scoresysteem ontwikkelen dat laat zien hoe nauwkeurig en zelfverzekerd de AI is in zijn uitleg. Dit helpt mensen te beoordelen hoe betrouwbaar de inzichten van de AI zijn voordat ze hierop handelen.
Dr. Sridhar Adepu's team benadrukt het belang van begrijpelijke AI. Ze streven ernaar om menselijke operators betrokken te houden bij het nemen van beslissingen om de effectiviteit en betrouwbaarheid van tools die problemen in cruciale systemen opsporen, te verbeteren.
Deze ontwikkelingen richten zich op het verbeteren van AI zodat problemen snel en efficiënt worden opgespoord. Daarnaast streven ze ernaar ervoor te zorgen dat AI goed kan samenwerken met mensen, waardoor belangrijke systemen veilig en betrouwbaar blijven.
De studie is hier gepubliceerd:
NaNen de officiële citatie - inclusief auteurs en tijdschrift - is
NaN20 november 2024 · 01:02
AI onderweg: compacte taalmodellen voor betere prestaties op mobiele apparaten
18 november 2024 · 14:36
Precieze gedragsstudies bij muizen dankzij AI: minder dieren en snellere resultaten
Deel dit artikel