Ny studie: Förbättrad avviksdetektion minskar AI-hallucinationer i kritiska infrastrukturer

Lästid: 2 minuter
Av Maria Lopez
- i
AI-övervakningsnätverk med färre felvarningar.

StockholmForskare vid Bristols institution för datavetenskap har gjort betydande framsteg i att rätta till AI-fel och förbättra identifieringen av oväntade problem i viktiga offentliga system. Dessa förbättringar är avgörande för att göra de system som övervakar och kontrollerar väsentliga offentliga tjänster mer pålitliga.

Viktiga händelser innefattar:

  • Förbättrad Anomaliidentifiering: Nya algoritmer minskar träningstider betydligt och ökar upptäcktsfarten utan att förlora effektivitet.
  • Integrering av Förklarbar AI (XAI): XAI-modeller har integrerats i systemet och hjälper mänskliga användare att förstå AI-beslut.
  • Människocentrerat Beslutsfattande: Mänsklig översyn är prioriterad i AI-baserade beslut, vilket säkerställer ansvarstagande.
  • Utveckling av Poängsystem: Ett nytt poängsystem för att bedöma AI-förklaringar håller på att utvecklas för att hjälpa operatörer att bedöma AI-insikters tillförlitlighet.

Nya framsteg gynnar i hög grad kritisk infrastruktur som vattenreningsanläggningar och elnät. Dessa anläggningar behöver snabb och tydlig problemidentifiering för att undvika avbrott. Traditionella AI-modeller kräver mycket träning och deras resultat är ofta svåra att tolka. De nya algoritmerna är bättre eftersom de arbetar snabbare och är lättare att förstå.

Forskare vid Singapore University of Technology and Design testade sina algoritmer med hjälp av SWaT (Secure Water Treatment) testbädd. Dessa verkliga data från vattenrening hjälpte dem att verifiera sina modeller. Resultaten var positiva och visade att de nya AI-modellerna snabbt kunde upptäcka avvikelser med hög precision.

Att använda XAI-modeller förändrar allt. Inom många områden fattar AI beslut utan att förklara dem, vilket kan leda till att människor misstror tekniken och tvekar att använda den. Med XAI kan användare förstå varför AI:n gjort en viss rekommendation, vilket skapar förtroende och gör systemet tydligare och lättare att kontrollera.

Dr. Sarad Venugopalan påpekade att maskiner är bra på att utföra repetitiva uppgifter snabbt och med få fel, men att användningen av automation också medför utmaningar. Det är viktigt att rekommendationer från AI-system är tydliga så att människor kan fatta välgrundade beslut utifrån dem. Detta är särskilt avgörande inom områden där människor har ansvaret för beslut som fattas med hjälp av AI.

Vi planerar även att utveckla ett poängsystem som visar hur tillförlitlig och säker AI:n är i sina förklaringar. Detta kommer att hjälpa människor att bedöma hur pålitliga AI:ns insikter är innan de väljer att agera utifrån dem.

Dr. Sridhar Adepus team betonar vikten av AI som människor kan förstå. De strävar efter att hålla mänskliga operatörer delaktiga i beslutsfattandet för att förbättra effektiviteten och pålitligheten hos verktyg som upptäcker problem i viktiga system.

Dessa framsteg syftar till att förbättra AI:s förmåga att snabbt och effektivt identifiera problem. De strävar också efter att säkerställa att AI fungerar bra tillsammans med människor, så att viktiga system förblir trygga och pålitliga.

Studien publiceras här:

NaN

och dess officiella citering - inklusive författare och tidskrift - är

NaN
Artificiell Intelligens: Senaste nytt

Dela den här artikeln

Kommentarer (0)

Posta en kommentar
NewsWorld

NewsWorld.app är en gratis premium nyhetssida. Vi tillhandahåller oberoende och högkvalitativa nyheter utan att ta betalt per artikel och utan en prenumerationsmodell. NewsWorld anser att allmänna, affärs-, ekonomiska, tekniska och underhållningsnyheter bör vara tillgängliga på en hög nivå gratis. Dessutom är NewsWorld otroligt snabb och använder avancerad teknik för att presentera nyhetsartiklar i ett mycket läsbart och attraktivt format för konsumenten.


© 2024 NewsWorld™. Alla rättigheter reserverade.