Nowe badania: ograniczono "halucynacje" AI dzięki lepszej detekcji anomalii w infrastrukturach krytycznych

Czas czytania: 2 minut
Przez Maria Lopez
- w
Sieć monitorująca z wykorzystaniem sztucznej inteligencji, która zmniejsza liczbę fałszywych alertów.

WarsawNaukowcy z Wydziału Informatyki Uniwersytetu w Bristolu dokonali znaczących postępów w naprawianiu błędów w sztucznej inteligencji oraz poprawie wykrywania nieoczekiwanych problemów w kluczowych systemach publicznych. Te usprawnienia są niezbędne dla zwiększenia niezawodności systemów, które nadzorują i kontrolują ważne usługi publiczne.

Kluczowe wydarzenia obejmują:

  • Zaawansowane Wykrywanie Anomalii: Nowe algorytmy znacząco skracają czas szkolenia i przyspieszają wykrywanie, nie rezygnując z efektywności.
  • Integracja Wyjaśnialnej Sztucznej Inteligencji (XAI): Modele XAI zostały włączone do systemu, aby pomóc operatorom zrozumieć decyzje podejmowane przez AI.
  • Decyzje zorientowane na człowieka: Nacisk położony jest na nadzór ludzki w decyzjach podejmowanych przez SI, aby zapewnić odpowiedzialność.
  • Rozwój Systemu Oceny: Tworzony jest nowy system oceniania, który pozwoli ocenić wyjaśnienia SI, pomagając operatorom oszacować wiarygodność spostrzeżeń AI.

Najnowsze osiągnięcia znacznie przynoszą korzyści kluczowej infrastrukturze, takiej jak zakłady uzdatniania wody i sieci energetyczne. Te obiekty potrzebują szybkiego i jasnego wykrywania problemów, aby uniknąć zakłóceń. Tradycyjne modele AI wymagają dużo treningu, a ich wyniki są często trudne do zrozumienia. Nowe algorytmy są lepsze, ponieważ działają szybciej i są łatwiejsze do interpretacji.

Naukowcy z Uniwersytetu Technologiczno-Projektowego w Singapurze przetestowali swoje algorytmy na testowym systemie SWaT (Secure Water Treatment). Te dane z rzeczywistej stacji uzdatniania wody pomogły im zweryfikować swoje modele. Wyniki były pozytywne i pokazały, że nowe modele AI są w stanie szybko wykrywać nieprawidłowości z wysoką dokładnością.

Wykorzystanie modeli XAI zmienia wszystko. W wielu dziedzinach AI podejmuje decyzje bez tłumaczenia ich, co może powodować brak zaufania i opory przed korzystaniem z niej. Dzięki XAI użytkownicy mogą zrozumieć, dlaczego AI zaleca konkretne rozwiązania, co buduje zaufanie oraz sprawia, że system staje się bardziej przejrzysty i łatwiejszy do weryfikacji.

Dr. Sarad Venugopalan zauważył, że maszyny świetnie radzą sobie z szybkim wykonywaniem powtarzalnych zadań i popełniają przy tym niewiele błędów, jednak automatyzacja niesie ze sobą także pewne wyzwania. Kluczowe jest, aby rekomendacje AI były jasne, co pozwala ludziom podejmować trafne decyzje na ich podstawie. Jest to szczególnie istotne w obszarach, gdzie ludzie ponoszą odpowiedzialność za decyzje podejmowane przy wsparciu AI.

Planujemy również stworzyć system punktacji, który będzie wskazywał, jak dokładne i pewne są wyjaśnienia AI. To pomoże użytkownikom ocenić wiarygodność wniosków AI przed podjęciem decyzji o ich wykorzystaniu.

Zespół doktora Sridhara Adepua podkreśla znaczenie tworzenia sztucznej inteligencji zrozumiałej dla ludzi. Dążą do tego, aby ludzcy operatorzy aktywnie uczestniczyli w podejmowaniu decyzji, co ma na celu zwiększenie skuteczności i niezawodności narzędzi służących do wykrywania problemów w kluczowych systemach.

Te innowacje koncentrują się na udoskonaleniu sztucznej inteligencji w szybkim i skutecznym identyfikowaniu problemów. Dodatkowo, mają na celu zapewnienie, że AI będzie efektywnie współpracować z ludźmi, utrzymując kluczowe systemy bezpiecznymi i niezawodnymi.

Badanie jest publikowane tutaj:

NaN

i jego oficjalne cytowanie - w tym autorzy i czasopismo - to

NaN
Sztuczna Inteligencja: Najnowsze wiadomości

Udostępnij ten artykuł

Komentarze (0)

Opublikuj komentarz