Att översätta AI:s insikter till mänsklig förståelse: förenkla komplexa SHAP-beskrivningar för bättre beslut.
StockholmForskare vid MIT utvecklar nya metoder för att förklara artificiell intelligens på ett enklare sätt. Genom att använda stora språkmodeller omvandlar de komplicerade AI-förklaringar till lättförståelig text. Detta är viktigt för personer utan maskininlärningsbakgrund som har svårt att greppa tekniska detaljer och komplexa resonemang.
- Ökar Förtroendet: Genom att förenkla förklaringar kan användare bättre avgöra när de kan lita på modellens förutsägelser.
- Förbättrar Beslutsfattandet: Med tydligare insikter kan användare fatta välgrundade beslut, särskilt inom områden som finans och hälso- och sjukvård.
- Främjar Anpassning: Systemet anpassar sig efter användarnas preferenser, vilket gör det mångsidigt för olika tillämpningar.
EXPLINGO-systemet består av två delar: NARRATOR och GRADER. NARRATOR omvandlar komplexa SHAP-förklaringar till lättläst text med hjälp av en språkmotor och justerar skrivstilen efter några exempeltexter. GRADER kontrollerar hur tydlig, korrekt, fullständig och flytande förklaringen är för att säkerställa dess kvalitet.
EXPLINGO använder en noggrann metod för att översätta AI-insikter. Istället för att generera förklaringar direkt med en stor språkmodell (LLM), används LLM enbart för att ändra språket, vilket bidrar till att undvika fel. Denna metod gör resultaten mer tillförlitliga och lättare att använda. Medvetet fokus på SHAP-förklaringar beror på att de ofta används för att visa hur viktiga olika funktioner är i en modell.
Forskarna hade svårt att anpassa språkmodellen för att producera naturligt språk utan att kompromissa med noggrannheten. De behövde noggrant balansera hur språket lät med dess korrekthet genom detaljerade justeringar av promptarna. Denna process är mycket viktig eftersom otydliga instruktioner kan leda till felaktiga svar.
I framtiden kan EXPLINGO komma att låta användare ställa fler frågor om dess prognoser. Detta skulle hjälpa användarna att förstå och bedöma AI:s arbete med hjälp av deras egen bedömning. Dessutom skulle systemet, genom att tillföra fler förklarande steg, kunna ge tydligare insikter i hur AI fattar beslut.
Denna utveckling representerar ett betydande steg mot att göra AI mer begriplig för allmänheten. När vi gör AI tydligare och enklare att använda kan fördelarna utnyttjas inom många områden, vilket leder till bättre beslutsfattande i olika branscher.
Studien publiceras här:
http://dx.doi.org/10.48550/arXiv.2412.05145och dess officiella citering - inklusive författare och tidskrift - är
Alexandra Zytek, Sara Pido, Sarah Alnegheimish, Laure Berti-Equille, Kalyan Veeramachaneni. Explingo: Explaining AI Predictions using Large Language Models. Submitted to arXiv, 2024 DOI: 10.48550/arXiv.2412.05145Dela den här artikeln