Nieuwe methode voorkomt overmoedige AI-modellen met thermometertechnologie

Leestijd: 2 minuten
Door Johan Meijer
- in
Balansschaal met AI-symbool en waarschuwingsbord

AmsterdamOnderzoekers hebben een nieuwe methode ontwikkeld om te voorkomen dat AI-modellen te zelfzeker zijn over hun foute antwoorden. Deze techniek, genaamd Thermometer, moet ervoor zorgen dat grote taalmodellen betrouwbaarder worden.

Mensen gebruiken grote taalmodellen voor uiteenlopende taken zoals het vertalen van talen, het opsporen van financiële fraude en het beantwoorden van vragen bij klantenservice.

Deze modellen zijn niet altijd accuraat. Soms zijn ze erg zeker van foute antwoorden of juist onzeker bij goede antwoorden. Dit maakt het moeilijk om ze te vertrouwen.

Onderzoekers van MIT en het MIT-IBM Watson AI Lab hebben Thermometer ontwikkeld om dit probleem op te lossen. Thermometer maakt gebruik van een kleiner aanvullend model om het vertrouwen van het LLM bij te stellen. Deze nieuwe methode is efficiënt en vereist weinig rekenkracht, terwijl de nauwkeurigheid van het model behouden blijft.

Traditionele methoden voor het aanpassen van machine learning-modellen zijn ontworpen voor één specifieke taak. Deze aanpak is niet effectief voor grote taalmodellen (LLM's) omdat LLM's meerdere taken uitvoeren. Het gebruik van een traditionele methode kan de prestaties van een LLM op niet-aangepaste taken verminderen.

Het kalibreren van grote taalmodellen vereist meestal het nemen van veel monsters en deze te combineren, wat computationeel duur is. Thermometer biedt een andere benadering door temperatuurschaling te gebruiken om het vertrouwen van een model aan te passen. Deze methode is een gevestigde manier van kalibreren, waarbij de "temperatuur" een parameter is die helpt om de vertrouwensniveaus af te stemmen op hoe nauwkeurig de voorspellingen zijn.

Meestal heb je een gelabelde validatieset nodig om de juiste temperatuur te bepalen. Het verkrijgen van gelabelde datasets voor nieuwe taken is echter lastig. Stel dat een bedrijf een taalmodel wil gebruiken om vragen over een nieuw product te beantwoorden; ze hebben hier waarschijnlijk nog geen dataset voor.

De Thermometer maakt gebruik van een hulpsysteem om de benodigde temperatuur te bepalen. Dit systeem is getraind met gegevens van diverse veelvoorkomende taken. Hierdoor kan het ook nieuwe taken aan zonder extra gelabelde data. Zo kan een Thermometer die getraind is met algebra en medische meerkeuzevragen ook antwoorden aanpassen voor geometrie- of biologievragen.

Het Thermometer-model is nu verbeterd, hoewel nog niet perfect. Het heeft slechts toegang nodig tot een klein deel van het LLM, waardoor het maar een klein beetje langzamer wordt.

De thermometer leverde nauwkeurigere onzekerheidsresultaten op in tests en verbruikt minder rekenkracht dan andere methoden.

Wetenschappers denken dat Thermometer nieuwe taken goed aankan als het op verschillende taken wordt getraind. Ze ontdekten ook dat het effectief werkt met zowel kleine als grote modellen binnen dezelfde groep. Dit maakt het een flexibele methode.

Het team is van plan Thermometer uit te breiden voor complexere taken en grotere taalmodellen. Daarnaast willen ze vaststellen hoeveel gelabelde datasets nodig zijn om goed te presteren bij nieuwe taken. Het onderzoek werd gefinancierd door het MIT-IBM Watson AI Lab.

De studie is hier gepubliceerd:

http://dx.doi.org/10.48550/arXiv.2403.08819

en de officiële citatie - inclusief auteurs en tijdschrift - is

Maohao Shen, Subhro Das, Kristjan Greenewald, Prasanna Sattigeri, Gregory Wornell, Soumya Ghosh. Thermometer: Towards Universal Calibration for Large Language Models. arXiv.org, 2024; DOI: 10.48550/arXiv.2403.08819
Artificial Intelligence: Laatste nieuws

Deel dit artikel

Reacties (0)

Plaats een reactie