Neue Methode hält KI in Zaum: Thermometer reguliert übermäßiges Vertrauen in falsche Antworten
BerlinForscher haben eine neue Methode entdeckt, um zu verhindern, dass KI-Modelle zu sehr von ihren falschen Antworten überzeugt sind. Diese Methode, genannt Thermometer, soll große Sprachmodelle vertrauenswürdiger machen.
Menschen nutzen leistungsstarke Sprachmodelle für verschiedene Aufgaben wie Sprachübersetzungen, die Erkennung von Finanzbetrug und die Beantwortung von Kundenanfragen.
Diese Modelle liefern nicht immer korrekte Ergebnisse. Manchmal sind sie von falschen Antworten fest überzeugt oder haben zu wenig Vertrauen in richtige. Dadurch wird es schwierig, ihnen zu vertrauen.
Forscher am MIT und im MIT-IBM Watson AI Lab haben Thermometer entwickelt, um dieses Problem zu lösen. Thermometer nutzt ein kleineres Zusatzmodell, um die Vertrauenswerte des großen Sprachmodells anzupassen. Diese neue Methode ist effizient und erfordert nicht viel Rechenleistung, während die Genauigkeit des Modells erhalten bleibt.
Die herkömmlichen Methoden zur Anpassung von Machine-Learning-Modellen sind auf einzelne Aufgaben ausgelegt. Diese Ansätze sind für große Sprachmodelle (LLMs) nicht geeignet, da LLMs viele verschiedene Aufgaben erledigen. Durch die Verwendung traditioneller Methoden kann die Leistung eines LLMs bei Aufgaben, für die es nicht optimiert wurde, beeinträchtigt werden.
Das Kalibrieren großer Sprachmodelle erfordert üblicherweise viele Proben, was computativ teuer ist. Thermometer geht einen anderen Weg, indem es die Temperatur-Skalierung nutzt, um die Zuversicht des Modells anzupassen. Diese Methode ist eine bewährte Kalibrierungstechnik, bei der die "Temperatur" als Parameter dient, um die Vertrauensniveaus an die Genauigkeit der Vorhersagen anzupassen.
Normalerweise benötigt man ein validiertes Datenset mit Kennzeichnungen, um die richtige Temperatur zu bestimmen. Doch es ist oft schwierig, solche markierten Datensätze für neue Aufgaben zu bekommen. Ein Beispiel: Ein Unternehmen, das ein Sprachmodell zur Beantwortung von Fragen zu einem neuen Produkt einsetzen möchte, besitzt dieses Datenset wahrscheinlich noch nicht.
Das Thermometer nutzt ein Unterstützungsmodell, um die erforderliche Temperatur zu ermitteln. Dieses Modell wird mit Daten aus verschiedenen gängigen Aufgaben trainiert. Dadurch kann es neue Aufgaben bewältigen, ohne dass zusätzliche gekennzeichnete Daten benötigt werden. Ein Thermometer, das beispielsweise auf Algebra- und medizinischen Multiple-Choice-Fragen trainiert wurde, kann auch Antworten für Geometrie- oder Biologie-Fragen anpassen.
Das Thermometer-Modell ist nun besser, wenn auch nicht perfekt. Es benötigt nur Zugriff auf einen kleinen Teil des LLM, wodurch es nur geringfügig verlangsamt wird.
Das Thermometer lieferte genauere Unsicherheitsergebnisse in Tests und benötigte dabei weniger Rechenleistung als andere Methoden.
Wissenschaftler sind der Meinung, dass Thermometer neue Aufgaben gut bewältigen kann, wenn es auf viele verschiedene trainiert wird. Sie haben auch herausgefunden, dass es sowohl mit kleinen als auch großen Modellen in derselben Gruppe effektiv funktioniert. Dies macht es zu einer flexiblen Methode.
Das Team plant, das Thermometer für anspruchsvollere Aufgaben und größere Sprachmodelle zu optimieren. Zudem möchten sie herausfinden, wie viele beschriftete Datensätze für gute Leistungen bei neuen Aufgaben erforderlich sind. Die Forschung wurde vom MIT-IBM Watson AI Lab finanziert.
Die Studie wird hier veröffentlicht:
http://dx.doi.org/10.48550/arXiv.2403.08819und seine offizielle Zitation - einschließlich Autoren und Zeitschrift - lautet
Maohao Shen, Subhro Das, Kristjan Greenewald, Prasanna Sattigeri, Gregory Wornell, Soumya Ghosh. Thermometer: Towards Universal Calibration for Large Language Models. arXiv.org, 2024; DOI: 10.48550/arXiv.2403.08819Diesen Artikel teilen