Künstliche Intelligenz: Vertrauen durch präzise Unsicherheitsabschätzung – ein Durchbruch von MIT-Forschern
BerlinMIT-Forscher haben eine neue Methode entwickelt, um Unsicherheitsabschätzungen in maschinellen Lernmodellen zu verbessern. Dies ist besonders wichtig für Anwendungen wie medizinische Diagnosen und die Filterung von Bewerbungen. Da maschinelle Lernmodelle manchmal falsche Vorhersagen treffen können, ist es essenziell zu wissen, wie sicher die Modelle in ihren Entscheidungen sind. Präzise Unsicherheitsabschätzungen helfen dabei, zu entscheiden, ob man den Ergebnissen des Modells vertrauen kann. Die neue Technik, die in Zusammenarbeit zwischen MIT und der Universität Toronto entstand, liefert diese Abschätzungen schneller und genauer als frühere Methoden.
Die Forscher wandten das Prinzip der minimalen Beschreibungslänge (MDL) an. Diese Methode bewertet alle möglichen Etiketten, die ein Modell einem Testpunkt zuweisen könnte. Wenn viele geeignete Etiketten vorhanden sind, wird das Modell weniger sicher. Das ist das, was diese Technik erreicht:
- Genauere Abschätzung von Unsicherheiten
- Höhere Effizienz und Skalierbarkeit
- Einsetzbarkeit bei großen tiefenlernenden Modellen
In praktischen Anwendungen versagen einfache statistische Methoden oft, weil maschinelle Lernmodelle komplex sind. Viele aktuelle Verfahren erfordern komplizierte Berechnungen und Annahmen, was sie für größere Modelle schwierig macht. Die Forscher des MIT umgingen diese Probleme, indem sie MDL nutzten, eine Methode, die solche Annahmen nicht benötigt.
Die neue Methode, IF-COMP, macht MDL für große Modelle praktikabel. Durch den Einsatz von Einflussfunktionen arbeitet sie schneller. Zudem verwendet sie Temperature-Skalierung, um die Genauigkeit der Modellausgaben zu verbessern. Zusammen ermöglichen diese Ansätze, dass IF-COMP zuverlässige Unschärfeabschätzungen liefert.
Die Methode zeigt ihre größte Wirksamkeit besonders bei der Erkennung von falsch etikettierten Daten und Ausreißern. In diesen Bereichen war IF-COMP schneller und präziser als andere Verfahren. Sie garantiert eine gute Kalibrierung des Modells, was zunehmend wichtig ist, da maschinelles Lernen immer größere Datenmengen bearbeitet, die nicht gründlich überprüft wurden.
Maschinenlernmodelle können Fehler machen und manchmal falschen Informationen vertrauen. Diese neue Methode unterstützt Nutzer dabei, zu erkennen, wenn die Vorhersagen eines Modells möglicherweise falsch sind. Sie ist mit verschiedenen Arten von Maschinenlernmodellen kompatibel und verbessert die Entscheidungsfindung in vielen Bereichen.
Man kann KI-Tools mehr vertrauen, selbst wenn man nicht viel über maschinelles Lernen weiß. Detailliertere Informationen zur Zuverlässigkeit der Tools, sei es bei medizinischen Diagnosen oder Bewerbungen, werden verfügbar. Dies ist besonders im Gesundheitswesen wichtig, wo präzise Entscheidungen entscheidend sind.
Die Forscher beabsichtigen, diese Methode auf größere Sprachmodelle anzuwenden. Zudem planen sie, weitere Einsatzmöglichkeiten des MDL-Prinzips zu erkunden. Dies könnte die Zuverlässigkeit und Vertrauenswürdigkeit von KI-Systemen bei verschiedenen Aufgaben erhöhen.
Die Studie wird hier veröffentlicht:
http://dx.doi.org/10.48550/arXiv.2406.02745und seine offizielle Zitation - einschließlich Autoren und Zeitschrift - lautet
Nathan Ng, Roger Grosse, Marzyeh Ghassemi. Measuring Stochastic Data Complexity with Boltzmann Influence Functions. Submitted to arXiv, 2024 DOI: 10.48550/arXiv.2406.02745Diesen Artikel teilen