Nowa metoda ogranicza nadmierną pewność AI, co zwiększa zaufanie do jego prognoz.

Czas czytania: 2 minut
Przez Maria Sanchez
- w
Waga w równowadze z symbolem sztucznej inteligencji i znakiem ostrzegawczym

WarsawNaukowcy odkryli nową metodę zapobiegania zbyt dużej pewności AI w sytuacjach, gdy udzielają niepoprawnych odpowiedzi. Ta metoda, nazwana Termometrem, ma na celu zwiększenie wiarygodności dużych modeli językowych.

Ludzie wykorzystują duże modele językowe do różnych zadań, takich jak tłumaczenie języków, wykrywanie oszustw finansowych czy odpowiadanie na pytania klientów.

Te modele nie zawsze są niezawodne. Czasami z dużą pewnością udzielają błędnych odpowiedzi, a innym razem są zbyt niepewne, gdy mają rację. To sprawia, że trudno jest im zaufać.

Naukowcy z MIT oraz MIT-IBM Watson AI Lab opracowali rozwiązanie tego problemu o nazwie Thermometer. Thermometer wykorzystuje dodatkowy, mniejszy model do dostosowania poziomów pewności dużego modelu językowego (LLM). Ta nowa metoda jest wydajna i nie wymaga dużej mocy obliczeniowej, a jednocześnie zachowuje dokładność modelu.

Tradycyjne metody dostosowywania modeli uczenia maszynowego są zaprojektowane do wykonywania pojedynczego zadania. Nie sprawdzają się one dobrze w przypadku dużych modeli językowych (LLM), ponieważ LLM wykonują wiele różnych zadań. Zastosowanie tradycyjnej metody może obniżyć wydajność LLM w zadaniach, do których nie zostały dostosowane.

Kalibracja dużych modeli językowych zazwyczaj wymaga pobrania wielu próbek i ich łączenia, co jest kosztowne pod względem obliczeniowym. Termometr przedstawia inne podejście, stosując skalowanie temperatury w celu dostosowania pewności modelu. Ta metoda jest uznanym sposobem kalibracji, gdzie "temperatura" jest parametrem, który pomaga dopasować poziomy pewności do dokładności przewidywań.

Zazwyczaj do określenia właściwej wartości temperatury potrzebujesz oznaczonego zbioru walidacyjnego. Jednak uzyskanie oznaczonych zbiorów danych dla nowych zadań jest trudne. Na przykład, jeśli firma chce użyć modelu językowego do odpowiadania na pytania dotyczące nowego produktu, prawdopodobnie nie ma jeszcze odpowiedniego zbioru danych.

Termometr wykorzystuje pomocniczy model do oszacowania potrzebnej temperatury. Model ten jest trenowany na danych pochodzących z różnych typowych zadań, co pozwala mu radzić sobie z nowymi zadaniami bez potrzeby dodatkowego oznaczania danych. Przykładowo, termometr wyszkolony na pytaniach wielokrotnego wyboru z algebry i medycyny potrafi także dostosowywać odpowiedzi do pytań z geometrii czy biologii.

Model termometru działa teraz lepiej, choć nadal nie jest doskonały. Wymaga dostępu jedynie do niewielkiej części dużego modelu językowego, więc spowalnia go tylko trochę.

Termometr zapewnił bardziej precyzyjne wyniki dotyczące niepewności w testach i wymagał mniej mocy obliczeniowej niż inne metody.

Naukowcy uważają, że Termometr radzi sobie dobrze z nowymi zadaniami, jeśli jest trenowany na wielu różnych. Odkryli również, że działa skutecznie zarówno z małymi, jak i dużymi modelami w tej samej grupie. To czyni go elastyczną metodą.

Zespół zamierza udoskonalić Thermometer, aby sprostać bardziej wymagającym zadaniom oraz większym modelom językowym. Planują również ustalić, ile zestawów danych z etykietami jest potrzebnych do osiągnięcia dobrych wyników w nowych zadaniach. Badania te zostały sfinansowane przez MIT-IBM Watson AI Lab.

Badanie jest publikowane tutaj:

http://dx.doi.org/10.48550/arXiv.2403.08819

i jego oficjalne cytowanie - w tym autorzy i czasopismo - to

Maohao Shen, Subhro Das, Kristjan Greenewald, Prasanna Sattigeri, Gregory Wornell, Soumya Ghosh. Thermometer: Towards Universal Calibration for Large Language Models. arXiv.org, 2024; DOI: 10.48550/arXiv.2403.08819
Sztuczna Inteligencja: Najnowsze wiadomości

Udostępnij ten artykuł

Komentarze (0)

Opublikuj komentarz