Nuevo método regula la confianza de la IA para respuestas más fiables

Tiempo de lectura: 2 minutos
Por Maria Sanchez
- en
Balanza con símbolo de IA y signo de precaución

MadridInvestigadores han descubierto una nueva manera de evitar que los modelos de IA se muestren demasiado confiados en sus respuestas incorrectas. Este método, denominado Termómetro, busca hacer que los modelos de lenguaje grandes sean más confiables.

Las personas emplean grandes modelos de lenguaje para diversas tareas como traducir idiomas, detectar fraudes financieros y responder preguntas en servicios al cliente.

Estos modelos no siempre son precisos. En ocasiones, muestran una gran confianza en respuestas incorrectas, o dudan de respuestas acertadas. Esto hace difícil confiar en ellos.

Investigadores del MIT y del MIT-IBM Watson AI Lab han creado Thermometer para abordar este desafío. Thermometer usa un modelo adicional más pequeño para ajustar los niveles de confianza del LLM. Este nuevo método es eficiente y no requiere mucha potencia de cómputo, además de mantener la precisión del modelo.

Los métodos tradicionales para ajustar modelos de aprendizaje automático están diseñados para una sola tarea. Estos métodos no funcionan bien para los modelos de lenguaje grande (LLM) porque los LLM realizan múltiples tareas. Usar un método tradicional puede disminuir el rendimiento de un LLM en las tareas para las que no fue ajustado.

Calibrar modelos de lenguaje grandes generalmente requiere tomar muchas muestras y combinarlas, lo cual es costoso en términos de computación. Thermometer propone un enfoque distinto utilizando el escalado de temperatura para ajustar la confianza del modelo. Este método es una forma establecida de calibración, donde la "temperatura" es un parámetro que ayuda a alinear los niveles de confianza con la precisión de las predicciones.

Por lo general, necesitas un conjunto de datos de validación etiquetado para determinar la temperatura adecuada. Sin embargo, obtener conjuntos de datos etiquetados para nuevas tareas es complicado. Por ejemplo, si una empresa desea que un modelo de lenguaje responda preguntas sobre un producto nuevo, probablemente aún no disponga de un conjunto de datos para ello.

El Termómetro utiliza un modelo auxiliar para estimar la temperatura requerida. Este modelo se entrena con datos de varias tareas comunes, permitiéndole manejar nuevas tareas sin necesitar más datos etiquetados. Por ejemplo, un Termómetro entrenado en preguntas de álgebra y medicina puede también ajustar respuestas para preguntas de geometría o biología.

El modelo del Termómetro ha mejorado notablemente, aunque todavía no es perfecto. Solo necesita acceder a una pequeña parte del LLM, por lo que solo lo ralentiza ligeramente.

El termómetro arrojó resultados de incertidumbre más precisos en las pruebas y requirió menos potencia de cálculo que otros métodos.

Los científicos creen que el termómetro puede adaptarse a nuevas tareas si se entrena con una variedad de ellas. También descubrieron que funciona eficazmente tanto con modelos pequeños como grandes del mismo grupo. Esto lo hace un método versátil.

El equipo planea mejorar Thermometer para trabajos más complejos y modelos de lenguaje más grandes. También buscan determinar cuántos conjuntos de datos etiquetados son necesarios para rendir bien en nuevas tareas. La investigación fue financiada por el MIT-IBM Watson AI Lab.

El estudio se publica aquí:

http://dx.doi.org/10.48550/arXiv.2403.08819

y su cita oficial - incluidos autores y revista - es

Maohao Shen, Subhro Das, Kristjan Greenewald, Prasanna Sattigeri, Gregory Wornell, Soumya Ghosh. Thermometer: Towards Universal Calibration for Large Language Models. arXiv.org, 2024; DOI: 10.48550/arXiv.2403.08819
Inteligencia Artificial: Últimas noticias

Compartir este artículo

Comentarios (0)

Publicar un comentario