Confianza y precisión: innovando estimaciones de incertidumbre en modelos de IA
MadridInvestigadores del MIT han desarrollado una nueva forma de hacer estimaciones de incertidumbre en modelos de aprendizaje automático, mejorándolas en precisión. Esto es crucial para tareas como diagnósticos médicos y selección de candidatos laborales. Los modelos de aprendizaje automático pueden cometer errores en sus predicciones, por lo que es esencial saber con cuánta seguridad se han tomado esas decisiones. Estimaciones de incertidumbre precisas ayudan a determinar si se debe confiar en los resultados del modelo. La nueva técnica, creada en colaboración con la Universidad de Toronto, genera estas estimaciones de manera más precisa y rápida que los métodos anteriores.
Los investigadores utilizaron el principio de longitud mínima de descripción (MDL). Este método examina todas las posibles etiquetas que un modelo podría asignar a un punto de prueba. Cuando existen muchas etiquetas adecuadas, el modelo se muestra menos seguro. Así es como funciona esta técnica:
- Estimaciones de incertidumbre más precisas
- Mayor eficiencia y escalabilidad
- Aplicabilidad a modelos de aprendizaje profundo de gran escala
En aplicaciones del mundo real, los métodos estadísticos simples a menudo no funcionan bien debido a la complejidad de los modelos de aprendizaje automático. Muchos métodos actuales requieren cálculos y suposiciones complicadas, lo que dificulta su uso en modelos más grandes. Los investigadores del MIT evitaron estos problemas utilizando MDL, un método que no necesita tales suposiciones.
El nuevo método, IF-COMP, hace que MDL sea utilizable para modelos grandes. Funciona más rápido usando una técnica llamada funciones de influencia. Además, utiliza el escalado de temperatura para que las salidas del modelo sean más precisas. Juntos, estos elementos ayudan a que IF-COMP proporcione mediciones de incertidumbre fiables.
Los casos donde este método es más eficaz son aquellos en los que ayuda a encontrar datos mal etiquetados y valores atípicos. En estas tareas, IF-COMP fue más rápido y preciso que otros métodos. Garantiza que un modelo esté bien calibrado, lo cual es crucial a medida que los modelos de aprendizaje automático manejan cantidades crecientes de datos que no han sido verificados a fondo.
Los modelos de aprendizaje automático pueden cometer errores y, en ocasiones, confiar en información incorrecta. Este nuevo método ayuda a los usuarios a entender cuándo las predicciones de un modelo podrían fallar. Es compatible con diferentes tipos de modelos de aprendizaje automático y mejora la toma de decisiones en diversas áreas.
Puedes confiar más en las herramientas de IA, incluso si no sabes mucho sobre aprendizaje automático. Obtendrás mejores detalles sobre la fiabilidad de estas herramientas, ya sea que ayuden con diagnósticos médicos o solicitudes de empleo. Esto es fundamental en áreas como la salud, donde las decisiones precisas son esenciales.
Los investigadores quieren aplicar este método en modelos de lenguaje más grandes. También pretenden explorar otras formas de utilizar el principio de MDL. Esto podría hacer que los sistemas de inteligencia artificial sean más fiables y seguros en diversas tareas.
El estudio se publica aquí:
http://dx.doi.org/10.48550/arXiv.2406.02745y su cita oficial - incluidos autores y revista - es
Nathan Ng, Roger Grosse, Marzyeh Ghassemi. Measuring Stochastic Data Complexity with Boltzmann Influence Functions. Submitted to arXiv, 2024 DOI: 10.48550/arXiv.2406.0274527 de octubre de 2024 · 4:35
Autoría percibida: el desafío de la IA en la creación de historias
26 de octubre de 2024 · 20:44
La revolución de la ciencia: cómo la IA y la robótica impulsan el descubrimiento en los laboratorios
26 de octubre de 2024 · 6:52
Herramienta de IA en hospitales inventa declaraciones, advierten investigadores.
Compartir este artículo