Nuevo enfoque: explorando el doble filo de la inteligencia artificial en el descubrimiento biológico

Tiempo de lectura: 2 minutos
Por Jamie Olivos
- en
"Red neuronal de IA con holograma de hebra de ADN"

MadridInvestigadores de la Facultad de Ciencias de la Computación de la Universidad Carnegie Mellon han desarrollado nuevas directrices para el uso de métodos de aprendizaje automático interpretables en biología computacional. Estas directrices buscan abordar desafíos clave y ofrecer oportunidades para una mejor comprensión. Los modelos de aprendizaje automático ya son esenciales para analizar datos biomédicos, como secuencias genómicas e imágenes biológicas. Sin embargo, comprender cómo funcionan estos modelos es crucial para descubrir procesos biológicos en la salud y la enfermedad.

El estudio sugiere varias recomendaciones clave:

  • Aplicar diversos métodos de aprendizaje automático interpretables.
  • Ajustar una variedad de hiperparámetros.
  • Evitar la selección sesgada de resultados.

Un inconveniente de utilizar un solo método para comprender los modelos de aprendizaje automático es que puede resultar equívoco. Los investigadores recomiendan emplear varios métodos para obtener una visión más completa de cómo funcionan realmente los modelos. Esto hace que los resultados sean más confiables.

El entusiasmo por la interpretabilidad en el aprendizaje automático es alto, pero aún no ha ofrecido soluciones fáciles de usar. A medida que los modelos predictivos se vuelven más complejos, entender cómo y por qué realizan sus predicciones es crucial, especialmente en campos como la biomedicina. Investigadores de CMU destacan que comprender el funcionamiento de los modelos es clave para descubrir procesos biológicos fundamentales.

Evaluar modelos de manera incorrecta puede llevar a resultados sesgados. El artículo destaca la necesidad de evitar seleccionar solo resultados positivos. Dicho sesgo puede hacer que los hallazgos científicos sean incompletos o engañosos. Es crucial tener en cuenta los factores humanos al desarrollar y utilizar métodos de aprendizaje automático fáciles de entender. Esto incluye conocer quiénes usarán estos métodos y comprender cómo serán utilizados y evaluados.

Docentes y estudiantes de doctorado de CMU colaboraron para examinar varios artículos sobre biología computacional. Descubrieron que el uso del aprendizaje automático interpretable era frecuentemente inconsistente. Los investigadores desean elaborar directrices estándar para hacer estos métodos más fiables y uniformes.

Estas directrices afectan a muchas personas. Ayudan a los investigadores que analizan cómo funcionan los grandes modelos de lenguaje y otros sistemas avanzados de IA. También sirven para aclarar por qué se hacen ciertas predicciones, lo que puede ser de gran ayuda para la investigación científica y médica.

El enfoque en hacer la IA más comprensible se alinea con la tendencia de desarrollar IA en la que los usuarios puedan confiar. Resalta la importancia de la colaboración entre diferentes disciplinas. Estos esfuerzos ayudarán a garantizar que las herramientas de IA se puedan utilizar de manera amplia y efectiva en trabajos científicos cruciales. A medida que los modelos de aprendizaje automático evolucionan, también deben hacerlo las maneras de interpretarlos con precisión. Este estudio podría llevar a usos más informados e impactantes de la IA en la biología.

Las recomendaciones de este artículo no están dirigidas únicamente a los biólogos computacionales. También pueden ser útiles para los investigadores en aprendizaje automático, ayudándoles a desarrollar métodos y herramientas que sean precisos y fáciles de entender. Este enfoque podría fortalecer el papel de la inteligencia artificial en la realización de descubrimientos científicos, especialmente en la comprensión de sistemas biológicos complejos.

El estudio se publica aquí:

http://dx.doi.org/10.1038/s41592-024-02359-7

y su cita oficial - incluidos autores y revista - es

Valerie Chen, Muyu Yang, Wenbo Cui, Joon Sik Kim, Ameet Talwalkar, Jian Ma. Applying interpretable machine learning in computational biology—pitfalls, recommendations and opportunities for new developments. Nature Methods, 2024; 21 (8): 1454 DOI: 10.1038/s41592-024-02359-7
Ciencia: Últimas noticias
Leer siguiente:

Compartir este artículo

Comentarios (0)

Publicar un comentario
NewsWorld

NewsWorld.app es un sitio de noticias premium gratuito. Proporcionamos noticias independientes y de alta calidad sin cobrar por artículo y sin un modelo de suscripción. NewsWorld cree que las noticias generales, de negocios, económicas, tecnológicas y de entretenimiento deberían ser accesibles a un alto nivel de forma gratuita. Además, NewsWorld es increíblemente rápido y utiliza tecnología avanzada para presentar artículos de noticias en un formato altamente legible y atractivo para el consumidor.


© 2024 NewsWorld™. Todos los derechos reservados.