Novo estudo: potencial duplo da IA em descobertas biológicas desvendado por pesquisadores da CMU

Tempo de leitura: 2 minutos
Por João Silva
- em
"Rede neural de IA com holograma de fita de DNA"

São PauloPesquisadores da Escola de Ciência da Computação da Universidade Carnegie Mellon desenvolveram novas diretrizes para a utilização de métodos interpretáveis de aprendizado de máquina na biologia computacional. Essas diretrizes têm o objetivo de enfrentar desafios cruciais e proporcionar oportunidades de uma compreensão mais aprofundada. Modelos de aprendizado de máquina já são fundamentais na análise de dados biomédicos, como sequências genômicas e imagens biológicas. No entanto, entender como esses modelos funcionam é essencial para descobrir processos biológicos relacionados à saúde e doença.

O estudo propõe várias recomendações importantes:

  • Utilizando diversos métodos interpretáveis de aprendizado de máquina.
  • Ajustando uma variedade de hiperparâmetros.
  • Evitando a seleção tendenciosa de resultados.

Um Problema, Várias Soluções: A Importância de Diversificar Abordagens em Modelos de Machine Learning

Um dos problemas de utilizar apenas um método para entender modelos de machine learning é que isso pode levar a interpretações equivocadas. Os pesquisadores recomendam o uso de várias técnicas para obter uma visão mais precisa sobre o funcionamento real dos modelos. Assim, os resultados se tornam mais confiáveis.

A empolgação em torno da interpretabilidade em aprendizado de máquina é grande, mas ainda não trouxe soluções de fácil uso. À medida que os modelos preditivos se tornam mais complexos, compreender como e por que eles fazem determinadas previsões é essencial, especialmente em áreas como a biomedicina. Pesquisadores da CMU afirmam que entender o funcionamento dos modelos é fundamental para descobrir processos biológicos básicos.

Avaliar modelos de maneira inadequada pode resultar em conclusões tendenciosas. O artigo enfatiza a importância de evitar a seleção apenas de resultados positivos. Tal prática pode tornar as descobertas científicas incompletas ou enganosas. É fundamental considerar cuidadosamente os fatores humanos ao desenvolver e utilizar métodos de aprendizado de máquina que sejam fáceis de entender. Isso inclui conhecer quem utilizará esses métodos e compreender como eles serão usados e avaliados.

Docentes e doutorandos da CMU colaboraram na análise de vários artigos de biologia computacional. Eles descobriram que o uso do aprendizado de máquina interpretável frequentemente era inconsistente. Os pesquisadores desejam criar diretrizes padronizadas para tornar esses métodos mais confiáveis e uniformes.

Essas diretrizes impactam muitas pessoas. Elas auxiliam pesquisadores que estudam o funcionamento de grandes modelos de linguagem e outros sistemas complexos de IA. Essas regras ajudam a explicar por que certas previsões são feitas, o que pode beneficiar enormemente a pesquisa científica e médica.

O foco em tornar a IA mais compreensível está alinhado com a tendência de desenvolver IA de confiança para os usuários. Isso ressalta a importância da colaboração entre diferentes áreas do conhecimento. Esses esforços ajudarão a garantir que as ferramentas de IA possam ser amplamente e eficazmente utilizadas em trabalhos científicos relevantes. À medida que os modelos de aprendizado de máquina evoluem, também devem evoluir as maneiras de interpretá-los com precisão. Este estudo pode levar a usos da IA mais informados e impactantes na biologia.

As diretrizes apresentadas neste artigo não são exclusivas para biólogos computacionais. Elas também podem auxiliar pesquisadores de aprendizado de máquina a desenvolver métodos e ferramentas que sejam precisos e de fácil compreensão. Esse foco pode aprimorar o papel da inteligência artificial na realização de descobertas científicas, especialmente na compreensão de sistemas biológicos complexos.

O estudo é publicado aqui:

http://dx.doi.org/10.1038/s41592-024-02359-7

e sua citação oficial - incluindo autores e revista - é

Valerie Chen, Muyu Yang, Wenbo Cui, Joon Sik Kim, Ameet Talwalkar, Jian Ma. Applying interpretable machine learning in computational biology—pitfalls, recommendations and opportunities for new developments. Nature Methods, 2024; 21 (8): 1454 DOI: 10.1038/s41592-024-02359-7
Inteligência Artificial: Últimas notícias

Compartilhar este artigo

Comentários (0)

Publicar um comentário