Van AI-hype naar meetbare resultaten in de wetenschap
AmsterdamWetenschappers van het Princeton Plasma Physics Laboratory van het Amerikaanse Ministerie van Energie en de Princeton Universiteit hebben onderzocht hoe effectief machine learning is bij het oplossen van wiskundige problemen met vloeistoffen, bekend als partiële differentiaalvergelijkingen. Ze ontdekten dat, hoewel machine learning vaak gunstig beoordeeld wordt, de prestaties vaak overdreven worden. Traditionele methoden blijken in veel gevallen nog steeds beter te werken. De onderzoekers benadrukten dat er consistente fouten zijn bij machine learning en pleitten voor duidelijke manieren om het succes ervan te meten.
Belangrijke bevindingen van de studie zijn onder andere dat machine learning-methoden vaak bevoordeeld worden vergeleken met traditionele methoden. Ook worden negatieve resultaten vaak niet voldoende gerapporteerd, waardoor een te rooskleurig beeld ontstaat. Soms worden machine learning-methoden vergeleken met zwakkere numerieke standaarden, wat een vertekend beeld geeft van de prestatiewinsten.
Mensen hebben vaak hoge verwachtingen van AI, maar deze zijn niet altijd realistisch. Hoewel machine learning soms sneller kan zijn, zijn traditionele numerieke methoden over het algemeen nauwkeuriger en bieden ze een betere balans tussen snelheid en precisie. Het begrijpen van deze afruil is cruciaal bij het beoordelen van de effectiviteit van een methode. Veel academische artikelen maken deze afruilen echter niet duidelijk. Ze vergelijken vaak machine learning-technieken met minder efficiënte numerieke methoden, waardoor het potentieel van meer geavanceerde benaderingen verborgen blijft.
Het publiceren van alleen positieve resultaten kan leiden tot een vertekende weergave. Wetenschappelijke tijdschriften negeren vaak negatieve uitkomsten vanwege deze vooroordelen. Onderzoekers worden gestimuleerd om opmerkelijke ontdekkingen te publiceren, wat hen ertoe aanzet meer aandacht te besteden aan het verfijnen van hun modellen dan aan het uitgebreid vergelijken ervan met de beste beschikbare methoden.
Om wetenschappelijk onderzoek te verbeteren met machine learning, is het essentieel om methoden eerlijk te vergelijken. Dit houdt in dat ML-methoden vergeleken worden met sterke numerieke normen en dat resultaten op een eerlijke manier worden gedeeld. Financieringsinstellingen en academische evenementen moeten regels opstellen die openheid bevorderen. Dit betekent dat er gevraagd wordt om duidelijke uitleg van de gekozen referentiemodellen en de redenen voor die keuzes.
Dit onderzoek benadrukt de noodzaak van sterkere en zorgvuldiger wetenschappelijke methoden om het gebruik van kunstmatige intelligentie in wetenschap en techniek echt te verbeteren. Door gedetailleerdere beoordelingen te bevorderen, kunnen we overdreven beweringen vermijden en werkelijke vooruitgang boeken.
De studie is hier gepubliceerd:
http://dx.doi.org/10.1038/s42256-024-00897-5en de officiële citatie - inclusief auteurs en tijdschrift - is
McGreivy, N., Hakim, A. Weak baselines and reporting biases lead to overoptimism in machine learning for fluid-related partial differential equations. Nat Mach Intell, 2024 DOI: 10.1038/s42256-024-00897-520 november 2024 · 01:02
AI onderweg: compacte taalmodellen voor betere prestaties op mobiele apparaten
18 november 2024 · 14:36
Precieze gedragsstudies bij muizen dankzij AI: minder dieren en snellere resultaten
Deel dit artikel