Détectez les deepfakes grâce aux reflets dans les yeux, révèle une nouvelle étude
ParisDes chercheurs ont récemment découvert que les reflets dans les yeux peuvent aider à identifier facilement les deepfakes. Cette découverte a été présentée lors de la réunion nationale de la Royal Astronomical Society à Hull. Adejumoke Owolabi, étudiant en maîtrise à l'Université de Hull, a démontré que les reflets dans les yeux humains peuvent indiquer si une image est authentique ou générée par l'IA.
Des chercheurs ont découvert que chez les humains réels, les reflets dans les deux yeux sont identiques, tandis que dans les vidéos profondes générés artificiellement, ils ne correspondent souvent pas.
- Ils ont étudié les reflets de lumière sur les yeux de personnes dans des images réelles et générées par IA.
- Ils ont utilisé des techniques d'astronomie, habituellement employées pour observer les galaxies, afin d'examiner ces reflets.
- Ils ont mesuré les reflets et vérifié leur cohérence entre les reflets de l’œil gauche et droit.
Le professeur Kevin Pimbblet de l'Université de Hull a expliqué que les reflets des personnes réelles sont cohérents, tandis que les images truquées présentent des reflets incorrects. L’équipe a utilisé l’analyse CAS (vérification de la concentration, de l’asymétrie et de la douceur) et les indices de Gini pour comparer ces reflets.
Dans le domaine de l'astronomie, le coefficient de Gini est utilisé pour évaluer la répartition de la lumière dans l’image d’une galaxie. Des chercheurs ont appliqué cette méthode à l’étude des reflets dans les yeux. Un coefficient de Gini de 0 indique une répartition uniforme de la lumière sur tous les pixels, tandis qu'une valeur de 1 signale une concentration de lumière en un seul pixel. Cette approche leur a permis d'identifier des différences entre des yeux réels et des yeux artificiels.
Le professeur Pimbblet a souligné que les paramètres CAS, conçus pour mesurer la distribution de la lumière des galaxies, n'étaient pas efficaces pour détecter les faux yeux.
Cette méthode présente des imperfections. Elle peut commettre des erreurs en détectant faussement quelque chose de faux ou en omettant ce qui l’est réellement. Néanmoins, elle reste un outil précieux pour identifier les deepfakes. L’étude révèle qu’elle constitue une base prometteuse pour élaborer des méthodes de détection plus avancées.
Il est donc crucial de disposer de méthodes pour repérer les images générées par l'IA. Cette étude propose des techniques scientifiques pour identifier ces images falsifiées, rendant plus difficile pour les personnes malveillantes de tromper autrui grâce à l'IA.
Cette nouvelle méthode permet de détecter les deepfakes. C'est un progrès notable, d'autant plus que les images créées par l'IA deviennent de plus en plus réalistes.
Cette recherche nous aide à mieux nous protéger contre les deepfakes. Avec l'avancement de la technologie AI, nos méthodes de détection doivent également s'améliorer. Cette étude constitue une étape vers cet objectif.
Aujourd'hui · 22:14
La rapidité du changement climatique menace la biodiversité
Aujourd'hui · 20:14
Les plantes : usines naturelles de compléments sportifs
Aujourd'hui · 18:11
Percée scientifique : freiner la propagation du paludisme
Aujourd'hui · 16:08
Une percée en neurosciences : le cerveau de la mouche
Partager cet article