Deepfakes mit Augenreflexionen erkennen: neue Studienergebnisse aus der Astronomie
BerlinNeue Studie: Deepfakes durch Augenreflexionen erkennen
Laut einer neuen Untersuchung kann das Erkennen von Deepfakes so einfach sein wie das Überprüfen der Reflexionen in den Augen einer Person. Diese Entdeckung wurde auf dem Nationalen Astronomietreffen der Royal Astronomical Society in Hull vorgestellt. Adejumoke Owolabi, eine MSc-Studentin der Universität Hull, fand heraus, dass die Reflexionen in menschlichen Augen anzeigen können, ob ein Bild echt oder künstlich erzeugt ist.
Wissenschaftler fanden heraus, dass bei echten Menschen die Reflexionen in beiden Augen gleich sind, während sie in Deepfake-Videos oft nicht übereinstimmen.
- Die Forscher analysierten die Lichtreflexionen auf den Augen der Personen in sowohl echten als auch KI-generierten Bildern.
- Sie nutzten Techniken aus der Astronomie, die normalerweise zur Untersuchung von Galaxien verwendet werden, um diese Reflexionen zu untersuchen.
- Sie quantifizierten die Reflexionen und überprüften die Konsistenz zwischen den Reflexionen des linken und rechten Auges.
Professor Kevin Pimbblet von der Universität Hull erklärte, dass die Reflexionen echter Menschen konsistent sind, während gefälschte Bilder fehlerhafte Reflexionen aufweisen. Das Team nutzte CAS-Analyse (Überprüfung von Konzentration, Asymmetrie und Glätte) sowie Gini-Indizes, um diese Reflexionen zu vergleichen.
Im Bereich der Astronomie dient der Gini-Koeffizient zur Messung der Lichtverteilung in Galaxienbildern. Forscher nutzten dieses Konzept, um Reflexionen in Augen zu untersuchen. Ein Gini-Wert von 0 bedeutet, dass das Licht gleichmäßig über alle Pixel verteilt ist, während ein Wert von 1 auf eine Lichtkonzentration in einem Pixel hinweist. Diese Methode half ihnen, Unterschiede zwischen echten und künstlichen Augen zu erkennen.
Professor Pimbblet stellte fest, dass die CAS-Parameter, die zur Messung der Lichtverteilung von Galaxien entwickelt wurden, nicht effektiv darin waren, falsche Augen zu erkennen.
Diese Methode ist zwar nicht fehlerfrei, da sie sowohl falsche Positivmeldungen als auch verpasste Erkennungen verursachen kann. Dennoch bleibt sie ein nützliches Werkzeug zur Identifizierung von Deepfakes. Die Studie zeigt, dass es ein guter Ausgangspunkt für die Entwicklung besserer Erkennungsmethoden ist.
Dies bedeutet, dass es äußerst wichtig ist, eine Methode zu haben, um von KI erstellte Fake-Bilder zu erkennen. Diese Forschung bietet uns wissenschaftliche Verfahren, um diese gefälschten Bilder zu identifizieren, was es Menschen mit bösen Absichten erschwert, andere mithilfe von KI zu täuschen.
Diese neue Methode ermöglicht das Erkennen von Deepfakes. Es ist ein bedeutender Fortschritt, gerade weil KI-generierte Bilder immer besser werden.
Diese Forschung hilft uns zu verstehen, wie wir uns besser vor Deepfakes schützen können. Mit dem Fortschritt der KI-Technologie müssen auch unsere Erkennungsmethoden verbessert werden. Diese Studie ist ein Schritt in diese Richtung.
Die Studie wird hier veröffentlicht:
NaNund seine offizielle Zitation - einschließlich Autoren und Zeitschrift - lautet
NaNDiesen Artikel teilen