Nowe badanie wskazuje, że fałszerstwa można wykryć przez analizę odbić w oczach ludzi.

Czas czytania: 2 minut
Przez Maria Lopez
- w
Zbliżenie oka ukazujące szczegółowe odbicia i wzory.

WarsawNowe badania wskazują, że rozpoznanie deepfake'ów może być tak proste, jak sprawdzenie odbić w oczach osoby. Wyniki te zaprezentowano na Narodowym Spotkaniu Astronomicznym Królewskiego Towarzystwa Astronomicznego w Hull. Adejumoke Owolabi, studentka studiów magisterskich na Uniwersytecie w Hull, odkryła, że odbicia w ludzkich oczach mogą wskazywać, czy zdjęcie jest prawdziwe, czy wygenerowane przez sztuczną inteligencję.

Badacze odkryli, że u prawdziwych ludzi odbicia w obu oczach są identyczne, natomiast w filmach deepfake często się nie zgadzają.

Przeanalizowali odbicia światła na gałkach ocznych osób zarówno na zdjęciach rzeczywistych, jak i generowanych przez AI. Skorzystali z technik astronomicznych, zazwyczaj stosowanych do badania galaktyk, aby zbadać te odbicia. Zmierzyli te odbicia i sprawdzili zgodność między odbiciami na lewym i prawym oku.

Profesor Kevin Pimbblet z University of Hull wyjaśnił, że odbicia prawdziwych osób są spójne, natomiast fałszywe obrazy charakteryzują się nieprawidłowymi odbiciami. Zespół wykorzystał analizę CAS, sprawdzając koncentrację, asymetrię i gładkość oraz indeksy Giniego, aby porównać te odbicia.

W astronomii współczynnik Giniego mierzy, jak światło jest rozłożone na obrazie galaktyki. Badacze zastosowali tę koncepcję do analizy odbić w gałkach ocznych. Wartość Giniego wynosząca 0 oznacza równomierne rozproszenie światła we wszystkich pikselach, natomiast wartość 1 wskazuje na skoncentrowanie światła w jednym pikselu. Ta metoda pomogła im wykryć różnice między prawdziwymi a sztucznymi oczami.

Profesor Pimbblet zauważył, że parametry CAS, stworzone do mierzenia rozkładu światła w galaktykach, nie radzą sobie dobrze z wykrywaniem fałszywych oczu.

Ta metoda nie jest doskonała. Może popełniać błędy, wykrywając fałszywości tam, gdzie ich nie ma, lub pomijając te, które są rzeczywiście fałszywe. Mimo to nadal jest przydatnym narzędziem do identyfikacji deepfake'ów. Badanie sugeruje, że stanowi dobry punkt wyjścia do tworzenia lepszych metod wykrywania.

To oznacza, że niezwykle istotne jest posiadanie sposobów identyfikacji fałszywych obrazów stworzonych przez AI. To badanie dostarcza nam naukowych metod wykrywania takich fałszywych obrazów, co utrudnia osobom o złych zamiarach oszukiwanie innych za pomocą AI.

Ta nowa metoda umożliwia wykrywanie deepfake'ów. Jest to duży krok naprzód, zwłaszcza że obrazy tworzone przez sztuczną inteligencję stają się coraz doskonalsze.

Badania te pomagają nam zrozumieć, jak lepiej chronić się przed deepfake'ami. W miarę jak technologia AI staje się coraz bardziej zaawansowana, nasze metody wykrywania również muszą się doskonalić. To badanie jest krokiem w kierunku osiągnięcia tego celu.

Badanie jest publikowane tutaj:

NaN

i jego oficjalne cytowanie - w tym autorzy i czasopismo - to

NaN
Nauka: Najnowsze wiadomości
Czytaj dalej:

Udostępnij ten artykuł

Komentarze (0)

Opublikuj komentarz