AI generuje obrazy przemocy: wyzwanie dla organów ścigania
WarsawObrazy przedstawiające wykorzystywanie seksualne dzieci, tworzone przez sztuczną inteligencję, stają się poważnym problemem, co wymaga od organów ścigania szybkiego dostosowania się do nowych wyzwań. Departament Sprawiedliwości podjął działania, wszczynając swoją pierwszą federalną sprawę skupiającą się wyłącznie na obrazach generowanych przez sztuczną inteligencję. To ważny krok, ponieważ przedstawiane w tych obrazach dzieci nie są rzeczywiste, a wirtualne. Wiele stanów spieszy się też z uchwaleniem przepisów mających na celu zwalczanie i zapobieganie rozpowszechnianiu takich cyfrowo tworzonych lub modyfikowanych obrazów.
Główne obawy motywujące te działania obejmują:
Trudność w rozróżnieniu prawdziwych ofiar od wirtualnych może odciągnąć cenne zasoby od badania rzeczywistych przypadków wykorzystywania dzieci. Istnieje także ryzyko, że obrazy generowane przez AI mogą być wykorzystywane do uwodzenia i wyzyskiwania dzieci. Dzieci, których prawdziwe zdjęcia są modyfikowane w sposób obsceniczny, mogą doświadczać emocjonalnych i psychologicznych skutków.
Technologia rozwija się w zawrotnym tempie, co sprawia, że organy ścigania muszą dostosowywać się do tych zmian. Stoją przed dwoma głównymi wyzwaniami: powstrzymywaniem rozprzestrzeniania się szkodliwych treści oraz aktualizacją swoich metod, aby nie pozostawać w tyle za technologią wykorzystywaną przez przestępców. Problemem jest również to, że konieczność ujęcia i oskarżenia sprawców koliduje z przepisami prawa, które jeszcze nie zostały dostosowane do najnowszych technologii.
28 października 2024 · 18:31
Brytyjczyk skazany za tworzenie obraźliwych treści z AI
Modele AI z otwartym kodem źródłowym, które każdy może modyfikować i używać, pogłębiają problem. Te narzędzia są dostępne za darmo i mogą być wykorzystane do zmiany zdjęć dzieci, co prowadzi do powstania nielegalnego rynku tej treści w dark webie. Niebezpieczeństwo nie ogranicza się tylko do cyfrowych zmian. Zdjęcia stworzone przez AI wspierają także niebezpieczną kulturę, w której dochodzi do wykorzystywania i jego rozpowszechniania, co głęboko wpływa na ofiary.
Firmy technologiczne, takie jak Google, OpenAI i Stability AI, współpracują z organizacjami jak Thorn, aby przeciwdziałać rozpowszechnianiu obrazów związanych z wykorzystywaniem seksualnym dzieci. Ich celem jest zwiększenie bezpieczeństwa przyszłych narzędzi AI poprzez wprowadzenie lepszych funkcji zabezpieczających. Jednak niektórzy eksperci twierdzą, że działania te są spóźnione. Wcześniej priorytetem było przyspieszenie działania narzędzi AI, a nie ich bezpieczeństwo, co umożliwiło starszym technologiom tworzenie szkodliwych obrazów bez wykrycia.
Stajemy przed nowymi wyzwaniami, które wymagają współpracy ustawodawców, firm technologicznych i organów ścigania. Konieczne jest udoskonalenie przepisów oraz technologii, aby skutecznie radzić sobie z tymi problemami i chronić ludzi przed nadużyciami, zwłaszcza teraz, gdy obrazy mogą być bardzo realistycznie fałszowane.
26 października 2024 · 11:52
Badania: AI w szpitalach tworzy nieistniejące wypowiedzi pacjentów
26 października 2024 · 09:46
Innowacyjne kamery na ciele i AI wykrywają błędy leków oraz chronią pacjentów
26 października 2024 · 04:07
Politechnika w Houston opracowuje AI prognozującą i zarządzającą pandemią przez analizę podróży lotniczych
Udostępnij ten artykuł