Kiedy AI staje się zagrożeniem? Regulatorzy wyznaczają limity.

Czas czytania: 2 minut
Przez Pedro Martinez
- w
Waga równoważąca symbol sztucznej inteligencji i znak ostrzegawczy.

WarsawRegulatorzy próbują ustalić, kiedy system AI staje się niebezpieczny. Jednym z głównych sposobów oceny jest analiza jego mocy obliczeniowej, mierzonej w operacjach zmiennoprzecinkowych na sekundę (flops). Systemy AI, które mogą wykonać 10 do potęgi 26 flops—czyli 100 sekstylionów obliczeń na sekundę—muszą teraz być zgłaszane rządowi Stanów Zjednoczonych. Taki wysoki poziom mocy obliczeniowej może prowadzić do poważnych zagrożeń, takich jak tworzenie broni masowego rażenia czy przeprowadzanie ciężkich ataków cybernetycznych.

Dla porównania, kluczowe progi regulacyjne obejmują:

  • Model AI musi osiągać wydajność 10^26 flops, aby podlegać zgłoszeniu.
  • Koszt budowy modeli powinien wynosić co najmniej 100 milionów dolarów.
  • Akt o AI Unii Europejskiej ustala niższy próg na poziomie 10^25 flops.

Niektórzy krytycy twierdzą, że te metryki mogą być przypadkowe i utrudniać kreatywność. Uważają, że te punktualne wskaźniki mogą pomijać mniejsze modele, które również mogą być niezwykle potężne i niebezpieczne. Informatyk Sara Hooker zauważa, że obecne miary, takie jak flops, mogą nie odzwierciedlać dokładnie potencjalnych zagrożeń związanych z AI, jako że wielu twórców osiąga coraz więcej przy mniejszym zużyciu mocy obliczeniowej.

Rządy napotykają trudności w ustalaniu przepisów dotyczących sztucznej inteligencji, ponieważ technologia ta szybko się rozwija, a jej skutki nie są w pełni znane. Aby temu zaradzić, wprowadzono tymczasowe regulacje, które mogą wymagać aktualizacji wraz z postępem AI. Choć te przepisy starają się rozwiązywać problemy za pomocą jasnych mierników, takich jak moc obliczeniowa, nie są w stanie przewidzieć wszystkich nowych wyzwań, które mogą się pojawić.

Nowe modele mogą wykorzystywać mniej zasobów, ale wciąż wywierać znaczący wpływ na społeczeństwo, dlatego wymagają starannej regulacji. Jest to kluczowe, gdy branża technologiczna dąży do tworzenia mniejszych i bardziej wydajnych modeli, które mimo wszystko mogą być niewłaściwie wykorzystywane. Przykłady takie jak ChatGPT od OpenAI pokazują, że choć te narzędzia są przydatne, zawsze należy dbać o ich bezpieczeństwo i etykę.

Fizyk Anthony Aguirre i inni zwolennicy stosowania miary flops zdają sobie sprawę z jej wad, ale uważają, że stanowi ona podstawowy punkt odniesienia w czasach szybkiego postępu technologicznego. Są zdania, że nowe przepisy są elastyczne i można je modyfikować w miarę pojawiania się nowych informacji. Jednak krytycy ostrzegają, że poleganie wyłącznie na miarach obliczeniowych może ograniczyć powstawanie nowych pomysłów lub przeoczyć ukryte niebezpieczeństwa w modelach, które wydają się bezpieczne.

Potrzebujemy lepszych sposobów na regulację AI, która może się zmieniać i adaptować. Te przepisy powinny wspierać innowacyjność, jednocześnie zarządzając nowymi ryzykami. Nie chodzi tylko o to, jak potężna jest AI; musimy także uwzględniać społeczne skutki i konteksty jej użycia. Dlatego przyszłe regulacje dotyczące AI prawdopodobnie będą obejmować lepsze kontrole bezpieczeństwa i bardziej szczegółowe środki.

Obecne przepisy mogą nie być doskonałe ani trwałe, ale pomagają w zarządzaniu skomplikowanym światem sztucznej inteligencji. Celem prawdopodobnie będzie nieustanne równoważenie nowych osiągnięć z przepisami, aby zapewnić bezpieczne wykorzystanie AI w różnych dziedzinach.

Sztuczna Inteligencja: Najnowsze wiadomości

Udostępnij ten artykuł

Komentarze (0)

Opublikuj komentarz