Laureat Nobla Geoffrey Hinton ostrzega przed zagrożeniami AI
Geoffrey Hinton, który wcześniej był entuzjastycznie nastawiony do możliwości sztucznej inteligencji, teraz wyraża obawy dotyczące przyszłych zagrożeń związanych z tą technologią według WSJ.
Geoffrey Hinton, czołowy ekspert w dziedzinie sztucznej inteligencji, niedawno zdobył Nagrodę Nobla w dziedzinie fizyki. Jego prace nad sieciami neuronowymi przyczyniły się do powstania dzisiejszych technologii AI. Jednak zamiast świętować, Hinton ostrzega teraz, że sztuczna inteligencja może być bardzo niebezpieczna, jeśli nie zostanie odpowiednio zarządzana.
Hinton obawia się, że systemy sztucznej inteligencji mogą:
- Wyzwać ludzi spod kontroli
- Mieć wpływ na wybory
- Stać się zagrożeniem
- Przewyższyć ludzką inteligencję
Hinton zwraca uwagę na ryzyko związane z osiągnięciami, które wymienia. Podkreśla potrzebę wprowadzenia lepszych środków bezpieczeństwa już teraz. Wiele firm, takich jak OpenAI i Google, intensywnie pracuje nad szybkimi postępami w dziedzinie AI. Hinton nawołuje do znalezienia równowagi pomiędzy tworzeniem nowej technologii a odpowiedzialnym podejściem.
Zróżnicowane opinie wśród badaczy AI
Nie wszyscy zgadzają się z poglądami Hintona. Niektórzy badacze uważają, że Hinton przesadza z zagrożeniami. Sądzą, że nadmierne martwienie się o te zagrożenia może spowolnić postęp. Melanie Mitchell, profesor w Santa Fe Institute, podkreśla, że powinniśmy skupić się na bieżących problemach, takich jak dyskryminacja. Sceptycy twierdzą, że obecne AI nie ma mocy, by wyrządzić poważne szkody. Często wskazują na ograniczone rozumienie rzeczywistości przez sztuczną inteligencję.
Yann LeCun, ekspert w dziedzinie sztucznej inteligencji, ma wątpliwości co do poglądu, że zaawansowana AI spowoduje poważne szkody. Uważa, że te obawy są przesadzone. LeCun twierdzi, że sztuczna inteligencja nie jest tak inteligentna jak nawet podstawowe zwierzęta, więc nie widzi powodów do niepokoju, że AI nagle stanie się niezależna.
Hinton jest oddany swojej misji. Odszedł z pracy w Google, aby móc swobodnie mówić o zagrożeniach związanych ze sztuczną inteligencją. Zachęca firmy do większych inwestycji w dziedzinę poprawy bezpieczeństwa AI. Pomimo że niektórzy się z nim nie zgadzają, jego Nagroda Nobla wzmacnia jego reputację i pomaga w rozpowszechnianiu jego przekazu.
Coraz częściej pojawiają się żądania dotyczące wprowadzenia przepisów prawnych oraz polityk firmowych w celu rozwiązania tych problemów.
Hinton nie tylko ostrzega ludzi, ale chce, aby działania zostały podjęte. Podpisał dokument wzywający do inwestowania w badania dotyczące bezpieczeństwa AI. Hinton uważa, że duże firmy technologiczne powinny przeznaczyć na to dużą ilość pieniędzy. Sądzi również, że rząd powinien interweniować, aby zapewnić, że to się stanie. Poparł ustawę w Kalifornii, która miała na celu zobowiązanie twórców do zapewnienia bezpieczeństwa swoich systemów AI i uniknięcia wyrządzania poważnych szkód.
Gubernator Kalifornii, Gavin Newsom, odrzucił ustawę, ponieważ sprzeciwiały się jej duże firmy technologiczne. To rozczarowanie dla planów Hintona. Mimo to nadal stara się przekonywać decydentów i liderów technologicznych, takich jak Elon Musk, o ważności bezpieczeństwa AI.
Obawy Hintona zwracają uwagę na istotną dyskusję dotyczącą rozwoju sztucznej inteligencji. Ważne jest znalezienie równowagi między postępem a ostrożnością. Firmy dążą do tworzenia nowych technologii, ale nie kosztem bezpieczeństwa. Twórcy polityki i badacze debatują nad przyszłym kierunkiem rozwoju AI. Dyskusja toczy się wokół wyważenia korzyści AI względem jej zagrożeń. Ostrzeżenia Hintona podkreślają, że odpowiedzialny rozwój AI jest kluczowy dla bezpiecznej przyszłości.
20 listopada 2024 · 17:56
Przełom w AI: Maszyny uczą się rozróżniać tekstury powierzchni dzięki technologii kwantowej
18 listopada 2024 · 14:36
Precyzyjne badanie zachowań myszy dzięki AI i mniejszej liczbie zwierząt w eksperymencie
16 listopada 2024 · 17:49
Badania nad zwiększeniem zaufania pasażerów do autonomicznych pojazdów dzięki XAI i nowym strategiom
Udostępnij ten artykuł