När är det för mycket? Reglerare bedömer AI-hotets tröskel
StockholmRegulatorer försöker lista ut när ett AI-system blir farligt. Ett av de främsta sätten att mäta detta är genom att titta på dess beräkningskraft, vilken mäts i flyttal-operationer per sekund (flops). AI-system som kan utföra 10 upphöjt till 26 flops—100 septiljoner beräkningar per sekund—måste nu rapporteras till den amerikanska regeringen. Denna höga nivå av beräkningskraft kan leda till allvarliga hot, som att skapa massförstörelsevapen eller genomföra allvarliga cyberattacker.
För att ge en översikt är de viktigaste regleringströsklarna följande:
- En AI-modell måste ha kapacitet för 10^26 flops för att rapporteras.
- Modeller måste också kosta minst 100 miljoner dollar att utveckla.
- EU:s AI-lag ställer ett lägre krav på 10^25 flops.
Vissa kritiker menar att dessa mätvärden kan vara slumpmässiga och hämmande för kreativiteten. De anser att dessa fastställda gränser kan missa mindre modeller som ändå kan vara mycket kapabla och farliga. Datorforskaren Sara Hooker påpekar att nuvarande mätmetoder som flops kanske inte exakt återspeglar AI:s potentiella risker, eftersom många utvecklare uppnår mer med mindre beräkningskraft.
Regeringar står inför utmaningar med att sätta upp regler för AI, eftersom teknologin utvecklas snabbt och dess effekter är inte helt kända. För att hantera detta har de skapat tillfälliga regler som kan behöva uppdateras i takt med AI:s framsteg. Även om dessa regler försöker hantera problemet med tydliga mått som processorkraft, kan de inte förutse alla nya problem som kan uppstå.
Nya modeller kan använda färre resurser men ändå ha stor påverkan på samhället, så det är viktigt med noggrann reglering. Detta är avgörande eftersom teknikbranschen strävar efter att utveckla mindre och mer effektiva modeller som ändå kan missbrukas. Exempel som ChatGPT från OpenAI visar att även om dessa verktyg är användbara, måste de alltid kontrolleras för säkerhet och etik.
Fysikern Anthony Aguirre och andra som stöder användningen av flops-metriken medger dess brister men anser att den ger en grundläggande ram i en tid av snabb teknologisk utveckling. De menar att de nya lagarna är flexibla och kan ändras när ny information blir tillgänglig. Kritiker varnar dock för att enbart förlita sig på beräkningsmått kan begränsa nya idéer eller missa dolda faror i modeller som tycks vara säkra.
Vi behöver bättre sätt att reglera AI som kan förändras och anpassa sig. Dessa regler bör främja innovation samtidigt som de hanterar nya risker. Det handlar inte bara om hur kraftfull AI är; vi måste också beakta de samhälleliga konsekvenserna och kontexten för användningen av AI. Därför kommer framtida AI-regleringar sannolikt att omfatta bättre säkerhetskontroller och mer detaljerade åtgärder.
De nuvarande reglerna är kanske inte perfekta eller permanenta, men de hjälper till att hantera den komplexa världen av artificiell intelligens. Målet kommer sannolikt att vara att fortsätta balansera nya framsteg med regler för att säkerställa att AI används säkert inom olika områden.
20 november 2024 · 17:56
AI lär sig att känna av ytor med hjälp av banbrytande kvantteknik och laserprecision
20 november 2024 · 01:02
Kraftfull AI för mobilen: Kompakta språkmodeller som sparar energi och främjar integritet
18 november 2024 · 14:36
Mindre djur, större precision: ny AI-teknik för avancerade beteendestudier av möss
Dela den här artikeln