Wanneer is te veel? Regels voor AI-dreigingsniveau
AmsterdamRegelgevers proberen te bepalen vanaf welk moment een AI-systeem gevaarlijk wordt. Een belangrijke manier om dit te meten is via de rekencapaciteit, uitgedrukt in floating-point-bewerkingen per seconde (flops). AI-systemen die 10 tot de macht 26 flops—100 septiljoen berekeningen per seconde—kunnen uitvoeren, moeten nu bij de Amerikaanse overheid worden gemeld. Dit hoge niveau van rekencapaciteit kan leiden tot ernstige bedreigingen, zoals het creëren van massavernietigingswapens of het uitvoeren van zware cyberaanvallen.
Als referentie, de belangrijkste regelgevende drempels zijn:
- Een AI-model moet 10^26 flops aankunnen om gerapporteerd te worden.
- Modellen moeten ook minstens $100 miljoen kosten om te bouwen.
- De AI-wet van de EU stelt een lagere drempel bij 10^25 flops.
Enkele critici beweren dat deze maatstaven willekeurig kunnen zijn en de creativiteit kunnen belemmeren. Ze denken dat deze vaste punten kleinere modellen over het hoofd kunnen zien die eveneens zeer capabel en gevaarlijk kunnen zijn. Computerwetenschapper Sara Hooker merkt op dat huidige metingen zoals flops mogelijk niet nauwkeurig de risico's van AI weergeven, aangezien veel ontwikkelaars steeds meer bereiken met minder computerkracht.
Overheden staan voor de uitdaging om regels voor AI op te stellen, aangezien de technologie snel evolueert en de effecten nog niet volledig bekend zijn. Om dit probleem aan te pakken, hebben ze tijdelijke regels ingevoerd die mogelijk moeten worden aangepast naarmate AI verder ontwikkelt. Hoewel deze regels proberen het probleem aan te pakken met duidelijke maatstaven zoals verwerkingskracht, kunnen ze niet elke nieuwe opkomende kwestie voorspellen.
Nieuwe modellen mogen dan minder middelen verbruiken, ze kunnen nog steeds grote maatschappelijke gevolgen hebben en vereisen daarom zorgvuldige regulering. Dit is van vitaal belang nu de techindustrie zich richt op het ontwikkelen van kleinere en efficiëntere modellen die desondanks misbruikt kunnen worden. Voorbeelden zoals ChatGPT van OpenAI laten zien dat hoewel deze tools nuttig zijn, ze voortdurend op veiligheid en ethiek gecontroleerd moeten worden.
Fysicus Anthony Aguirre en anderen die de flops-metriek ondersteunen, erkennen de tekortkomingen ervan, maar zien het als een basisraamwerk in een tijd van snelle technologische vooruitgang. Ze denken dat de nieuwe wetten flexibel zijn en aangepast kunnen worden met nieuwe informatie. Critici waarschuwen echter dat het uitsluitend vertrouwen op computationele maatstaven nieuwe ideeën kan beperken of verborgen gevaren kan missen in modellen die veilig lijken.
We hebben betere manieren nodig om AI te reguleren die zich kan veranderen en aanpassen. Deze regels moeten innovatie ondersteunen en tegelijkertijd nieuwe risico's beheersen. Het gaat niet alleen om hoe krachtig AI is; we moeten ook de maatschappelijke impact en de context van AI-gebruik overwegen. Daarom zullen toekomstige AI-regelgeving waarschijnlijk betere veiligheidcontroles en meer gedetailleerde maatregelen omvatten.
Hoewel de huidige regels misschien niet perfect of blijvend zijn, helpen ze toch om de complexiteit van kunstmatige intelligentie te beheren. Het doel zal waarschijnlijk zijn om nieuwe ontwikkelingen af te wegen tegen richtlijnen, zodat AI veilig kan worden ingezet in verschillende sectoren.
20 november 2024 · 01:02
AI onderweg: compacte taalmodellen voor betere prestaties op mobiele apparaten
18 november 2024 · 14:36
Precieze gedragsstudies bij muizen dankzij AI: minder dieren en snellere resultaten
Deel dit artikel