Quando l'AI diventa pericolosa? Limiti e regole in evoluzione
RomeRegolatori cercano di stabilire quando un sistema di intelligenza artificiale diventa pericoloso. Un metodo fondamentale per valutarlo è esaminare la sua potenza computazionale, misurata in operazioni in virgola mobile al secondo (flops). I sistemi AI che possono eseguire 10 alla potenza di 26 flops—100 settilioni di calcoli al secondo—devono essere segnalati al governo degli Stati Uniti. Tale livello elevato di potenza computazionale potrebbe portare a minacce gravi, come la creazione di armi di distruzione di massa o l'avvio di gravi attacchi informatici.
Per riferimento, le principali soglie regolamentari includono:
- Un modello AI deve avere una capacità di 10^26 flops per essere segnalato.
- I modelli devono anche costare almeno 100 milioni di dollari per essere sviluppati.
- Il regolamento europeo sull'IA stabilisce un limite inferiore a 10^25 flops.
Alcuni critici sostengono che questi parametri possano essere casuali e ostacolare la creatività. Ritengono che questi punti di riferimento possano ignorare modelli più piccoli che potrebbero comunque essere molto capaci e pericolosi. La scienziata informatica Sara Hooker sottolinea che le misurazioni attuali come i flops potrebbero non riflettere accuratamente i potenziali rischi di un'IA, poiché molti sviluppatori stanno ottenendo risultati maggiori con meno potenza di calcolo.
I governi stanno affrontando sfide nel definire normative per l'IA a causa della rapida evoluzione della tecnologia e degli effetti ancora non del tutto conosciuti. Per gestire la situazione, hanno introdotto regole temporanee che potrebbero necessitare di aggiornamenti man mano che l'IA progredisce. Sebbene queste norme cerchino di affrontare la questione utilizzando metriche chiare come la potenza di elaborazione, non possono prevedere ogni nuovo problema che potrebbe sorgere.
I nuovi modelli possono utilizzare meno risorse ma avere ancora un grande impatto sulla società, quindi necessitano di una regolamentazione attenta. Questo è fondamentale poiché l'industria tecnologica si muove verso la creazione di modelli più piccoli ed efficienti, che tuttavia possono essere mal utilizzati. Esempi come ChatGPT di OpenAI dimostrano che, sebbene questi strumenti siano utili, devono sempre essere controllati per sicurezza ed etica.
Fisico Anthony Aguirre e altri sostenitori dell'uso del parametro flops riconoscono le sue imperfezioni ma ritengono che offra una base utile in un'epoca di rapidi progressi tecnologici. Credono che le nuove normative siano flessibili e modificabili con l'arrivo di nuove informazioni. Tuttavia, i critici avvertono che affidarsi esclusivamente a misurazioni computazionali potrebbe limitare l'innovazione o trascurare pericoli nascosti in modelli apparentemente sicuri.
Abbiamo bisogno di metodi migliori per regolare l'IA che può evolversi e adattarsi. Queste normative devono sostenere l'innovazione gestendo al contempo i nuovi rischi. Non si tratta solo della potenza dell'IA; dobbiamo anche considerare gli impatti sociali e i contesti di utilizzo. Pertanto, le future regolamentazioni sull'IA includeranno probabilmente controlli di sicurezza migliorati e misure più dettagliate.
Le regole attuali potrebbero non essere perfette o definitive, ma aiutano a gestire il complesso mondo dell'intelligenza artificiale. L'obiettivo sarà probabilmente quello di continuare a bilanciare le nuove innovazioni con normative per assicurare un uso sicuro dell'IA in vari settori.
20 novembre 2024 · 17:56
Salto sensoriale: l'AI riconosce le texture delle superfici con tecnologia quantistica
Condividi questo articolo