Il premio Nobel Geoffrey Hinton avverte: servono misure di sicurezza per l'IA.
Geoffrey Hinton, che in passato era entusiasta riguardo al potenziale dell'intelligenza artificiale, ora manifesta preoccupazioni sui rischi futuri di questa tecnologia secondo il WSJ.
Geoffrey Hinton, uno dei massimi esperti di intelligenza artificiale, ha recentemente vinto il Premio Nobel per la Fisica. I suoi studi sulle reti neurali hanno contribuito allo sviluppo delle tecnologie di IA che utilizziamo oggi. Tuttavia, invece di festeggiare, Hinton sta avvertendo che l'intelligenza artificiale potrebbe essere molto pericolosa se non gestita con attenzione.
Hinton è preoccupato che i sistemi di intelligenza artificiale possano:
- Sfuggire al controllo umano
- Influenzare le elezioni
- Diventare pericoloso
- Superare l'intelligenza umana
Hinton discute dei rischi associati ai successi che cita e sottolinea la necessità di migliori misure di sicurezza. Molte aziende, come OpenAI e Google, stanno lavorando intensamente per avanzare rapidamente nel campo dell'IA. Hinton invita a trovare un equilibrio tra la creazione di nuove tecnologie e l'essere responsabili.
Opinioni Variegate tra i Ricercatori di AI
Non tutti concordano con le opinioni di Hinton. Alcuni ricercatori ritengono che Hinton esageri i pericoli. Pensano che un'eccessiva preoccupazione su questi pericoli potrebbe rallentare il progresso. Melanie Mitchell, professoressa al Santa Fe Institute, afferma che dovremmo concentrarci su problemi immediati come la discriminazione. Gli scettici credono che l'IA odierna non abbia la capacità di causare danni seri. Spesso citano la comprensione limitata che l'IA ha del mondo reale.
Yann LeCun, un esperto di intelligenza artificiale, è scettico riguardo all'idea che un'intelligenza artificiale avanzata possa causare danni significativi. Ritiene che questa opinione sia esagerata. Secondo LeCun, l'IA non è nemmeno intelligente quanto gli animali più semplici, quindi non vede motivo di preoccuparsi che essa diventi improvvisamente autonoma.
Hinton è dedicato alla sua missione. Ha lasciato il suo lavoro presso Google per poter discutere liberamente dei pericoli dell'AI. Invita le aziende a investire più risorse nel rendere l'AI più sicura. Anche se alcune persone non sono d'accordo con lui, il suo Premio Nobel rafforza la sua reputazione e aiuta a diffondere il suo messaggio.
Si moltiplicano le richieste per leggi e politiche aziendali che affrontino queste problematiche.
Hinton non sta solo avvertendo le persone; desidera che vengano intraprese azioni concrete. Ha firmato un documento che richiede investimenti nella ricerca sulla sicurezza dell'IA. Hinton ritiene che le grandi aziende tecnologiche dovrebbero spendere ingenti somme di denaro in questo ambito. Inoltre, pensa che il governo debba intervenire per garantire che ciò avvenga. Ha appoggiato una proposta di legge in California che mirava a far sì che gli sviluppatori garantissero che i loro sistemi di IA siano sicuri e non causino danni significativi.
Il governatore della California, Gavin Newsom, ha respinto la proposta di legge perché le grandi aziende tecnologiche erano contrarie. Questo è una delusione per i piani di Hinton. Tuttavia, Hinton continua a cercare di persuadere i decisori politici e i leader tecnologici, come Elon Musk, sull'importanza della sicurezza nell'ambito dell'intelligenza artificiale.
Le preoccupazioni di Hinton pongono l'accento su un'importante discussione nello sviluppo dell'intelligenza artificiale. È fondamentale trovare un equilibrio tra il progresso e la cautela. Le aziende vogliono innovare, ma non a scapito della sicurezza. Politici e ricercatori stanno discutendo su come l'AI dovrebbe evolversi in futuro, valutando i benefici rispetto ai rischi. Gli avvertimenti di Hinton dimostrano che è importantissimo sviluppare l'intelligenza artificiale in modo responsabile per garantire un futuro sicuro.
20 novembre 2024 · 17:56
Salto sensoriale: l'AI riconosce le texture delle superfici con tecnologia quantistica
Condividi questo articolo