Gli AI rilevatori di bugie potrebbero aumentare accuse sconsiderate, rivela uno studio.
RomeUn nuovo studio pubblicato sulla rivista iScience avverte sugli impatti sociali dei rilevatori di menzogne basati sull'intelligenza artificiale. Pubblicato il 27 giugno, lo studio rileva che i sistemi di IA potrebbero cambiare il modo in cui le persone accusano gli altri di mentire. La ricerca mostra che l'IA potrebbe rendere le persone più inclini ad accusare qualcuno di disonestà. Questo potrebbe accadere perché è più facile dare la colpa all'IA invece di assumersi la responsabilità personale.
La maggior parte delle persone crede che gli altri dicano la verità, rendendoli poco abili nel riconoscere le bugie. Le ricerche dimostrano che individuare menzogne è efficace quanto indovinare a caso. Il nuovo studio voleva capire se la presenza di AI modifichi queste abitudini e comportamenti.
Ecco quali sono stati i passaggi della ricerca:
- 986 partecipanti hanno scritto una dichiarazione vera e una falsa sui loro piani per il weekend.
- Un modello di intelligenza artificiale è stato addestrato con questi dati e ha raggiunto un'accuratezza del 66% nell'identificare le affermazioni vere e false.
- Altri 2.000 partecipanti hanno letto queste dichiarazioni per valutare se fossero vere o false.
- I partecipanti sono stati divisi in quattro gruppi: base, forzato, bloccato e scelta.
Nel gruppo di controllo, i partecipanti hanno valutato le affermazioni senza l'aiuto dell'IA, riconoscendo correttamente quelle vere e false solo il 46% delle volte. Inoltre, solo il 19% dei partecipanti ha classificato le affermazioni come false, nonostante sapessero che metà di esse lo erano. Questo dimostra una notevole esitazione nel definire qualcuno come bugiardo.
Nel gruppo obbligato, i partecipanti vedevano sempre una previsione dell'IA prima di prendere la loro decisione. In questo gruppo, oltre un terzo dei partecipanti ha dichiarato che alcune affermazioni erano false. Quando l'IA affermava che una dichiarazione era vera, solo il 13% dei partecipanti dissentiva. Ma quando l'IA sosteneva che una dichiarazione era falsa, oltre il 40% dei partecipanti era d'accordo con l'IA.
21 novembre 2024 · 15:27
Gli Stati Uniti dominano l'innovazione AI, la Cina insegue nel ranking di Stanford
Nei gruppi in cui le persone potevano scegliere di usare le previsioni dell'intelligenza artificiale, solo un terzo ha richiesto l'aiuto dell'AI. Di questi, l'84% ha seguito il consiglio dell'AI etichettando le dichiarazioni come false quando l'AI lo indicava. Questo dimostra una grande fiducia nell'AI una volta che viene utilizzata.
Nonostante fosse stato detto loro che l'intelligenza artificiale riesce a individuare le menzogne meglio degli esseri umani, molte persone non volevano utilizzarla. Il team di ricerca è rimasto sorpreso da questa reazione. Pensano che la causa possa essere l'eccessiva fiducia delle persone nella propria capacità di riconoscere le bugie.
Gli esperti dichiarano che l'IA spesso commette errori e può aumentare i pregiudizi. Nils Köbis, scienziato comportamentale dell'Università di Duisburg-Essen, sconsiglia un'eccessiva dipendenza dall'IA per decisioni importanti come quelle riguardanti le domande di asilo alle frontiere. I responsabili politici dovrebbero essere cauti nell'uso di tali tecnologie in ambiti sensibili.
Köbis sottolinea che l'IA sta suscitando molto interesse. Molti credono che questi algoritmi siano estremamente precisi e imparziali. Tuttavia, affidarsi eccessivamente a essi comporta grandi rischi, poiché l'IA ha delle imperfezioni. Questo studio dimostra che l'IA può influenzare il nostro comportamento, quindi dobbiamo riflettere attentamente su questi cambiamenti.
La società umana è fortemente contraria a fare accuse di menzogna. L'intelligenza artificiale potrebbe facilitare queste accuse, portando a denunce più azzardate, poiché le persone potrebbero affidarsi al giudizio dell'AI. I responsabili politici devono considerare questi effetti quando valutano l'uso dell'IA per il rilevamento delle bugie.
Lo studio è pubblicato qui:
http://dx.doi.org/10.1016/j.isci.2024.110201e la sua citazione ufficiale - inclusi autori e rivista - è
Alicia von Schenk, Victor Klockmann, Jean-François Bonnefon, Iyad Rahwan, Nils Köbis. Lie detection algorithms disrupt the social dynamics of accusation behavior. iScience, 2024; 110201 DOI: 10.1016/j.isci.2024.11020120 novembre 2024 · 17:56
Salto sensoriale: l'AI riconosce le texture delle superfici con tecnologia quantistica
Condividi questo articolo