Strumenti di trascrizione AI negli ospedali inventano dichiarazioni fittizie
RomeCrescono le preoccupazioni riguardo a Whisper, uno strumento di intelligenza artificiale per trascrivere discorsi, man mano che si diffonde nel settore sanitario. Gli studiosi hanno scoperto che il software, a volte, inventa dichiarazioni mai realmente pronunciate. Questo problema potrebbe essere estremamente pericoloso in ambito medico, dove è essenziale avere trascrizioni accurate.
Strumento sviluppato da OpenAI, Whisper è utilizzato su diverse piattaforme, tra cui i servizi cloud di Oracle e Microsoft. Molti lo impiegano per trascrivere parole pronunciate in testo, in contesti come ospedali e centri di assistenza clienti. Tuttavia, può talvolta commettere errori, il che può risultare rischioso, ad esempio fornendo informazioni mediche errate nel settore sanitario.
Whisper e la Sfida della Precisione nelle Trascrizioni
I ricercatori hanno scoperto che Whisper spesso genera informazioni imprecise. Uno studio dell'Università del Michigan ha rivelato che l'80% delle trascrizioni esaminate conteneva errori, portando a sforzi per migliorare il modello. Inoltre, un ingegnere di machine learning ha riscontrato errori in circa la metà delle trascrizioni analizzate, sottolineando un problema diffuso.
Conversazioni fraintese in ambito medico possono portare a diagnosi errate, trattamenti inappropriati o consigli non corretti ai pazienti. Questi errori possono mettere a rischio la sicurezza dei pazienti e aumentare il carico di lavoro per il personale medico che conta su informazioni precise per fornire cure adeguate.
Ecco le principali preoccupazioni messe in risalto:
Titolo: Trascrizioni imprecise mettono a rischio i pazienti
Paragrafo:
- Frequente comparsa di trascrizioni errate nel contesto medico.
- Possibili gravi conseguenze, come diagnosi sbagliate.
- Integrazione nei sistemi ospedalieri senza adeguate protezioni.
- Rischi per gruppi vulnerabili, come sordi e ipoudenti, che dipendono da trascrizioni accurate.
Problemi di affidabilità per Whisper, il popolare sistema di riconoscimento vocale. Nonostante la sua diffusione, sono emerse preoccupazioni riguardo alla precisione delle sue prestazioni. Gli errori di Whisper potrebbero indicare la necessità di regolamenti più rigidi per garantire la sicurezza e l'affidabilità degli strumenti di intelligenza artificiale.
Sempre più persone chiedono a OpenAI di risolvere questi problemi. Gli esperti ritengono che stabilire regole più severe per l'intelligenza artificiale potrebbe aiutare a ridurre questi rischi. OpenAI sta aggiornando i suoi modelli e utilizzando il feedback per renderli più precisi. Tuttavia, finché non verranno apportati significativi miglioramenti, l'uso di Whisper e strumenti di trascrizione AI simili in situazioni critiche dovrebbe essere fatto con cautela.
Condividi questo articolo