L’intelligenza artificiale generativa continua a mostrare il suo potenziale per usi impropri, questa volta nel contesto delle operazioni di influenza statale. Recorded Future, un’azienda di intelligence sulle minacce con sede negli Stati Uniti, ha rivelato che una recente campagna russa, denominata “Operazione Undercut”, ha probabilmente utilizzato tecnologie commerciali di generazione vocale AI, tra cui quelle sviluppate da ElevenLabs.
Una campagna mirata contro il sostegno europeo all’Ucraina
L’”Operazione Undercut” aveva l’obiettivo di minare il sostegno dell’opinione pubblica europea all’Ucraina. La campagna diffondeva video di notizie false o fuorvianti che attaccavano i leader ucraini, accusandoli di corruzione, e mettevano in discussione la validità degli aiuti militari occidentali. Un esempio emblematico è un video che screditava l’efficacia dei carri armati americani Abrams, sottolineando che nemmeno i loro avanzati sistemi di difesa sarebbero stati utili in Ucraina.
L’uso dell’AI vocale per rafforzare la propaganda
Per dare maggiore credibilità ai contenuti, i video includevano voci fuori campo generate dall’AI, parlate fluentemente in lingue europee come inglese, tedesco, francese, polacco e turco. Recorded Future ha identificato che alcune clip audio sono state “molto probabilmente” create utilizzando la tecnologia di ElevenLabs, grazie all’analisi condotta con l’AI Speech Classifier della stessa azienda. Questo strumento consente di verificare se un file audio è stato generato utilizzando i prodotti ElevenLabs.
Nonostante la raffinatezza delle voci artificiali, i creatori della campagna hanno commesso errori significativi, pubblicando alcuni video con voci umane reali che rivelavano accenti russi riconoscibili. Ciò ha evidenziato l’efficacia superiore delle voci AI nel camuffare l’origine del contenuto.
Un impatto limitato, ma preoccupazioni crescenti
Secondo Recorded Future, l’impatto dell’Operazione Undercut sull’opinione pubblica europea è stato marginale. Tuttavia, l’uso dell’AI per amplificare la disinformazione rappresenta un problema crescente. La Social Design Agency, un’organizzazione russa sanzionata dal governo statunitense, è stata indicata come responsabile della campagna. Questa agenzia gestisce una rete di oltre 60 siti web che imitano fonti di notizie autentiche per diffondere contenuti falsi, utilizzando account sui social media per amplificarli.
ElevenLabs al centro delle polemiche
Non è la prima volta che ElevenLabs viene associata a episodi di uso improprio della sua tecnologia. A gennaio 2024, una chiamata automatica che imitava la voce del presidente Joe Biden per scoraggiare gli elettori dal votare è stata ricondotta ai suoi strumenti. In risposta, l’azienda ha implementato misure di sicurezza come il blocco automatico delle voci di personaggi politici e la moderazione umana.
ElevenLabs, fondata nel 2022, ha registrato una crescita esplosiva. Con un ARR (Annual Recurring Revenue) che ha raggiunto gli 80 milioni di dollari, è valutata circa 3 miliardi di dollari. Tra gli investitori figurano nomi importanti come Andreessen Horowitz e Nat Friedman, ex CEO di GitHub.
Conclusione
Il caso evidenzia come le tecnologie avanzate di intelligenza artificiale possano essere utilizzate in modi non previsti, ponendo sfide significative per la sicurezza e la trasparenza delle informazioni. Sebbene l’impatto di questa campagna sia stato limitato, il potenziale abuso di strumenti di generazione vocale AI rimane una minaccia da affrontare con urgenza.
L’articolo ElevenLabs – AI: polemiche per uso scorretto. proviene da Futuratech.