OpenAI a annoncé Voice Engineun nouveau modèle d’intelligence artificielle pour la synthèse de la parole et la génération d’images ;
intelligence artificielle pour la synthèse vocale et la génération
;
de voix synthétiques capables de reproduire des voix réelles existantes
à partir de courts clips audio. La société a publié sur son site web
sur son site web, démontrant les capacités de la nouvelle technologie ;
qui permet également d’obtenir la parole à partir d’un texte écrit.
D’après les extraits partagés par OpenAI, il est clair que les entrées
concises sont sont en réalité extrêmement similaires aux originaux,
ce qui se traduit par effectivement indiscernables même pour une oreille plus qu’attentive.
attentive.
La société a prévu de lancer un programme pilote pour
permettre aux développeurs de s’abonner au moteur vocal
au début du mois de mars, mais à l’époque les plans de lancement ont été
temporairement suspendus à la suite d’une série de considérations internes
sur les aspects éthiques et les implications de cette technologie.
« Conformément à notre approche de la sécurité de l’intelligence artificielle
;
l’intelligence artificielle et à nos engagements volontaires, nous choisissons de
de donner un aperçu de cette technologie, mais de ne pas la diffuser
technologie pour le moment. Nous espérons que cet aperçu de Voice
Engine souligne son potentiel et motive la nécessité de renforcer la résilience de la société face à l’évolution de la société.
renforcer la résilience de la société face aux défis posés par des modèles génératifs de plus en plus convaincants
des modèles génératifs de plus en plus convaincants », déclare
l’entreprise.
OpenAI indique les applications possibles qui pourraient bénéficier de ce nouveau modèle d’IA ;
ce nouveau modèle d’IA, comme la capacité de fournir
;
une aide à la lecture grâce à des voix naturelles, permettant ainsi aux créateurs d’avoir une portée mondiale en traduisant le contenu tout en préservant les accents autochtones
;
une portée mondiale aux créateurs en traduisant le contenu tout en préservant les accents natifs, en soutenant le langage non verbal et en facilitant la communication entre les personnes ;
les accents natifs, aider les personnes non verbales avec des options vocales personnalisées et aider les patients à se rétablir ;
personnalisées et aider les patients à retrouver leur voix après
. avoir souffert de troubles de la parole ;
des troubles de la parole.
Mais il est clair que l’accessibilité mondiale de cette technologie présente des risques considérables, permettant de cloner n’importe quelle voix ;
risques d’une ampleur considérable, permettant de cloner n’importe quelle voix
;
dont on dispose de 15 secondes d’enregistrement, avec la possibilité (et la probabilité) élevée
possibilité (et probabilité) de abus. Il ne s’agit pas seulement d’escroqueries et
les escroqueries téléphoniques, comme on peut l’imaginer, mais aussi des actions criminelles plus sophistiquées ;
Les chercheurs ont déjà démontré comment, en général, des actions criminelles plus sophistiquées peuvent être menées ;
en général, les technologies de synthèse vocale les plus avancées peuvent permettre
de violer les systèmes biométriques qui sont précisément basés
sur l’authentification vocale.
OpenAI reconnaît elle-même que la technologie pourrait causer des « problèmes » si elle était diffusée à grande échelle ;
à grande échelle, ce qui explique pourquoi prépare un
ensemble de règles qui, au moins dans un premier temps, devraient permettre de
freiner l’utilisation abusive de Voice Enginedans les conditions d’utilisation,
Par exemple, il est interdit de représenter « une autre personne ou organisation sans son consentement ou son droit légal » ;
organisation sans son consentement ou son droit légal », il est tenu de
d’obtenir le consentement éclairé des personnes dont les voix sont clonées
et d’indiquer clairement quelles voix sont générées par l’IA. Un aspect
encore plus intéressant est l’utilisation d’un « filigrane vocal » spécial
filigrane vocal » que Voice Engine insérera dans chaque échantillon, afin de faciliter le
suivi des voix synthétiques.
« Nous adoptons une approche prudente et informée vers une utilisation plus large de la voix synthétique en raison du risque d’utilisation abusive de la voix synthétique ;
large en raison de l’utilisation potentiellement abusive de la voix synthétique. Nous espérons
entamer un dialogue sur l’utilisation responsable des voix synthétiques et sur
comment la société peut s’adapter à ces nouvelles capacités. Sur la base de
ces conversations et des résultats de ces tests à petite échelle,
nous prendrons une décision plus éclairée sur l’opportunité et la manière de mettre en œuvre cette technologie ;
technologie à grande échelle », a souligné l’OpenAI.