Aller au contenu principal

Voice Engine, une nouvelle application de clonage de voix, par OpenAI

OpenAI a présenté les résultats de sa technologie de clonage de voix par IA, Voice Engine. Pour des raisons de sécurité, le modèle n’est pas encore accessible au grand public.

Partager la publication

voiceengineopenai
Voice Engine, le nouveau outil d'intelligence artificielle d'OpenAI

Voice Engine, à suivre...

Dans un article de son blog, OpenAI dévoile les résultats d’un projet de recherches qui présente de nombreux risques de mauvais usages et ne peut pas, pour le moment, être mis à la disposition du grand public.

 

Les Intelligences Artificielles, c’est évident, sont très douées pour les imitations (d’après le principe d’apprentissage à la base des intelligences artificielles : j’absorbe, je mache et digère et puis je rends le résultat final).

 

En ce qui concerne le nouveau Voice Engine d’OpenAI d’avoir un échantillon de 15 secondes d’une voix pour pouvoir ensuite lire n’importe quel texte avec la voix de l’échantillon. Imaginez-vous le résultat avec un échantillon d’une heure…

C’est sans doute aussi en raison des élections du président américain qui approchent que la publication de ce nouvel outil a été retardée. Imaginez-vous un spot publicitaire dans lequel Joe Biden vante les mérites de Donald Trump. Et sans parler des malfaiteurs qui sont déjà parvenus à imiter la voix d’un dirigeant d’une grande entreprise pour se faire virer par le comptable une grosse somme d’argent sur un compte à l’étranger.

 

Les champs d’application très pertinentes de cet outil d’intelligence artificielle sont très nombreux comme par exemple faire parler des personnes muettes avec une voix naturelle ou encore des personnes ayant perdu leur voix suite à une maladie peuvent s’exprimer, via un clavier, avec leur propre voix.

 

D’autres champs d’application sont la traduction simultanée accessible à tous, ou encore des notices qui peuvent être lues au fin fond de n’importe quel pays et dans n’importe quelle langue.

 

OpenAI adopte, malgré ces cas d’utilisation très positifs,  une approche prudente pour un déploiement plus large en raison du risque potentiel d’une mauvaise utilisation des voix synthétiques.

 

Dans un communiqué, la société a déclaré dans :

“Nous reconnaissons que la production d’un discours qui ressemble à la voix des gens comporte de graves risques, qui sont particulièrement importants en cette année électorale. Nous collaborons avec des partenaires américains et internationaux issus du gouvernement, des médias, du divertissement, de l’éducation, de la société civile et au-delà pour nous assurer que nous intégrons leurs commentaires au fur et à mesure que nous construisons”.

 

Une affaire à suivre…

D'autres articles qui pourraient vous intéresser...
Retour en haut