Deepfake audio : quelle est encore cette dangereuse nouvelle arnaque ?

Des images et voix de synthèses très réalistes sont utilisées pour piéger particuliers et personnalités. Si cette technologie peut servir pour de simples canulars, elle peut aussi être exploitée pour vous faire chanter…

Des images et voix de synthèses très réalistes sont utilisées pour piéger particuliers et personnalités. Si cette technologie peut servir pour de simples canulars, elle peut aussi être exploitée pour vous faire chanter…

Deepfake ou hypertrucage. Connaissez-vous cette technologie qui vise à piéger ? Employée pour de simples canulars, elle peut aussi servir à faire chanter personnalités et particuliers. Créée grâce à l’intelligence artificielle, elle est exploitée pour réaliser des images et des voix de synthèse réalistes. Il est donc possible d’utiliser l’image de quelqu’un et de reproduire n’importe quelle voix.

Deepfake audio : trucages, canulars et fake news

Pratiqué généralement pour des trucages et autres canulars, le deepfake sert aussi à diffuser des fake news. D’ailleurs, comme le rapporte le quotidien 20 minutes, la pratique intéresse grandement les pirates informatiques.

Pour parvenir à leurs fins, ils reproduisent en effet la voix de leur cible et lui prêtent les propos qu’ils souhaitent. De nombreuses personnes ont d’ores et déjà étaient arnaquées. La technologie évoluant rapidement et les clones vocaux se perfectionnant, le nombre de victimes potentielles pourrait très vite s’agrandir.

La société de conseil en sécurité NISOS indique d’ailleurs, au sein de son dernier rapport, avoir étudié l’une de…

Lire la suite sur Planet

Ne ratez plus rien !Soyez le premier à être informé des dernières actus du web
  • Les dernières actualités politiques et sociales
  • Les bons plans et meilleurs conseils
  • Etc ...