Powered By Blogger

Rechercher sur ce blogue

Aucun message portant le libellé Deepfakes. Afficher tous les messages
Aucun message portant le libellé Deepfakes. Afficher tous les messages

vendredi 16 février 2024

Le deep fake, un nouveau risque pour la fraude bancaire

 

Le deep fake, un nouveau risque pour la fraude bancaire

À l’ère de l’intelligence artificielle, les risques de l’authentification vocale dans le domaine bancaire sont bien réels.

-La plupart des institutions financières canadiennes, comme Desjardins, CIBC et BMO, offrent depuis quelques années l’authentification vocale : une centaine de caractéristiques de la voix (intonation, accent, timbre sonore, débit, etc.) sont utilisées pour vérifier l’identité d’un client au téléphone sans lui poser de questions personnelles telles que le nom de jeune fille de sa mère ou le montant de sa dernière transaction.


Comme les empreintes digitales, les empreintes vocales sont uniques d’une personne à l’autre. Même un André-Philippe Gagnon au sommet de son art ne saurait imiter une voix au point de déjouer un système d’authentification moderne. Toutefois, certains outils d’intelligence artificielle (IA) sont désormais beaucoup plus précis que le célèbre imitateur québécois. Si aucune fraude du genre n’a encore été signalée au pays, selon le Centre antifraude du Canada, les dernières avancées en IA inquiètent des experts. 


Car tout comme avec les hypertrucages vidéos (deep fakes), quelques minutes d’enregistrement de la voix d’une personne suffisent maintenant pour la reproduire avec une impressionnante fidélité. Assez pour déjouer les systèmes d’authentification vocale ? C’est le défi que s’est récemment donné le laboratoire du professeur de sciences informatiques Urs Hengartner, de l’Université de Waterloo.



« Nous avons été capables de berner tous les systèmes auxquels nous nous sommes attaqués », résume le chercheur à L’actualité. Son équipe n’a pas fraudé de banques pour faire sa démonstration, elle a plutôt visé les meilleurs systèmes de reconnaissance vocale sur le marché (l’équivalent d’acheter un coffre-fort pour en tester la solidité au lieu d’effectuer un véritable braquage).


Pour répéter l’exploit, un fraudeur n’aurait besoin que d’enregistrements audios d’une personne, d’un peu d’argent pour utiliser des outils en ligne et d’une certaine connaissance technologique. « Ça n’existe pas encore, mais quelqu’un pourrait créer un logiciel qui automatiserait le tout, et alors, n’importe qui pourrait reproduire ces attaques », craint Urs Hengartner. Le chercheur note également qu’il est facile de « voler » une voix en enregistrant quelqu’un à son insu ou en repiquant des vidéos publiées sur les réseaux sociaux, par exemple.


Le spectre de l’hypertrucage vocal ne semble pas angoisser l’industrie bancaire pour autant. « Desjardins est consciente de l’émergence de cette nouvelle forme d’escroquerie et nous avons des stratégies en place pour les contrer », affirme Camille Garcia Bigras, conseillère principale à la direction principale des solutions, canaux assistés, chez Desjardins, dont le service d’authentification vocale est utilisé par plus de 1,5 million de membres depuis son lancement à l’été 2021.



L’authentification vocale est effectuée tout au long de la conversation, et non seulement au début, ce qui complexifie la tâche pour le fraudeur, puisqu’il doit maintenir le leurre pendant toute la discussion. Le rythme décousu d’une conversation avec un pirate qui devrait taper la réponse à chaque question sur un clavier alerterait l’agent, qui utiliserait alors les autres méthodes d’authentification, comme les questions de sécurité.


« Aucune mesure de sécurité n’est parfaite. Les banques analysent le risque et les bénéfices, et elles implémentent les mesures seulement si ça en vaut la peine », explique Urs Hengartner.


En cas de fraude vocale, les clients ne seraient pas tenus responsables, affirment les institutions financières consultées. Ceux qui ne veulent pas risquer d’être les premières victimes peuvent néanmoins ne pas adhérer à ces services, ou encore s’en désinscrire.


REF.: https://lactualite.com

jeudi 6 avril 2023

Deepfake porno : des vidéos truquées à la portée de tous

 Deepfake porno : des vidéos truquées à la portée de tous

 Par: 

Les deepfakes pornographiques fleurissent sur le Web, au point où des sites et des applications se spécialisent dans ce type de contenu. Le pire, c'est que les outils pour créer ces vidéos truquées deviennent accessibles à tous…

Les avancées technologiques sont formidables, mais elles entrainent inévitablement toutes sortes de dérives. C'est le cas des deepfakes, des images – photos ou vidéos – qui utilisent l'intelligence artificielle pour superposer un visage sur un autre visage – et donc reproduire de "fausses" personnes. S'ils sont utilisés dans le monde du cinéma – l'actrice Carrie Fisher a ainsi pu "reprendre" son rôle de la princesse Leia dans Star Wars IX malgré son décès – et peuvent se révéler divertissants – comme sur l'application Snapchat –, ils peuvent aussi être utilisés à des fins malveillantes, au point de devenir un véritable danger sur Internet. Or, comme les deepfakes sont capables de faire dire ou faire n'importe quoi à n'importe qui, ils sont parfois utilisés à des fins pornographiques, entachant l'image des personnes dont l'identité a été volée, qui n'ont bien évidemment pas donné leur consentement. Et le trafic vers les sites qui hébergent ce type de vidéos ne cesse d'augmenter. Pire encore, des applications permettant de réaliser ce genre de montage n'hésitent pas à faire leur publicité sur les réseaux sociaux, comme l'a remarqué NBC News.

Deepfake pornographique : des pubs sur Facebook

Une journaliste a eu le déplaisir de trouver sur Facebook une publicité pour l'application FaceMega mettant en scène une personne avec le visage d'Emma Watson. Celle-ci regarde la caméra d'un air coquin avant de se baisser devant la personne qui filme. La vidéo s'arrête ici, mais elle ne laisse aucun doute sur la suite des événements. Et même si ce n'est jamais dit de façon explicite, le slogan "Insère n'importe quel visage dans la vidéo" couplé aux images est sans équivoque : il s'agit d'une application pour créer des deepfakes pornographiques. De plus, certaines publicités se permettent même d'utiliser le son d'introduction de célèbres vidéos postées sur Pornhub....

D'après l'enquête de la NBC, ce ne sont pas moins de 230 publicités de ce genre qui ont été diffusées sur les réseaux sociaux de Meta durant le week-end du 4 et du 5 mars. Même si FaceMega propose des templates (des modèles avec des éléments modifiables) "innocents", avec des catégories 'Mode", "TikTok" ou "Mariage" par exemple, la catégorie "Hot" permet de s'en donner à cœur joie. Elle propose des vidéos de femmes et d'hommes légèrement vêtus qui dansent et prennent des poses suggestives. Après avoir sélectionné un modèle ou téléchargé leur propre vidéo, les utilisateurs peuvent saisir une simple photo du visage de n'importe qui et recevoir en quelques secondes une version de la vidéo dans laquelle le visage a été modifié. Et autant dire que c'est cette fonction-là qui a le plus de succès ! Une étude de 2019 estime à 96 % la part de montages pornographiques dans le milieu des deepfakes.

"Cela pourrait être utilisé avec les lycéens des écoles publiques qui sont victimes d'intimidation", alerte la journaliste Lauren Barton, qui a signalé la publicité sur Twitter. " Cela pourrait ruiner la vie de quelqu'un. Ils pourraient avoir des problèmes au travail. Et c'est extrêmement facile à faire et gratuit. Tout ce que j'ai eu à faire, c'est de télécharger une photo de mon visage et j'ai eu accès à 50 modèles gratuits." L'application est disponible sur le Play Store et l'App Store depuis 2022. Initialement, elle permettait de créer des deepfakes gratuitement, mais il faut maintenant payer 8 dollars par semaine. Elle stipule pourtant dans ses conditions générales d'utilisateurs qu'elle peut être utilisée par des enfants à partir de 9 ans et qu'elle n'autorise pas la publication de vidéos à caractère pornographique.

Deepfake porno : une explosion de la pratique

Depuis, FaceMega a été supprimé des deux magasins d'applications, mais ce n'est qu'un exemple parmi tant d'autres. Selon l'analyste indépendante Genevieve Oh, le nombre de deepfakes pornographiques sur Internet a doublé depuis 2018. De son côté, Pornhub a décidé de bannir les deepfakes dès 2018. Pour ça, la plateforme utilise une IA qui passe en revue les vidéos mises en ligne. Le problème, c'est que certains contenus sont tellement bien faits qu'ils passent à travers les mailles du filet. Pire encore, des sites payants spécialisés dans les deepfakes pornographiques ont vu le jour. Genevieve Oh a constaté dans ses analyses que le trafic de ces sites Web a explosé ces dernières semaines, mais le problème était déjà là avant, il ne fait que prendre de l'ampleur. En 2021, le média Wired avait découvert un important site de deepfake – dont nous tairons le nom – conçu spécifiquement pour générer de fausses photographies à caractère érotique ou pornographique. Entre janvier et octobre 2021, il avait reçu plus de 50 millions de visiteurs ! Des restrictions ont depuis permis de réduire sa fréquentation, mais il a entre-temps mis au point un véritable business plan pour s'étendre via d'autres sites partenaires.

 

Il y a quelques semaines, un important scandale a secoué la plateforme Twitch. En effet, en janvier 2023, le streamer Atrioc avait partagé son écran en direct et, dans l'un de ses onglets, des deepfakes pornographiques mettaient en scène de célèbres streameuses comme Pokimane et Higa. On imagine le sentiment d'horreur et d'humiliation que ces femmes ont dû ressentir en se voyant sujettes à de telles vidéos. Depuis, Twitch a durci sa politique et a annoncé la mise en œuvre de sanctions immédiates dès la première infraction constatée allant à l'encontre de ces règles. Mais là encore, ce n'est qu'un exemple, une goutte dans un vaste océan. Et c'est sans compter les forums ou salons privés comme Telegram ou Discord, où des personnes s'échangent des contenus deepfakes à tout va, sans aucun contrôle. Pour ne rien arranger, cette technologie est encore trop peu reconnue du côté de la législation. En France, le deepfake n'est pour le moment spécifié dans aucune loi et bénéficie donc d'une zone grise de la législation. Jusqu'à quand ?

 

REF":  https://www.commentcamarche.net/informatique/intelligence-artificielle/27837-deepfake-porno-des-videos-truquees-a-la-portee-de-tous/

jeudi 26 avril 2018

DeepFakes – Remplacez un visage dans n’importe quelle vidéo



La nouvelle coqueluche de Reddit depuis fin janvier, s'appelle Deepfakes.
Il s'agit d'un soft qui en utilisant du machine learning, est capable de décomposer frame par frame une vidéo, pour remplacer le visage de quelqu'un par quelqu'un d'autre.
Mais attention, il ne s'agit pas d'un simple trucage cinématographique… non, non.
En nourrissant l'algo de nombreuses photos, celui-ci est capable de reconstituer un visage dans ses moindres détails et de le faire parfaitement correspondre à un autre, en reconstituant, y compris, les parties qu'il ne connaît pas.
Machine learning FTW !
<noscript><iframe width="800" height="450" src="https://www.youtube.com/embed/8Pm4EDofw4c?feature=oembed" frameborder="0" allow="autoplay; encrypted-media" allowfullscreen></noscript>
L'utilisation première de Deepfakes est donc pour le moment, de remplacer le visage d'acteurs ou d'actrices pornos par celui de célébrités pour faciliter la vie de ceux qui manquent d'imagination.
Évidemment, la mise à disposition de tous de cet outil provoque la colère de certains (à Hollywood principalement) et soulève beaucoup de questions sur la légitimité ou pas de faire ça. Nicolas Cage continue sa carrière de meme, marchant dans les pas de Chuck Norris, et même Pornhub ne veut plus de vidéo DeepFakes sur ses serveurs.
Mais si on fait abstraction de cet usage, c'est quand même une chouette techno. Comme je n'ai pas vraiment envie d'afficher du porno ici (à votre plus grand regret, je sais), je vais plutôt reprendre comme exemple cette utilisation qu'a fait Sven Charleer de DeepFakes.
Il a pris en photo le visage de sa femme Elke, sous de nombreux angles…
Elke, la femme de Sven
Puis a sélectionné un morceau d'interview d'Anne Hathaway au Tonight Show avec Jimmy Fallon…
Anne Hathaway
Et voilà le résultat. Sa femme au Tonight Show plus réaliste que réaliste…
Sympa comme utilisation non ? Amusant de pouvoir faire figurer quelqu'un dans son émission ou son film préféré.
C'est une chouette surprise je trouve 😉
Quoiqu'il en soit, si cet outil vous intéresse, voici quelques liens qui vous en apprendront plus.
Amusez-vous bien !

REF.: