Ce logiciel espion pirate la reconnaissance faciale de votre smartphone pour vider votre compte en banque
13/05/24 07:14
À partir d'une simple photo de votre visage, des pirates peuvent désormais tromper la reconnaissance faciale de votre téléphone et accéder à toutes vos données personnelles, y compris à votre compte en banque.
Imaginez un pirate informatique qui peut voler votre visage pour vider votre compte bancaire. Ce n'est plus de la science-fiction, mais bien une réalité terrifiante avec l'émergence d'un nouveau logiciel malveillant qui cible des smartphones depuis quelques mois dans plusieurs pays du monde. Et s'il vise pour le moment des utilisateurs d'iPhone, il pourrait bien être décliné dans une version pour Android qui ferait bien plus de victimes.
Ce logiciel espion, baptisé GoldPickaxe.iOS par les experts en cybersécurité, s'attaque à vos données faciales stockées sur votre iPhone, ainsi qu'à vos SMS. Son but ? Réaliser des escroqueries élaborées en utilisant des deepfakes, ces vidéos truquées ultra-réalistes qui permettent de faire dire ou faire n'importe quoi à n'importe qui.
Le malware fonctionne en plusieurs étapes. Tout d'abord, il dérobe vos photos du visage présentes sur votre téléphone. Ces photos sont ensuite envoyées à un service de "face swap" utilisant l'intelligence artificielle. Ce service crée un deepfake très ressemblant de votre visage, permettant au pirate de se connecter à votre compte bancaire via la reconnaissance faciale.
Mais pour valider la transaction, le pirate a besoin d'un code à usage unique. C'est là qu'intervient la seconde partie du plan machiavélique : le logiciel espion intercepte également vos SMS, notamment ceux contenant ces codes envoyés par votre banque. Ainsi, avec votre visage volé et votre code SMS piraté, le pirate a tout ce qu'il lui faut pour vider votre compte bancaire en un clin d'œil !
Pour l'instant, cette attaque semble se concentrer sur les utilisateurs d'iPhone en Asie-Pacifique. Les pirates utilisaient d'abord le service TestFlight d'Apple pour diffuser leur malware, mais ils ont maintenant recours à l'ingénierie sociale. Ils envoient des SMS ou des emails se faisant passer pour des institutions officielles, incitant les victimes à cliquer sur un lien malveillant ou à installer une fausse application.
La bonne nouvelle est que ce malware ne peut s'installer que si vous cliquez sur un lien vérolé ou si vous installez une application infectée. Soyez donc extrêmement vigilants avec les messages et les mails que vous recevez, , et méfiez-vous avant de cliquez sur des liens ou d'installer des applications, même s'ils semblent provenir d'une source officielle. N'oubliez jamais que la cybersécurité est un combat permanent. Restez informés des dernières menaces et adoptez des gestes simples pour protéger vos données personnelles, en activant notamment la double authentification sur toutes vos applications bancaires et autres services importants.
Dans une présentation
financière longue de 55 pages destinée aux investisseurs, Clearview AI,
entreprise spécialisée dans la reconnaissance faciale, dévoile ses
ambitions pour l’avenir… Et il y a de quoi donner des sueurs froides aux
défenseurs de la vie privée.
D’ores et déjà très controversée,
la firme américaine voit pourtant très loin et souhaite largement
étendre ses capacités. Pour cela, elle fait appel aux investisseurs.
La reconnaissance faciale pour la police, l’e-commerce, les banques…
La société assure que depuis début
2020, elle est passée de 3 milliards à plus de 10 milliards d’images
dans sa bibliothèque de visages. Elle explique en outre que son système
de collecte de données ingère 1,5 milliard de visuels chaque mois. Si
elle parvient à engranger 50 millions de dollars de financement,
l’entreprise explique qu’elle sera en mesure d’accroître ses pouvoirs de
collecte à 100 milliards de photos d’ici l’année prochaine, soit
l’équivalent d’environ 10 visages pour chaque personne présente sur Terre.
Elle espère ainsi créer de nouveaux produits, élargir son équipe de
vente internationale et exercer un lobbying plus poussif pour faire
pression sur les décideurs gouvernementaux.
Alors que la majorité des géants
technologiques ont décidé de lever le pied et de laisser la
reconnaissance faciale de côté pour des raisons éthiques, Clearview AI y
voit une immense opportunité commerciale afin de prendre une place
laissée vacante par ces derniers. La firme explique ainsi qu’en plus de
permettre à la police d’identifier des criminels, son système pourrait
également servir à la gig economy, c’est-à-dire aux entreprises
collaboratives telles qu’Uber, en leur permettant de surveiller
davantage leurs travailleurs. Elle considère également des secteurs
comme l’e-commerce, le retail et la finance comme de potentiels pans de
croissance pour sa technologie.
Clearview AI assure par ailleurs que
son système est plus efficace que celui qui est exploité en Chine pour
la surveillance de masse de la population. La firme travaille désormais
sur de nouvelles technologies permettant d’identifier une personne selon
sa démarche, et même de scanner des empreintes digitales à distance.
Toujours pas de législation à l’échelle fédérale sur cette technologie outre-Atlantique
Actuellement, il n’existe aucune législation à l’échelle fédérale américaine pour réguler l’usage de la reconnaissance faciale, malgré plusieurs tentatives de certains députés. Si certains États ou villes, à l’instar de Los Angeles, ont décidé d’y avoir moins recours, la technologie peut être utilisée par les autorités fédérales. Par exemple, Cleaview AI a joué un rôle déterminant dans l’identification de certains supporteurs de Donald Trump lors de l’assaut du Capitole le 6 janvier 2021.
L’entreprise a ainsi déclaré qu’elle
s’attendait à ce que ses revenus fédéraux annuels atteignent 6 millions
de dollars cette année ; elle espère en outre « augmenter de 300 % l'utilisation globale
» de son produit par les agences de police étatiques et locales. Cela
risque néanmoins d’être compromis sur le Vieux Continent. Les députés
européens ont en effet voté, en octobre dernier, une résolution contre la surveillance de masse
à l’aide de l’IA. Par ailleurs, Clearview AI a déjà été dans le viseur
des autorités françaises, qui l’ont récemment sommée de supprimer ses
données sur les citoyens français.
Il est difficile de savoir si les
plans gargantuesques de Clearview AI sont réalisables pour le moment.
Afin de convaincre les investisseurs, l’entreprise en appelle au
patriotisme américain, et assure que son système permettra de défendre
bien plus efficacement le pays. Il ne faut toutefois pas perdre de vue
ses ambitions commerciales qui, si elles aboutissent, étendraient
largement l’utilisation de la reconnaissance faciale.
PimEyes : un outil de reconnaissance faciale inquiétant
Grâce à la reconnaissance faciale,
le moteur de recherche PimEyes dispo en version payante, peut retrouver des photos et des vidéos
publiées sur Internet à partir d'un visage. Un outil redoutablement
efficace, qui ouvre la voie à des dérives inquiétantes…
Vous connaissez sans doute le principe de la reconnaissance faciale.
Utilisée dans de nombreux domaines liés à la sécurité, cette
technologie d'analyse de visage permet, par exemple, d'identifier des
intrus lors d'infractions grâce à des caméras de vidéosurveillance, de
franchir un portique de contrôle dans un aéroport. ou encore, dans un
registre plus quotidien, de déverrouiller un smartphone ou un
ordinateur, sans saisir de code. Intégrée dans de nombreux dispositifs
spécialisés, elle est aussi exploitée dans des applications grand public
– comme Facebook, qui l'utilise pour identifier des amis –, mais
également accessible via des services en ligne, via des moteurs de
recherche permettant de retrouver des personnes à partir d'une image de
leur visage. Le problème, c'est que certains sont tellement efficaces
qu'ils en deviennent inquiétants.
PimEyes : un outil de reconnaissance faciale terriblement efficace
C'est notamment le cas de PimEyes,
un puissant service en ligne qui défraie actuellement la chronique.
Accessible à tout le monde – contrairement au célèbre Clearview AI, qui
est réservé aux forces de l'ordre –, moyennant un abonnement de 30
dollars par mois – soit une trentaine d'euros –, ce moteur de recherche
inquiète par ses performances. D'autant que son fonctionnement est très
simple : il suffit de soumettre un visage pour que l'algorithme de
reconnaissance faciale de PimEyes retrouve toutes les photos et vidéos
publiées sur Internet où la personne apparaît. Et PimEyes est tellement
efficace qu'il est capable d'identifier des personnes sur des images où
elles apparaissent en portant des lunettes ou une casquette ! Difficile
de le tromper…
PimEyes ne recense que les images publiées sur Internet et
disponibles au public, évitant les photos sur les réseaux sociaux comme
Twitter, Instagram ou Facebook si elles sont mises en mode privé. Le but
officiel est de pouvoir surveiller sa réputation en ligne en sachant où
une personne apparait sur Internet, comme l'explique le directeur du
logiciel Giorgi Gobronidze, un Géorgien de 34 ans, dans la FAQ du moteur : "Avec
PimEyes, vous pouvez vérifier quels sites web accessibles ont publié
des photos contenant un visage donné. Vous pouvez utiliser ces
informations pour retrouver les images qui ont été publiées sans votre
consentement et vous défendre contre les escroqueries, le catfishing ou
le vol d'identité."
PimEyes : des utilisations très indiscrètes
Cependant, rien n'empêche les internautes d'utiliser cet outil à des
fins malveillantes. Il est possible, par exemple, de chercher des photos
de n'importe quelle personne puisqu'il suffit simplement de cocher une
case affirmant que vous êtes bien la personne en question pour accéder
aux données de PimEyes.
Les journalistes du New York Times
ont décidé de tester les capacités du moteur de recherche et les
différentes utilisations qu'il est possible d'en faire. Et le moins que
l'on puisse dire, c'est que PimEyes est très performant, détectant les
visages sur les photos de mariages, de fêtes, de festivals ou encore en
arrière-plan sur une photo de touriste. Mais certaines photos sont plus
problématiques, et le journal révèle des histoires inquiétantes. Un des
testeurs a ainsi avoué avoir eu recours au moteur pour identifier les
personnes avec un pseudo qui le harcèlent sur Twitter.
Un autre confie avoir découvert les véritables identités d'actrices de
films pornographiques et recherché des photos explicites de ses
connaissances Facebook. Une
ingénieure en informatique américaine a testé l'outil avec l'une de ses
photos et a eu le malheur de retrouver une vidéo pornographique dont
elle ne connaissait pas l'existence. Elle a donc essayé de l'effacer en
payant, mais les journalistes du New York Times ont pu retrouver la
vidéo un mois plus tard… L'absence de contrôle permet donc de facilement
trouver un visage qui n'est pas le sien, et il faut payer de nouveau
pour pouvoir retirer une photo compromettante d'Internet.
Un bilan inquiétant, d'autant que PimEyes compte des dizaines de
milliers d'abonnés, la plupart situés aux États-Unis et en Europe. Le
moteur est actuellement visé par une enquête en Allemagne pour
violations de la loi européenne sur la protection de la vie privée. Il
est donc primordial de faire très attention à ce que vous et vos proches
postez sur Internet, car cela peut rester à vie et vous mettre dans des
situations très compromettantes.
Cette enquête, à laquelle se joignent aussi la Colombie-Britannique et l'Alberta, fait suite à des reportages qui
ont soulevé la possibilité que l'entreprise puisse recueillir et
utiliser des informations personnelles de citoyens sans leur
consentement.
La technologie de Clearview AI permet de relier un grand
nombre d'images provenant de diverses sources, qui peuvent aider ensuite
les corps policiers et les institutions financières à identifier des
individus.
Le commissaire à la protection de la vie privée du
Canada, Daniel Therrien, indique que les quatre agences détermineront si
les pratiques de Clearview respectent les lois canadiennes sur la
protection des renseignements personnels.
Le Commissariat à la protection de la vie privée du
Canada indique aussi que les agences de protection de la vie privée de
toutes les provinces et de tous les territoires ont convenu d'élaborer
ensemble des orientations à l'intention des organisations, y compris les
corps policiers, sur l'utilisation de la technologie biométrique, dont
la reconnaissance faciale.
Un système de sécurité laisse fuiter plus d'un million d'empreintes digitales
Un grand nombre de sociétés se reposent sur une base de données
biométrique pour permettre aux employés d'entrer dans des locaux
protégés. Mais comme parfois en sécurité informatique, des failles sont
présentes et permettent d'accéder à ces données sensibles.
Et c'est une affaire du genre qui a touché le système de sécurité BioStar 2 de la société Suprema. Une faille de sécurité
majeure détectée, par une équipe de recherche en cybersécurité appelée
vpnMentor. Cette découverte a été relayée par Noam Rotem, l'un des
chercheurs de l'équipe. Suprema a depuis expliqué que la faille a été
comblée suite à ces révélations.
Un million d'empreintes digitales exposés
C'est une faille de taille que présentait le système de sécurité BioStar
2, développé par Suprema. Un système utilisé par des instances
importantes, comme la police britannique ou encore des banques. Dans le
fichier se trouvait notamment un million d'empreintes digitales permettant aux personnes autorisées d'accéder à certains bâtiments.
À travers cette faille, le chercheur Noam Rotem de vpnMentor, à l'origine de la découverte, explique qu'il était possible d'ajouter son empreinte digitale dans la base de données ou de remplacer celle de quelqu'un déjà enregistré.
L'affaire est d'autant plus grave qu'en plus du million d'empreintes digitales, des mots de passe et données liées à la reconnaissance faciale n'étaient pas cryptés. N'importe qui aurait pu les utiliser à des fins malveillantes.
Comme l'explique Suprema, c'est depuis mercredi dernier que la faille de sécurité a été corrigée. Il aura fallu que l'affaire soit révélée pour que les dispositions soient prises.
Et pour cause : Noam Rotem explique avoir tenté d'alerter Suprema quant à
cette faille majeure, mais que la firme n'a jamais répondu. Face à ce
silence, le chercheur de vpnMentor a donc décidé de dévoiler à la
presse, comme l'important The Guardian, la présence de cette faille
exposant plus d'un million d'empreintes digitales, mots de passe et
autres données sensibles.
Pour Noam Rotem, l'un des points les plus graves vient notamment du fait
que, contrairement à un mot de passe, modifier une empreinte digitale
ou un visage (pour la reconnaissance faciale) est impossible à détecter
en cas d'ingérence.
Une amende record pour Facebook, utilisant la reconnaissance faciale sans accord
L’utilisation
de la reconnaissance faciale de manière illégale par Facebook devrait
entraîner le réseau social à une nouvelle fois payer cher. Une amende
record pourrait voir le jour.
Il y a moins d’un mois, la collecte de données personnelles chez les
géants du numérique a connu sa plus forte amende. Réclamée à Facebook,
cette dernière s’élevait à 5 milliards d’euros à régler à la FTC (Federal Trade Commission),
pour violation du droit de la vie privée sur les réseaux sociaux. Une
pénalité demandée suite au scandale de Cambridge Analytica. Mais les ennuies ne semble pas s’en arrêter là,
pour le groupe de Mark Zuckerberg. D’un côté, le géant du numérique
doit déjà faire face à une nouvelle affaire impliquant Instagram et l’un
de ses principaux partenaires publicitaires, suite à des récupérations
de données confidentielles des utilisateurs de la plateforme. De
l’autre, la cour d’appel de San Francisco a confirmé une nouvelle amende
pour l’utilisation illégale de la reconnaissance faciale par la
plateforme. L’information a été révélée par l’agence Reuters.
Facebook utilisait un système d’intelligence artificielle sans notre accord
Lors
de la séance, l’ensemble des juges ont rejeté l’appel de Facebook. Le
réseau social se défend d’un recours collectif provenant de l’état de
l’Illinois, où de multiples utilisateurs de la plateforme n’ont pas
apprécié l’arrivée de la fonctionnalité « suggestion d’identification ».
Vous
aussi, vous avez déjà certainement pu voir cette fonctionnalité en
publiant une photo de groupe sur Facebook. Une fois mis en ligne et
avant sa publication, le réseau social vous propose d’identifier les
personnes présentes sur la photo. Sauf que pour faciliter la tâche, des
propositions de comptes s’affichaient automatiquement. Les noms étaient
de façon surprenante, les bons.
C’est de là que ces utilisateurs
ont pu découvrir l’utilisation non accordée d’un logiciel de
reconnaissance faciale par Facebook. Selon l’agence Reuters relayée par The Next Web, « la
technologie analyse les détails des visages des personnes sur les
photos – la distance entre leurs yeux, leur nez et d’autres
caractéristiques – afin de créer un modèle de visage pouvant être
utilisé pour les identifier sur d’autres photos ».
Une amende record, pour régler les dommages-intérêts
Sauf que cette fonctionnalité enfreignait clairement la loi. Dans l’Etat de l’Illinois, cette dernière s’appelle le Biometric Information Privacy Act (BIPA),
obligeant les sociétés à élaborer une « politique écrite » publique
avant la collecte de ces données personnelles, afin d’en informer les
utilisateurs et leur demander une permission claire, passant par
l’acceptation de la politique de confidentialité.
La 9ème
cour d’appel de San Francisco, possédant la compétence sur le siège
social de Facebook à Menlo Park, a unanimement rejeté l’appel de
Facebook contre le recours collectif. « Nous concluons que le
développement d’un modèle de visage utilisant une technologie de
reconnaissance faciale sans consentement envahit les affaires privées et
les intérêts concrets d’un individu », a déclaré le tribunal dans sa décision.
A combien s’élèvera l’amende de Facebook ?
Pour l’Union américaine pour les libertés civiles, il s’agit là d’une « grande
victoire pour le droit à la vie privée, et elle met en avant les
dangers posés par l’utilisation accrue des technologies de
reconnaissance faciale ». Il faut dire que l’amende devrait être très élevée pour Facebook, alors que Reuters note que le procès « pourrait inclure 7 millions d’utilisateurs de Facebook ». En se basant sur les textes du BIPA,
les dommages-intérêts pourraient s’élever à plusieurs milliards de
dollars d’amende, tant chaque utilisateur concerné par la collecte
biométrique illégale de Facebook pourrait avoir droit à 1 000 $ de
dommages-intérêts pour chaque violation négligente, et jusqu’à 5.000 $
pour chaque infraction de violation intentionnelle.
FaceApp : pourquoi il faut se méfier de l’application et de son filtre à selfie pour se voir vieux
L’application, gratuite et développée en Russie, est devenue très
populaire ces derniers jours grâce à sa retouche automatique de photos,
permettant de se voir avec 60 ans de plus.
Par Michaël SzadkowskiPublié le 17 juillet 2019 à 19h46 - Mis à jour le 18 juillet 2019 à 10h23
De
nombreuses célébrités, mais aussi des anonymes, se prêtent au jeu de
montrer à quoi elles pourraient ressembler en ayant soixante ans de
plus. Après le filtre qui permettait de transformer un garçon en fille,
ou inversement, proposé par Snapchat et popularisé au printemps,
voici venu le filtre pour se vieillir, FaceApp, dont les exemples se
répandent ces derniers jours comme une traînée de poudre sur Instagram,
Facebook et Twitter.
1 – De quoi s’agit-il exactement ?
Ce
filtre à selfie qui vieillit le visage est proposé par l’application
FaceApp, disponible sur AppStore et PlayStore. L’application était, note Le Huff Post, en tête des classements des applications les plus téléchargées sur iPhone et Android, mercredi 17 juillet.
FaceApp
n’est pourtant pas une application nouvelle. Développée en Russie par
une petite équipe basée à Saint-Pétersbourg, elle est sortie en
janvier 2017. Elle proposait déjà un filtre pour se vieillir, en plus
d’autres filtres qui ont également connu un certain succès, comme celui
qui permet d’ajouter un sourire à un visage… L’application a déjà suscité des jeux viraux, comme de rendre leur sourire à de vieilles peintures.
Le très récent regain d’intérêt pour FaceApp semble partir d’un
« FaceApp Challenge » alimenté par des célébrités qui, se prenant au
jeu, ont posté des photos où elles se sont vieillies.
FaceApp s’est aussi fait connaître pour avoir, l’année de son lancement, suscité un scandale :
avec son filtre pour rendre les gens plus « hot », l’application
blanchissant parfois la peau des personnes noires sur leurs selfies.
Accusés de racisme, les responsables de l’application ont fini par
retirer le filtre en question.
2 – Comment l’application fonctionne-t-elle ?
FaceApp
est d’une simplicité confondante, avec une interface basique permettant
de retoucher des selfies grâce à des filtres préétablis, puis de les
enregistrer ou de les partager dans d’autres applications. Si FaceApp
est disponible gratuitement, il faut ensuite payer pour l’utiliser sans
publicité et disposer de l’intégralité des filtres proposés (environ
20 euros par an, ou 4 euros pour un mois). Mais les filtres de base,
comme celui qui permet de vieillir son visage, sont gratuits.
Pour
fonctionner, FaceApp applique des modifications automatiques à la photo
d’un visage. Ces images peuvent être prises avec la fonction selfie de
l’application, être retrouvée dans la galerie photo du smartphone de
l’utilisateur (s’il lui en a donné l’accès) ou en faisant une recherche
sur Internet, grâce à un moteur de recherche intégré, qui propose
également de retrouver des visages de célébrités.
Contrairement
à ce qui a été dit, FaceApp en ligne ne télécharge pas automatiquement
toutes vos photos sur ses serveurs sans que vous le sachiez. Il ne
dispose pas d’accès à l’intégralité des photos d’un smartphone sans le
consentement explicite de l’utilisateur, selon les sites spécialisés TechCrunch et The Next Webqui en ont disséqué le fonctionnement.
En
revanche, une fois la photo à modifier sélectionnée, FaceApp la charge
sur ses serveurs à distance. C’est ensuite dans son environnement
cloud que FaceApp apporte les modifications voulues au visage – ce qui
explique pourquoi l’application ne fonctionne pas si vous n’avez pas de
réseau 3G ou Wi-Fi.
Ces retouches ont lieu grâce à des logiciels d’« apprentissage automatique », qui fonctionnent grâce à des technologies, qualifiées un peu pompeusement d’« intelligence artificielle ».
Résumons plus prosaïquement : à partir des nombreuses images comparées
et modifiées par les logiciels de FaceApp dans le passé, ceux-ci ont
appris à reproduire des modifications similaires sur les photos que vous
lui envoyez, et à les adapter au mieux. Plus il y aura de photos
retouchées avec FaceApp, meilleurs seront donc, en théorie, les
résultats.
3 – Que deviennent ensuite mes photos ?
C’est
l’un des principaux points d’inquiétudes, car certaines personnes ont, à
raison, lu les conditions d’utilisation de FaceApp face à ce soudain
retour de « hypes ». Datant de 2017, elles sont consultables
sur deux pages séparées, qui ne sont malheureusement pas accessibles
depuis l’application, d’après notre constat, sous Android (« politique de confidentialité » de FaceApp et « conditions d’utilisation »).
Elles
sont assez claires : en chargeant une photo et en appliquant un filtre à
travers FaceApp pour le partager ensuite à vos amis ou sur vos réseaux
sociaux, vous cédez à l’entreprise gérant l’application (Wireless
Lab OOO, sise à Saint-Pétersbourg) la possibilité de modifier,
réutiliser ou exploiter par la suite la photo retouchée en question.
Interrogée sur le sujet par le site spécialisé TechCrunch, FaceApp a, cependant, expliqué que « la plupart des images stockées sur nos serveurs sont supprimées dans les quarante-huit heures suivant leur envoi ». L’entreprise a également fait savoir que ce stockage de photos, d’une durée de quarante-huit heures pour « la plupart » d’entre
elles, ou pour une période indéterminée pour certaines autres, avait
lieu grâce à des serveurs à distance situés en dehors de la Russie,
utilisant les infrastructures cloud d’Amazon (AWS) et de Google.
Reste
que, dans l’absolu, les images conservées par FaceApp peuvent servir à
Wireless Lab OOO pour entraîner ses logiciels de retouches automatiques,
ou constituer des bases de données avec des visages de ses
utilisateurs. Ou encore, de faire la promotion de FaceApp à partir de
vos photos retouchées, si jamais ses employés la choisissent.
If
you use #FaceApp you are giving them a license to use your photos, your
name, your username, and your likeness f… https://t.co/nAW3f9QA1o
— ElizabethPW (@Elizabeth Potts Weinstein)
4 – Quels sont les risques d’utiliser FaceApp ?
Dans
ses conditions d’utilisation, FaceApp indique disposer également de la
possibilité d’utiliser à sa convenance d’autres informations liées à
votre utilisation de l’application, comme votre nom d’utilisateur si
vous en définissez un. Enfin, si FaceApp se fait racheter, plus tard,
par une autre entreprise, cette dernière aura les droits d’utiliser de
la même manière toutes les photos et informations des utilisateurs.
En
cas de contestation ou de réclamation, sachez que le siège de FaceApp
est situé actuellement à Saint-Pétersbourg, et que son responsable en
est son fondateur et dirigeant, Yaroslav Goncharov. Ce qui pourrait
compliquer un poil votre demande d’accéder à vos informations
personnelles, ou de les supprimer.
Dans ses précisions données au site TechCrunch,
FaceApp a bien reconnu une procédure pour demander à ses équipes de
supprimer toutes les données personnelles vous concernant, mais elle est
quelque peu baroque : il faut aller dans le formulaire « signaler un
bogue » et écrire « privacy » (vie privée) dans le début de votre
demande. En espérant qu’elle puisse être traitée par la suite, car les
équipes de FaceApp sont actuellement « surchargées », selon la même source.
Enfin,
il apparaît que FaceApp n’est actuellement pas en conformité avec le
règlement européen des données personnelles (RGPD), préciseLe Figaro,
alors que les conditions d’utilisation de l’application n’ont pas été
mises à jour après son entrée en vigueur en 2018. Elles ne prévoient
donc pas que les données de ses utilisateurs européens soient protégées
en fonction des lois européennes, même si FaceApp décide de transférer
leurs photos en dehors de l’Europe.
Si
vous êtes bien conscients de tout ce qui est écrit plus haut, et que ça
ne vous pose pas de problème d’envoyer des photos de vous à une
entreprise russe qui pourra faire ensuite ce qu’elle veut de vos images,
vous êtes mûrs pour installer l’application. Les journalistes dePixels choisissent cependant de ne pas le faire. Et, aux Etats-Unis, le parti démocrate a officiellement conseillé
à ses candidats à la primaire, en vue de l’élection présidentielle de
2020, de ne pas utiliser FaceApp, en raison de l’origine russe de
l’application.
En tout cas,
nous vous déconseillons formellement de charger dans FaceApp des photos
de vos proches, ou d’inconnus, afin de savoir à quoi ils ressembleraient
avec soixante ans de plus, un sourire, des cheveux, ou une barbe. Vous
ne voudriez pas que FaceApp fasse ce qu’elle veut de leur photo sans
leur consentement explicite…