Powered By Blogger

Rechercher sur ce blogue

jeudi 4 novembre 2021

Google lance un mode de recherche bluffant combinant texte et image

 

 

Google lance un mode de recherche bluffant combinant texte et image

Google vient d’annoncer une mise à jour de Google Lens. Le mode de recherche visuelle pourra combiner recherche d’image et mots-clés pour des résultats bluffants.


Google Lens est une technologie de reconnaissance d’images développée par Google. Elle s’appuie sur l’appareil photo de votre téléphone pour traduire un texte en temps réel, identifier des plantes et des animaux, copier-coller des photos, et bien plus encore. À l’occasion de son événement Search On, Google a annoncé une future mise à niveau de Google Lens qui offrira la possibilité d’ajouter du texte à des recherches visuelles, pour que les utilisateurs puissent poser des questions sur ce qu’ils voient. Une innovation encore plus utile que le mode sombre, déployé tout récemment sur Google Search.

Google a résolu le problème des recherches d’images complexes avec des résultats pertinents en une requête

En pratique, voici comment ça fonctionne. Imaginons que vous trouvez la photo d’une chemise qui vous plaît lors de vos recherches sur Google Images. Avec Google Lens, vous pourrez alors trouver un autre vêtement avec le même type de motif, de façon à obtenir un ensemble assorti. En saisissant une phrase du type « chaussettes avec ce motif », Google trouvera désormais des résultats pertinents de façon beaucoup plus rapide et facile que si vous étiez resté sur une simple saisie de texte.


Autre exemple, vous avez cassé une pièce de votre vélo, mais vous ignorez comment elle s’appelle. Plutôt que de vous plonger dans le manuel utilisateur pour chercher son nom, il vous suffira de la pointer avec votre appareil photo et de saisir « comment la réparer ». Google vous renverra alors vers une vidéo pertinente qui vous montrera comment résoudre votre souci mécanique.

Ce type de recherche a toujours posé problème à Google jusqu’à maintenant, sans parler des autres moteurs de recherches. Les requêtes qui comptent un élément visuel difficile à décrire avec des mots, ou qui peuvent être décrites de différentes façons, sont un vrai défi pour la recherche sur Internet. En combinant image et mots en une seule requête, Google multiplie les chances d’obtenir tout de suite des résultats de recherche pertinents.


Une mise à jour de Google Lens combinant texte et image basée sur de l’intelligence artificielle

Cette mise à jour de Google Lens se base sur MUM, ou Modèle unifié multitâche (Multitask Unified Model). Il s’agit d’une technologie basée sur l’intelligence artificielle, révélée cette année lors de la conférence annuelle des développeurs I/O de Google. Elle est capable de comprendre simultanément des informations dans un large éventail de formats, notamment du texte, des images et des vidéos, et de tirer des conclusions et des liens entre des sujets, des concepts et des idées. C’est cette technologie qui va être injectée dans la mise à jour de la recherche visuelle Google Lens.

La mise à jour de Google Lens basée sur MUM sera déployée dans les prochains mois, après avoir été soumise à des « tests et évaluations rigoureux« , a indiqué Google lors de la conférence Search On. Pas sûr que ce mode de recherche extrêmement pratique plaise à ses concurrents : Bing, le moteur de recherche de Microsoft, est déjà contrarié du fait que « Google » est le principal mot qu’on y cherche.

Source : TechCrunch

La Russie derrière 58% des piratages d’État depuis un an, selon Microsoft

 

 

La Russie derrière 58% des piratages d’État depuis un an, selon Microsoft

Dans une récente étude, l’entreprise américaine affirme que la majorité des piratages soutenus par l’État provient de Russie. Elle met également en avant la tendance des attaques informatiques, qui est à la hausse.

Microsoft a récemment publié une étude, Microsoft Digital Defense Report, sur les « dernières tendances en matière de cybersécurité ». Dévoilé à l’occasion des Assises de la Sécurité 2021, ce rapport (pdf) dévoile notamment le rôle important de la Russie dans la majorité des piratages.

Il est fondé sur l’analyse de 24 trillions « de signaux de sécurité analysés toutes les 24 heures » par les équipes du géant américain, de juillet 2020 à juin 2021.

Dans la même catégorie

Les principales tendances technologiques pour les prochaines années vues par Gartner

La Russie, grande championne du piratage

Il révèle notamment que, durant l’année qui vient de s’écouler, « 58 % de toutes les cyberattaques observées par Microsoft liées à des États-nations provenaient de Russie ». Le rapport pointe aussi le fait que ces piratages sont de plus en plus efficaces. Leur taux de réussite passe ainsi en un an de 21% à 32%. Une augmentation qui traduit également la croissance du nombre d’attaques.

Les secteurs d’activité les plus ciblés sont « le commerce de détail (13 %), les services financiers (12 %), l’industrie (12 %), les administrations (11 %) et les établissements de santé (9 %) ». En près d’un an et demi, la firme de Redmond a constaté une « augmentation de 220 % de l’utilisation de l’authentification forte », ce qui témoigne de la sensibilisation et des efforts des entreprises concernant la cybersécurité.

Les attaques ont plus précisément ciblé de nombreuses personnalités occidentales importantes, notamment des agences gouvernementales du Royaume-Uni ou de l’Ukraine, mais aussi des membres de l’OTAN. Sans oublier le piratage d’agences gouvernementales et de grandes entreprises américaines, comme le montre l’affaire SolarWinds.

Les piratages russes, ou tentatives de piratages, connaissent depuis un an une augmentation de 52%, selon le rapport. Cependant, il n’y a pas que la Russie et la Chine comme origine des attaques. Le pays en deuxième position sur ce sujet est la Corée du Nord, en augmentation de 12%. L’importance de ces attaques nord-coréennes, qui échoue dans 94% des cas en termes de phishing par mail, est toutefois moindre comparée aux attaques russes, qui connaissent un taux de réussite bien plus élevé.


Selon le rapport de Microsoft, le phishing est l’un des modes de piratage les plus répandus, et se déroule généralement en 5 étapes.

Les États-Unis, cible privilégiée selon Microsoft

D’après l’entreprise dirigée par Satya Nadella, les États-Unis sont, « de loin », le pays le plus touché par les rançongiciels. Il serait trois fois plus victime que la Chine, pourtant le second pays le plus touché, toujours selon le rapport.

Microsoft est aussi régulièrement la cible de piratage. Cette année, le piratage de son service Exchange a fait couler beaucoup d’encre. De nombreux pays et organisations, au premier rang desquels se trouvaient les États-Unis, l’Union Européenne, et l’OTAN, ont alors accusé la Chine. Bien que deuxième pays le plus touché par des piratages, la Chine est aussi l’un des pays à l’origine d’un grand nombre d’attaques. « Les acteurs soutenus par l'État chinois ont réussi à compromettre les victimes dans 44 % des cas », explique l’étude.

Le géant américain a travaillé en collaboration avec des agences gouvernementales américaines pour réaliser cette étude, qui ne mentionne rien sur d’éventuels piratages du gouvernement américain. Ceci pose naturellement des questions sur l'indépendance et l'objectivité de l’étude.

La multinationale affirme aussi que depuis SolarWinds, les pirates russes se concentrent essentiellement sur les organisations gouvernementales liées à la politique étrangère ou encore à la sécurité nationale. Des organisations développant des vaccins anti-Covid aux États-Unis, en Australie, au Canada, ou encore en Israël et au Japon, ont particulièrement été ciblées. Le piratage d’État a ainsi un taux de réussite de près de 20%.

Les attaques informatiques, une tendance à la hausse

Enfin, le groupe de piratage connu sous le nom de Cozy Bear, et soupçonné d’être lié au gouvernement russe, serait à l'origine de 92% de l’activité russe détectée par le géant américain. Un groupe probablement à l’origine de SolarWinds.

Pour Microsoft, cette efficacité croissante des pirates russes devrait amener à « davantage de compromis à fort impact dans l'année à venir ». Le nombre de victimes de rançongiciels ne cesse d’augmenter ces dernières années. Le plus souvent, les hackers réclament de l’argent, notamment en crypto-monnaies. Le rapport de Microsoft, qui pointe l’importance de ces attaques, intervient aussi dans un contexte de campagne présidentielle, toujours propice aux ingérences étrangères et aux piratages.

Alors que Joe Biden n’est élu que depuis quelques mois, c’est la France, juste après l’Allemagne, qui entre en campagne. Il faut donc s’attendre à voir le nombre d’attaques informatiques continuer d’augmenter en 2022.

 

REF.:

mercredi 3 novembre 2021

Facebook: Plus de détails sur la super panne du 4 octobre 2021

 Facebook: Plus de détails sur la super panne du 4 octobre 2021

 

Maintenant que nos plateformes sont opérationnelles comme d'habitude après la panne d'hier, j'ai pensé qu'il vaudrait la peine de partager un peu plus de détails sur ce qui s'est passé et pourquoi – et surtout, comment nous en apprenons. Cette panne a été déclenchée par le système qui gère la capacité de notre réseau dorsal mondial. L'épine dorsale est le réseau que Facebook a construit pour connecter toutes nos installations informatiques entre elles, qui se compose de dizaines de milliers de kilomètres de câbles à fibres optiques traversant le monde et reliant tous nos centres de données. Ces centres de données se présentent sous différentes formes.

 Certains sont des bâtiments massifs qui abritent des millions de machines qui stockent des données et exécutent les lourdes charges de calcul qui maintiennent nos plates-formes en marche, et d'autres sont des installations plus petites qui connectent notre réseau fédérateur à l'Internet plus large et aux personnes utilisant nos plates-formes. 

 Lorsque vous ouvrez l'une de nos applications et chargez votre flux ou vos messages, la demande de données de l'application se déplace de votre appareil vers l'installation la plus proche, qui communique ensuite directement via notre réseau fédérateur vers un centre de données plus important. C'est là que les informations nécessaires à votre application sont récupérées et traitées, puis renvoyées sur le réseau vers votre téléphone. Le trafic de données entre toutes ces installations informatiques est géré par des routeurs, qui déterminent où envoyer toutes les données entrantes et sortantes. 

Et dans le travail quotidien intensif de maintenance de cette infrastructure, nos ingénieurs doivent souvent prendre en charge une partie de la dorsale hors ligne pour la maintenance, par exemple en réparant une ligne de fibre, en ajoutant plus de capacité ou en mettant à jour le logiciel sur le routeur lui-même. C'était la source de la panne d'hier,le 4 octobre 2021.

 Au cours de l'un de ces travaux de maintenance de routine, une commande a été émise avec l'intention d'évaluer la disponibilité de la capacité du réseau fédérateur mondial, ce qui a involontairement interrompu toutes les connexions de notre réseau fédérateur, déconnectant efficacement les centres de données Facebook dans le monde. Nos systèmes sont conçus pour auditer des commandes comme celles-ci afin d'éviter de telles erreurs, mais un bogue dans cet outil d'audit l'a empêché d'arrêter correctement la commande. 

 

*********************************************************************************

 Le protocole internet Memcached mit en doute par une attaque DDOS sur le système Azure de Microsoft en 2020 et 2021 récemment ou d'une cyberattaques comme avec SolarWinds, est un système de mise en cache d'objets distribué, à haute performance et à code source ouvert. Il est couramment utilisé par des réseaux sociaux comme Facebook et son créateur LiveJournal comme un stockage clé-valeur en mémoire, pour de petits morceaux de données arbitraires. Dans ce cas, il est très utile. Lorsqu'il est utilisé de manière abusive, Cloudflare, l'entreprise spécialisée dans la sécurité et les performances du web, a découvert que 15 octets de requête peuvent provoquer 750 Ko de trafic d'attaque, soit une amplification de 51 200 fois ! Facebook utilise memcached car il offre un accès à faible latence à un pool de stockage partagé à faible coût. Ces qualités de memcached permettent à Facebook de créer des fonctionnalités gourmandes en données qui seraient autrement peu pratiques.

Explications:

 cache-1: Cache d'écriture : pour les demandes d'écriture, le serveur Web envoie des instructions SQL à la base de données, puis envoie une demande de suppression à Memcache qui invalide toutes les données obsolètes. La suppression est choisie plutôt que la mise à jour car l'opération de suppression est idempotente. Si la mise à jour était plutôt choisie, le cache pourrait avoir des données périmées en raison de sa non-idempotence s'il y avait des rafales d'écritures pour une seule donnée et les mises à jour associées à ces écritures seraient réorganisées.

 Facebook a de grands clusters informatiques et a probablement de nombreux serveurs memcached défaillants chaque jour parce que les ordinateurs se brisent de manière étrange. Pour éviter que ces échecs ne se multiplient, Facebook a construit un système appelé Gutter. Gutter entre en jeu si un client Memcache n'obtient pas de réponse pour une clé. Dans ce cas, les données sont extraites de la base de données et placées sur le serveur Gutter, détournant essentiellement cette clé du cluster principal. Cette approche est explicitement choisie par rapport à l'alternative consistant à redistribuer les clés d'une machine défaillante sur les machines saines restantes (ce qui, selon le document, est une alternative plus dangereuse qui pourrait surcharger les serveurs sains).Note:Ce document contient une quantité incroyable de détails sur la façon dont Facebook a fait évoluer son infrastructure Memcache, bien que le document ait été publié en 2013 et que 8 ans, c'est long. Je serais prêt à parier que leur infrastructure a considérablement changé depuis la publication initiale du document.

Il y a aussi les problêmes de mise a jour du logiciel memcached! Selon Cloudflare:  Afin de vaincre de telles attaques à l'avenir, nous devons corriger les protocoles vulnérables ainsi que l'usurpation d'adresse IP. Tant que l'usurpation d'adresse IP est autorisée sur Internet, nous aurons des problèmes.

Hacker,mais ça été écarté rapidement par facebook: Un memcache hacking tool depuis 2010,tout comme des attaques DDOS du port UDP 11211, a ne pas négliger. 

Tandis que la lanceuse d'alerte: Frances Haugen, ancienne employée de Facebook,comme d'autres personnes disent que Facebook a choisi l'économie(serveurs désuets,pas a jour ou difficilement mit a jour ,....memcached(écrit en Perl) .....) par rapport a la sécurité.

*********************************************************************************

 Ce changement a entraîné une déconnexion complète de nos connexions de serveurs entre nos centres de données et Internet. Et cette perte totale de connexion a causé un deuxième problème qui a aggravé les choses. L'une des tâches effectuées par nos plus petites installations consiste à répondre aux requêtes DNS. Le DNS est le carnet d'adresses d'Internet, permettant aux simples noms Web que nous tapons dans les navigateurs d'être traduits en adresses IP de serveur spécifiques.

 Ces requêtes de traduction sont traitées par nos serveurs de noms faisant autorité qui occupent eux-mêmes des adresses IP bien connues, qui à leur tour sont annoncées au reste d'Internet via un autre protocole appelé le protocole de passerelle frontière (BGP). Pour garantir un fonctionnement fiable, nos serveurs DNS désactivent ces publicités BGP s'ils ne peuvent pas eux-mêmes parler à nos centres de données, car cela indique une connexion réseau malsaine. Lors de la récente panne, l'ensemble du backbone a été retiré du service, ce qui a amené ces emplacements à se déclarer insalubres et à retirer ces publicités BGP. Le résultat final était que nos serveurs DNS sont devenus inaccessibles même s'ils étaient encore opérationnels. Cela empêchait le reste d'Internet de trouver nos serveurs. 

 Tout cela s'est passé très vite. Et pendant que nos ingénieurs cherchaient à comprendre ce qui se passait et pourquoi, ils ont été confrontés à deux grands obstacles : premièrement, il n'était pas possible d'accéder à nos centres de données par nos moyens habituels car leurs réseaux étaient en panne, et deuxièmement, la perte totale du DNS s'est rompue. bon nombre des outils internes que nous utilisons normalement pour enquêter et résoudre des pannes comme celle-ci. Notre accès réseau principal et hors bande était en panne, nous avons donc envoyé des ingénieurs sur site dans les centres de données pour qu'ils déboguent le problème et redémarrent les systèmes.

 Mais cela a pris du temps, car ces installations sont conçues avec des niveaux élevés de sécurité physique et système à l'esprit. Il est difficile d'y accéder, et une fois à l'intérieur, le matériel et les routeurs sont conçus pour être difficiles à modifier, même lorsque vous y avez physiquement accès. Il a donc fallu plus de temps pour activer les protocoles d'accès sécurisés nécessaires pour que les gens soient sur place et capables de travailler sur les serveurs.

 Ce n'est qu'alors que nous pourrions confirmer le problème et remettre notre épine dorsale en ligne. Une fois la connectivité de notre réseau fédérateur restaurée dans les régions de nos centres de données, tout a été rétabli. Mais le problème n'était pas résolu : nous savions que le fait de réactiver nos services d'un seul coup pouvait potentiellement provoquer une nouvelle série de plantages en raison d'une augmentation du trafic. Les centres de données individuels signalaient des baisses de consommation d'énergie de l'ordre de dizaines de mégawatts, et l'inversion soudaine d'une telle baisse de consommation d'énergie pourrait mettre en danger tout, des systèmes électriques aux caches. 

 Heureusement, c'est un événement auquel nous sommes bien préparés grâce aux exercices de « tempête » que nous organisons depuis longtemps maintenant. Dans un exercice de tempête, nous simulons une panne système majeure en prenant un service, un centre de données ou un entière région hors ligne, test de stress toute l'infrastructure et les logiciels impliqués. L'expérience de ces exercices nous a donné la confiance et l'expérience nécessaires pour remettre les choses en ligne et gérer avec soin les charges croissantes. En fin de compte, nos services sont revenus relativement rapidement sans aucune autre panne à l'échelle du système.

 Et bien que nous n'ayons jamais eu auparavant de tempête simulant la mise hors ligne de notre épine dorsale mondiale, nous chercherons certainement des moyens de simuler des événements comme celui-ci à l'avenir.

 Chaque échec comme celui-ci est une opportunité d'apprendre et de s'améliorer, et il y a beaucoup à apprendre de celui-ci. Après chaque problème, petit ou grand, nous effectuons un processus d'examen approfondi pour comprendre comment nous pouvons rendre nos systèmes plus résilients. 

Ce processus est déjà en cours.

 Nous avons beaucoup travaillé pour renforcer nos systèmes pour empêcher les accès non autorisés, et il était intéressant de voir comment ce renforcement nous a ralentis alors que nous essayions de nous remettre d'une panne causée non pas par une activité malveillante, mais par une erreur de notre part. Je pense qu'un compromis comme celui-ci en vaut la peine - une sécurité quotidienne considérablement accrue par rapport à une récupération plus lente après un événement, espérons-le rare, comme celui-ci.

 À partir de maintenant, notre travail consiste à renforcer nos tests, nos exercices et notre résilience globale pour nous assurer que des événements comme celui-ci se produisent aussi rarement que possible.

 

REF.: 

Avec Mesh, Microsoft entre dans le métavers

 

 

Avec Mesh, Microsoft entre dans le métavers

La course à la création du métavers est désormais lancée et Microsoft fait un pied de nez à Méta

Mesh pour Microsoft Teams : le futur du télétravail

Après plusieurs mois de pandémie, Microsoft présentait en mars dernier Mesh, une plateforme collaborative de réalité mixte permettant aux personnes éloignées de se retrouver virtuellement via des avatars et des hologrammes. Quelques jours après l’annonce de Facebook et du changement de nom en Meta, Microsoft semble décidé à présenter sa propre vision du métavers en commençant par le monde du travail en annonçant Mesh pour Microsoft Teams.

Cette nouvelle fonctionnalité disponible en bêta en début d’année prochaine au sein de Microsoft Teams semble assez similaire à ce que propose Facebook via son service Horizon Workrooms. Partant du postulat que le télétravail entraîne une certaine déshumanisation du travail, mais également une fatigue après avoir passé plusieurs heures derrière son écran, la société a cherché un moyen de réenchanter les réunions à distance.

Au lieu de participer à une réunion Teams avec sa webcam ou une simple photo, Mesh offrira la possibilité de créer des réunions virtuelles où les collaborateurs apparaîtront sous la forme d’avatars personnalisés qui parleront et interagiront au son de notre voix. Ces avatars seront disponibles en 2D comme alternative à son propre visage mais également en 3D au sein d’espaces immersifs pré-construits. Ils permettent ainsi aux individus de se réunir virtuellement au sein d’un même lieu comme une salle de réunion, le couloir où se trouve la machine un café ou un lieu de séminaire offrant ainsi aux entreprises la possibilité de reconstruire des moments de convivialité et donner une sensation de présence.


Des réunions plus immersives et un premier pas dans le métavers

L’avatar est ainsi vu comme le point d'entrée vers le métavers, permettant de faire le lien entre différents appareils électroniques comme les casques de réalité mixte tels que l’HoloLens, les ordinateurs et les téléphones portables. Les différents participants d’une même réunion pourront ainsi via leurs avatars se réunir autour d’un même espace pour discuter, envoyer des messages dans un chat, collaborer autour de documents partagés ou même faire des jeux pour se détendre, renforçant dès lors la sensation de se trouver à proximité de ses collègues alors que l’on est à distance.

Ces outils sont autant de moyens « de signaler que nous nous trouvons dans le même espace virtuel, que nous formons une équipe, un groupe, et de contribuer à abaisser le niveau de formalité et à augmenter le niveau d'engagement », a déclaré Jeff Teper vice-président de Microsoft en charge des outils de productivité. « Nous avons constaté que ces outils ont atteint les deux objectifs, à savoir aider une équipe à être plus efficace et aider les individus à être plus engagés ».

Pour le moment, Microsoft utilisera l’IA pour animer les avatars au son de la voix des interlocuteurs. Lors d’une réunion en 3D plus immersive, les animations comprendront également le lever de la main d'un avatar lorsque l'on aura cliqué sur l'option "lever la main" ou l'animation d'emoji autour de l'avatar. À terme, Microsoft souhaite que les expressions soient calquées sur celles de notre visage grâce à la webcam. Mesh for Teams proposera également la traduction et la transcription permettant ainsi de faciliter les échanges entre personnels du monde entier.


La fonctionnalité de traduction automatique au sein de Mesh pour Microsoft Teams.

Les entreprises pourront créer leurs propres espaces virtuels, ou métavers, dans Teams. Microsoft s’est par exemple associé avec Accenture pour créer un campus virtuel (surnommé le Nth Floor) pour les employés de ce dernier. Cet espace virtuel s'est rapidement avéré utile pendant la pandémie, offrant ainsi au personnel un espace au sein duquel les employés pouvaient se rencontrer pour prendre un café, faire des présentations, organiser des fêtes et autres événements similaires. Le cas d'utilisation le plus probant étant la mise en place de cette fonctionnalité pour l'accueil des nouveaux employés.

Microsoft souhaite déployer Mesh pour Microsoft Teams au cours du premier semestre de l'année prochaine. Mais alors que Meta a déjà présenté sa volonté d’investir fortement dans l’internet de demain au travers du métavers, la concurrence risque d’être particulièrement féroce dans les mois à venir alors qu’Apple ou encore Alibaba travaillent également de leur côté sur des concepts similaires.

 

REF.:

« Cette image est-elle vraie ? » Adobe veut vous fournir la réponse

 

 

« Cette image est-elle vraie ? » Adobe veut vous fournir la réponse

Stéphane Moussie |

Vigilant comme vous êtes, vous vous méfiez des images sensationnelles qui circulent comme une traînée de poudre sur les réseaux sociaux. Mais comment avoir la certitude que cette image d'un chaton à cinq pattes n'a pas été retouchée ? Adobe planche depuis quelques années sur cette problématique avec des médias et d'autres acteurs du numérique. Après tout, qui est mieux placé que le créateur de Photoshop pour répondre à la question de l'authenticité des images ?

La Content Authenticity Initiative franchit une nouvelle étape importante avec le lancement en bêta pour tous les utilisateurs du Creative Cloud de Content Credentials. Intégré à Photoshop, ce système permet à l'utilisateur de lier à son fichier les informations sur les retouches qu'il a effectuées. Que ce soit un simple ajustement de la luminosité ou l'intégration d'une ressource externe (synonyme dans ce cas de trucage), ces modifications sont attachées au document, y compris la ressource externe utilisée. Ce nouveau type de métadonnées n'est pas enregistré par défaut, c'est à l'utilisateur d'activer l'option dans Photoshop.


Le « certificat » des créations est présenté sur la banque d'images Adobe Stock ainsi que sur la plateforme Behance. Et quand une image n'est pas hébergée sur l'un de ces services, on peut la charger sur le site verify.contentauthenticity.org pour voir les modifications qu'elle a subies. Cette manipulation rend la vérification laborieuse, mais l'objectif à terme est de faire apparaître ces informations là où les images circulent le plus. Twitter fait partie des entreprises engagées dans la Content Authenticity Initiative, tout comme Microsoft, Qualcomm, Nikon, ARM, l'AFP, Getty Images, le New York Times ou encore France Télévisions.

Outre un moyen de lutter contre les fausses informations, Adobe promeut ce système comme un certificat d'authenticité sur le marché des NFT. Les créateurs peuvent associer leur adresse de portefeuille de cryptomonnaies à Content Credentials pour prouver qu'ils sont les véritables auteurs des œuvres numériques en vente. Plusieurs plateformes de NFT (KnownOrigin, OpenSea, Rarible et SuperRare) vont présenter cette information et de son côté Behance va accueillir une section dédiée aux NFT.

Le « certificat » d'une image visible sur le site dédié de l'initiative.

La réussite de l'initiative dépendra de son adoption par les principaux créateurs et diffuseurs d'images. Adobe prévoit de mettre en ligne un kit de développement open source permettant à tous les éditeurs d'intégrer Content Credentials à leurs apps et services, mais plusieurs acteurs cruciaux manquent encore à l'appel, parmi lesquels Apple, Google et Facebook.

 

REF.: