Apple recrute des experts en intelligence artificielle
Ceci pourrait permettre d’améliorer Siri avec un modèle de langage similaire à GPT-4
N’espérez pas en savoir plus avant un long moment
Le Technology Development Group
(TDG) recrute. Dans la fiche de poste d’une offre d’emploi, Apple
explique que son département réservé aux projets futurs les plus
prometteurs est à la recherche de spécialistes en contenu généré par de
l’intelligence artificielle. La vague ChatGPT a déferlé, en prouvant que
les plateformes intuitives ont déjà séduit le public. Il ne manque que
Cupertino s’y mette, après que Google (Bard), Microsoft (Bing) et Amazon aient aussi manifesté leur intérêt pour cette tendance.
Mais alors, que développe précisément Apple en interne ? À cette
question, il n’est pas possible de trouver une réponse fiable à 100%,
mis à part une amélioration de Siri. En effet, ce qui se passe derrière
les portes du TDG est tout ce qu’il y a de plus confidentiel.
Apple fait de son mieux pour éviter que ses secrets de conception ne
soient révélés à la concurrence ou au grand public – en tout cas pour le
moment. Un processus loin des utilisateurs finaux : il s’agit donc de
ne pas se rater, au risque de débarquer avec un produit ne correspondant
pas du tout aux attentes du marché.
Pas de précipitation : pourquoi ?
Au
TDG serait aussi préparé le casque de réalité mixte Reality Pro
d’Apple, qui arriverait pour sa part cette année. Un autre produit dont
la date de sortie potentielle est plutôt en retard face à la
concurrence. Et ce serait aussi le cas pour un chatbot potentiel de la
marque à l’iPhone, mais ceci s’explique peut-être par un certain scepticisme de la part de ses têtes pensantes à l’égard de l’AI.
Tim Cook et consorts souhaiteraient ainsi prendre le temps,
au moins de là à ce qu’un certain consensus à l’égard des questions
éthiques et de confidentialité soit admis. Or, c’est encore loin d’être
le cas aujourd’hui : si certains biaisent et limitent leurs modèles de
langage au profit de la neutralité et par souci de sécurité, d’autres
promeuvent au contraire la liberté d’expression malgré ses risques.
En attendant, les alternatives existent
D’ici
à ce qu’Apple dévoile effectivement un éventuel outil comme celui
d’OpenAI, la concurrence s’accapare en tout cas le marché. ChatGPT a
notamment été lancé sur iPhone (et pas sur Android) il y a peu, tandis
que Google a annoncé lors de sa conférence I/O l’arrivée de la création d’images sur ses services en ligne. Enfin, c’est aussi Adobe qui, avec Firefly, s’est mise aux graphismes.
On a testé Firefly : l’IA générative d’Adobe Photoshop qui va révolutionner la création graphique
Nous avons eu l’occasion de tester Firefly, l’intelligence
artificielle générative mise au point par Adobe. Grâce à une armada de
réglages et une riche base de données, l’IA permet de créer des visuels
très réussis en quelques clics.
Le mois dernier, Adobe a lancé Firefly, une intelligence artificielle générative capable de créer des images à partir de simples descriptions, comme Dall-E ou Midjourney.
Bientôt intégré à Photoshop, Premiere ou Illustrator, Firefly permet
aussi aux utilisateurs de modifier facilement une image, d’en changer
les teintes par exemple, ou de personnaliser les effets appliqués sur
les textes avec des styles ou des textures.
Dans un premier temps, Firefly est uniquement disponible en bêta par le biais d’un navigateur Web.
Pour le moment, il n’est pas possible d’accéder à l’outil par le biais
d’un logiciel Adobe. Quoi qu’il en soit, ce programme expérimental
permet aux abonnés Photoshop, ayant rejoint la liste d’attente, de
tester deux des principales fonctionnalités de l’IA
générative : la création d’images ou la génération de polices
personnalisées. On fait le point sur les résultats obtenus ci-dessous
après quelques jours d’expérimentations.
Tout d’abord, nous avons testé le générateur d’images d’Adobe. Comme Dall-E ou Bing Image Generator, Firefly peut concevoir des visuels en quelques secondes. Pour le moment, l’IA ne comprend que l’anglais. Pour les allergiques à la langue de Shakespeare, il faudra passer par un traducteur… ou demander un coup de main à ChatGPT.
Les
images générées par Firefly sont pour la plupart léchées, sophistiquées
et bien structurées. Nous avons trouvé les productions bien plus
réussies que celles réalisées par Bing ou Dall-E. Toutes les créations
de Firefly ont un simulacre de « touche artistique ». Au premier abord,
on dirait bien souvent des illustrations conçues par un graphiste ou un
artiste.
Elles ne sont pas exemptes de défauts pour autant. En zoomant, on découvre inévitablement des approximations,
des éléments dépourvus de logique ou des flous. Sur la plupart des
créations de Firefly, il y a des zones « brouillonnes », difficiles à
interpréter, voire carrément ratées. Il y a beaucoup d’approximations
dans le rendu de certains détails, notamment censées reproduire la
réalité. C’est le défaut de la plupart des IA génératives.
Les limites de Firefly
Firefly peine parfois à produire des images photoréalistes.
On est très loin des résultats obtenus avec une description bien
calibrée sur Midjourney. Vous parviendrez néanmoins à générer des rendus
3D qui imitent le réel avec brio. Dans les réglages, on trouve
d’ailleurs des fonctionnalités destinées à imiter une photographie, ou à
tendre vers l’hyperréalisme.
Vous
obtiendrez des rendus les plus photoréalistes avec des objets, comme
des verres ou des vêtements, et des paysages. Ce sont surtout les corps
humains et les visages qui posent des difficultés aux algorithmes
d’Adobe. Ce n’est pas une surprise. La plupart des générateurs peinent à
reproduire certaines parties du corps, comme les mains ou les oreilles.
On peut d’ailleurs se servir de ces éléments pour identifier une image
réalisée par l’IA. Sur la photo ci-dessus, on se rend compte de la
supercherie en observant la main qui tient le verre. On y trouve
beaucoup trop de doigts…
Comme on l’expliquait plus haut, l’IA d’Adobe se distingue plutôt
par son approche artistique. On se servira de Firefly pour concevoir des
illustrations graphiques, des personnages cartoonesques ou des
créations surréalistes.
Notez que Firefly est incapable de produire des images représentant des personnages ou des éléments protégés par le droit d’auteur.
Si vous essayez de créer un photomontage avec des personnages comme
Batman, Spider-Man, Homer Simpson ou Dark Vador, ou un logo de marque,
comme Pepsi, McDonald’s ou Netflix, le résultat sera catastrophique. Le
rendu n’aura pas grand-chose à voir avec ce que vous aviez en tête.
Ce
n’est pas une surprise. Adobe a entraîné Firefly en utilisant
uniquement des images issues des bases de données d’Adobe Stock, des images libres de droits
et des images sous licence libre. L’IA n’a jamais été en contact avec
des visuels sous licence, comme des logos, des héros DC Comics ou
Marvel, par exemple.
« Firefly a pour vocation de ne créer que des images
de personnalités publiques disponibles à des fins commerciales sur le
site Stock (hors contenu éditorial). Il ne doit pas créer de
personnalités publiques qui ne sont pas disponibles dans les données
Stock », précise Adobe sur son site.
De facto, l’IA ne sait pas à quoi ressemblent des contenus protégés comme Coca-Cola, Iron Man ou Star Wars.
Elle ne les a jamais « vu »… Elle ne sait donc pas de quoi vous parlez.
Vous ne pouvez de ce fait pas vous servir de Firefly pour imiter des
créations protégées. Vous obtiendrez uniquement des approximations… ce
qui peut parfois être hilarant.
Notez qu’il arrive souvent que Firefly refuse de générer des images
basées sur certaines phrases. Certains mots sont en effet interdits par
Adobe pour éviter les dérives. Malheureusement, le système de
restrictions se montre fréquemment défaillant. Il bloque certaines
requêtes sans la moindre raison. De même, l’IA estime parfois à tort
qu’une requête n’est pas rédigée en anglais :
« Il
peut y avoir des cas où des consignes en anglais très courtes
(généralement un mot) peuvent être identifiées à tort comme une langue
non prise en charge, il suffit d’étendre votre requête à plusieurs mots
et l’erreur sera résolue ».
Comment créer des images réussies avec Adobe Firefly ?
Pour
calibrer correctement la production, il est impératif de décrire très
précisément ce que vous avez en tête. Pensez à ajouter des informations
concernant le cadrage, la couleur, la disposition des éléments ou
l’émotion que vous voulez communiquer. Comme c’est le cas avec Bing,
Dall-E ou Midjourney, Firefly produit de plus beaux résultats avec des
descriptions riches et bien précises. Nous avons d’ailleurs réalisé les
images les plus réalistes avec des descriptions très fournies… et
signées ChatGPT.
Firefly tire son épingle du jeu grâce aux nombreux outils permettant d’ajuster le style de l’image.
Comme sur Photoshop, il est possible d’appliquer des styles différents
sur les images générées en quelques clics. Tout d’abord, Firefly vous
demande de choisir le format de l’image (portrait, paysage…). Ensuite,
l’interface propose de choisir le type de contenus que vous souhaitez
générer (photo, art…).
Surtout, Firefly permet de choisir un style visuel. Vous avez le choix entre un mouvement artistique (steam punk,
surréaliste, psychédélique, pop art, cyberpunk…), un effet particulier
(bokeh, fisheye…), un thème (3D, géométrique…), une technique (crayon,
lino, acrylique, peinture à l’huile…), un matériau (métal, bois,
argile…) et un concept (kitsch, nostalgique…). Cerise sur le gâteau,
vous pouvez combiner plusieurs de ces éléments pour concevoir des images
originales et uniques.
Par la suite, vous pouvez aussi sélectionner l’angle de prise
de vue de votre montage, l’éclairage idéal, les coloris et les tons
directement dans l’interface, sans devoir le préciser dans la
description. C’est idéal pour les utilisateurs qui peinent à décrire
correctement ce qu’ils ont en tête. Grâce à ces nombreux paramètres,
vous pouvez ajuster manuellement le rendu produit par l’IA. Avec un peu
de travail, et l’habitude des outils Adobe, on arrive facilement au
visuel voulu, sans être un grand artiste.
Avant
d’exporter une image générée par l’IA, Adobe va automatiquement inclure
des « Content Credentials », c’est-à-dire des informations
d’identification de contenu. Concrètement, un macaron rouge indiquant que l’image a été produite par Firefly apparaîtra dans le bord inférieur droit, comme sur la création ci-dessous.
« Cela vise à promouvoir la transparence autour du contenu généré avec des outils d’IA comme Adobe Firefly », explique Adobe sur son site Web.
Le générateur de polices
Par
ailleurs, nous avons mis à l’épreuve le générateur de polices. Le
fonctionnement de l’outil est simple et intuitif. Il suffit d’entrer le
mot que vous souhaitez et ajouter une description de la personnalisation
souhaitée. Par exemple, on peut produire une police qui imite une
texture (bois, arbre, métal, velours…), un élément (eau, feu, brique…),
un style artistique, un plat ou encore une ville. Les possibilités sont
presque infinies !
Là encore, les résultats sont à la hauteur des attentes.
En quelques clics, on obtient des polices de caractères personnalisées,
originales et uniques. On imagine que cet outil peut faire gagner un
temps de fou aux graphistes. De la même manière que le générateur
d’images, le créateur de polices a du mal à générer des textures
réalistes. Parfois, il arrive aussi que Firefly interprète une série de
mots d’une façon étonnante. C’est le cas de cette création « vin
rouge ».
Quoi
qu’il en soit, ces deux outils sont susceptibles de bouleverser
l’utilisation de la suite Adobe. Quand Firefly aura été déployé sur
Photoshop, Illustrator et consorts, la création graphique telle qu’on la
connaît sera inévitablement révolue…
Comment ChatGPT, et les robots qui l'apprécient, peuvent propager des logiciels malveillants Par David Nield
Le paysage de l'IA a commencé à évoluer très, très rapidement : des outils destinés aux consommateurs tels que Midjourney et ChatGPT sont désormais capables de produire des images et des résultats de texte incroyables en quelques secondes sur la base d'invites en langage naturel, et nous les voyons se déployer partout à partir du Web. rechercher des livres pour enfants.
Cependant, ces applications d'IA sont tournées vers des utilisations plus néfastes, notamment la propagation de logiciels malveillants. Prenez l'e-mail d'escroquerie traditionnel, par exemple : il est généralement jonché d'erreurs évidentes dans sa grammaire et son orthographe, des erreurs que le dernier groupe de modèles d'IA ne commet pas, comme indiqué dans un récent rapport consultatif d'Europol.
Pensez-y : de nombreuses attaques de phishing et autres menaces de sécurité reposent sur l'ingénierie sociale, incitant les utilisateurs à révéler des mots de passe, des informations financières ou d'autres données sensibles. Le texte persuasif et authentique requis pour ces escroqueries peut maintenant être pompé assez facilement, sans effort humain requis, et sans cesse modifié et affiné pour des publics spécifiques.
Dans le cas de ChatGPT, il est important de noter d'abord que le développeur OpenAI y a intégré des protections. Demandez-lui "d'écrire un logiciel malveillant" ou un "e-mail de phishing" et il vous dira qu'il est "programmé pour suivre des directives éthiques strictes qui m'interdisent de participer à des activités malveillantes, y compris l'écriture ou l'aide à la création de logiciels malveillants".
ChatGPT ne codera pas de logiciels malveillants pour vous, mais c'est poli à ce sujet. OpenAI via David Nield
Cependant, ces protections ne sont pas trop difficiles à contourner : ChatGPT peut certainement coder, et il peut certainement composer des e-mails. Même s'il ne sait pas qu'il écrit un logiciel malveillant, il peut être invité à produire quelque chose de similaire. Il y a déjà des signes que les cybercriminels s'efforcent de contourner les mesures de sécurité qui ont été mises en place.
Nous ne ciblons pas particulièrement ChatGPT ici, mais soulignons ce qui est possible une fois que de grands modèles de langage (LLM) comme celui-ci sont utilisés à des fins plus sinistres. En effet, il n'est pas trop difficile d'imaginer des organisations criminelles développer leurs propres LLM et outils similaires afin de rendre leurs arnaques plus convaincantes. Et ce n'est pas seulement du texte non plus : l'audio et la vidéo sont plus difficiles à simuler, mais cela se produit également.
Lorsqu'il s'agit de votre patron demandant un rapport de toute urgence, ou du support technique de l'entreprise vous demandant d'installer un correctif de sécurité, ou de votre banque vous informant qu'il y a un problème auquel vous devez répondre, toutes ces escroqueries potentielles reposent sur l'établissement d'un climat de confiance et sur l'authenticité. , et c'est quelque chose que les bots IA font très bien. Ils peuvent produire du texte, de l'audio et de la vidéo qui semblent naturels et adaptés à des publics spécifiques, et ils peuvent le faire rapidement et constamment à la demande.
Y a-t-il donc un espoir pour nous, simples humains, dans la vague de ces menaces alimentées par l'IA ? Est-ce que la seule option est d'abandonner et d'accepter notre sort ? Pas assez. Il existe encore des moyens de minimiser vos chances de vous faire arnaquer par les dernières technologies, et ils ne sont pas si différents des précautions auxquelles vous devriez déjà penser.
Comment se prémunir contre les escroqueries alimentées par l'IA
Il existe deux types de menaces de sécurité liées à l'IA auxquelles il faut penser. Le premier implique des outils tels que ChatGPT ou Midjourney utilisés pour vous amener à installer quelque chose que vous ne devriez pas, comme un plugin de navigateur. Vous pourriez être amené à payer pour un service alors que vous n'en avez pas besoin, peut-être, ou à utiliser un outil qui semble officiel mais qui ne l'est pas.
Pour éviter de tomber dans ces pièges, assurez-vous d'être au courant de ce qui se passe avec les services d'IA comme ceux que nous avons mentionnés, et allez toujours d'abord à la source d'origine. Dans le cas de ChatGPT par exemple, il n'y a pas d'application mobile officiellement approuvée et l'outil est uniquement Web. Les règles standard s'appliquent lorsque vous travaillez avec ces applications et leurs retombées : vérifiez leur historique, les avis qui leur sont associés et les entreprises qui les sous-tendent, comme vous le feriez lors de l'installation de tout nouveau logiciel.
Le deuxième type de menace est potentiellement plus dangereux : l'IA qui est utilisée pour créer du texte, de l'audio ou de la vidéo qui semble réaliste de manière convaincante. La sortie pourrait même être utilisée pour imiter quelqu'un que vous connaissez, comme dans le cas de l'enregistrement vocal prétendument d'un directeur général demandant un déblocage urgent de fonds, qui a dupé un employé de l'entreprise.
Bien que la technologie ait évolué, les mêmes techniques sont toujours utilisées pour essayer de vous faire faire quelque chose d'urgent qui semble légèrement (ou très) inhabituel. Prenez votre temps, revérifiez chaque fois que possible en utilisant différentes méthodes (un appel téléphonique pour vérifier un e-mail ou vice versa) et faites attention aux signaux d'alarme - une limite de temps sur ce qu'on vous demande de faire ou une tâche qui n'est pas terminée de l'ordinaire.
Comme toujours, gardez vos logiciels et systèmes à jour. Microsoft via David Nield
Suivre des liens que vous n'attendez pas des SMS et des e-mails n'est généralement pas une bonne idée, surtout lorsqu'on vous demande de vous connecter quelque part. Si votre banque a apparemment pris contact avec un message, par exemple, rendez-vous sur la site Web de la banque directement dans votre navigateur pour vous connecter, plutôt que de suivre un lien intégré.
Il est indispensable de maintenir à jour vos systèmes d'exploitation, vos applications et vos navigateurs (et cela se produit généralement automatiquement maintenant, il n'y a donc aucune excuse).Les navigateurs les plus récents vous protégeront contre toute une série d'attaques de phishing et d'escroquerie, que l'invite conçue pour vous duper ait été générée par l'IA ou non.Il n'existe pas d'outil infaillible pour détecter la présence de texte, d'audio ou de vidéo d'IA pour le moment, mais il y a certains signes à surveiller : pensez au flou et aux incohérences dans les images, ou à un texte qui semble générique et vague.Bien que les escrocs aient peut-être récupéré des détails sur votre vie ou votre lieu de travail quelque part, il est peu probable qu'ils connaissent tous les tenants et les aboutissants de vos opérations.En bref, soyez prudent et remettez tout en question - c'était vrai avant l'aube de ces nouveaux services d'IA, et c'est vrai maintenant.Comme les masques de visage de la série de films Mission: Impossible (qui restent de la science-fiction pour l'instant), vous devez être absolument sûr que vous avez affaire à qui vous pensez avoir affaire avant de révéler quoi que ce soit.
Le piratage de ChatGPT ne fait que commencer Matt Burgess
En conséquence, les auteurs de jailbreak sont devenus plus créatifs. Le jailbreak le plus important était DAN, où ChatGPT a été invité à prétendre qu'il s'agissait d'un modèle d'IA malveillant appelé Do Anything Now. Cela pourrait, comme son nom l'indique, éviter les politiques d'OpenAI dictant que ChatGPT ne doit pas être utilisé pour produire du matériel illégal ou nuisible. À ce jour, les gens ont créé une douzaine de versions différentes de DAN.
Cependant, bon nombre des derniers jailbreaks impliquent des combinaisons de méthodes - plusieurs caractères, des histoires toujours plus complexes, la traduction de texte d'une langue à une autre, l'utilisation d'éléments de codage pour générer des sorties, etc. Albert dit qu'il a été plus difficile de créer des jailbreaks pour GPT-4 que la version précédente du modèle alimentant ChatGPT. Cependant, certaines méthodes simples existent encore, affirme-t-il. Une technique récente qu'Albert appelle "suite de texte" indique qu'un héros a été capturé par un méchant, et l'invite demande au générateur de texte de continuer à expliquer le plan du méchant.
Lorsque nous avons testé l'invite, cela n'a pas fonctionné, ChatGPT indiquant qu'il ne peut pas s'engager dans des scénarios qui promeuvent la violence. Pendant ce temps, l'invite "universelle" créée par Polyakov a fonctionné dans ChatGPT. OpenAI, Google et Microsoft n'ont pas directement répondu aux questions sur le jailbreak créé par Polyakov. Anthropic, qui gère le système Claude AI, affirme que le jailbreak "fonctionne parfois" contre Claude, et qu'il améliore constamment ses modèles.
"Alors que nous donnons à ces systèmes de plus en plus de puissance, et qu'ils deviennent eux-mêmes plus puissants, ce n'est pas seulement une nouveauté, c'est un problème de sécurité", explique Kai Greshake, un chercheur en cybersécurité qui a travaillé sur la sécurité des LLM. Greshake, avec d'autres chercheurs, a démontré comment les LLM peuvent être impactés par le texte auquel ils sont exposés en ligne via des attaques par injection rapide.
Dans un article de recherche publié en février, rapporté par Vice’s Motherboard, les chercheurs ont pu montrer qu’un attaquant peut planter des instructions malveillantes sur une page Web ; si le système de chat de Bing a accès aux instructions, il les suit. Les chercheurs ont utilisé la technique dans un test contrôlé pour transformer Bing Chat en un escroc qui demandait des informations personnelles aux gens. Dans un cas similaire, Narayanan de Princeton a inclus un texte invisible sur un site Web disant à GPT-4 d'inclure le mot "vache" dans une biographie de lui - il l'a fait plus tard lorsqu'il a testé le système.
"Maintenant, les jailbreaks ne peuvent pas provenir de l'utilisateur", explique Sahar Abdelnabi, chercheur au CISPA Helmholtz Center for Information Security en Allemagne, qui a travaillé sur la recherche avec Greshake. "Peut-être qu'une autre personne planifiera des jailbreaks, planifiera des invites qui pourraient être récupérées par le modèle et contrôlera indirectement le comportement des modèles."
Aucune solution rapide
Les systèmes d'IA générative sont sur le point de perturber l'économie et la façon dont les gens travaillent, de la pratique du droit à la création d'une ruée vers l'or pour les startups. Cependant, ceux qui créent la technologie sont conscients des risques que les jailbreaks et les injections rapides pourraient poser à mesure que de plus en plus de personnes accèdent à ces systèmes. La plupart des entreprises utilisent le red-teaming, où un groupe d'attaquants essaie de percer des trous dans un système avant qu'il ne soit publié. Le développement de l'IA générative utilise cette approche, mais cela peut ne pas suffire.
Daniel Fabian, le chef de l'équipe rouge chez Google, a déclaré que l'entreprise "traitait soigneusement" le jailbreak et les injections rapides sur ses LLM, à la fois offensivement et défensivement. Des experts en apprentissage automatique font partie de son équipe rouge, explique Fabian, et les subventions de recherche sur la vulnérabilité de l'entreprise couvrent les jailbreaks et les attaques par injection rapide contre Bard. "Des techniques telles que l'apprentissage par renforcement à partir de la rétroaction humaine (RLHF) et l'ajustement sur des ensembles de données soigneusement sélectionnés sont utilisées pour rendre nos modèles plus efficaces contre les attaques", déclare Fabian.
ChatGPT, Bloom, LLaMA… L'IA débarque dans les services publics
L'intelligence
artificielle fait son entrée dans la fonction publique ! 200 agents de
maisons France Service vont expérimenter l'utilisation d'IA génératives
afin d'apporter de meilleures réponses aux usagers. Le service public de
l'avenir ?
La sortie de ChatGPT
a créé un raz-de-marée sur Internet, mais aussi au sein des entreprises
de la tech. Chacune a commencé à intégrer des IA génératives à ses
services et à ses produits, se lançant dans une véritable course pour
montrer qui a la plus grosse. Mais après avoir envahi le secteur privé,
la voici qui débarque aussi dans le secteur public. En effet, le
Gouvernement a annoncé – bien discrètement à la vingtième page du document conclusif du septième comité intergouvernemental de la transformation publique paru le 9 mai – que l'utilisation d'IA génératives serait testée dans les services publics, comme l'a remarqué BFMTV. Il autorise ainsi le "lancement
d'une expérimentation d'outils d'intelligence artificielle pour
produire des réponses aux usagers plus complètes tout en pesant moins
sur les agents sur la plateforme 'Services Publics +' et dans plusieurs
France services" afin d'assurer la "qualité de service" et la "satisfaction des usagers", tout en pesant moins sur les agents de la fonction publique.
Cette expérimentation débutera en septembre auprès d'un échantillon
de 200 agents de maisons France services – des guichets de proximités
implantés dans tout le pays qui rassemblent différents services de
l'État, comme Pôle emploi, La Poste
et les impôts – et durera six mois – il ne s'agit donc pas d'une mise
en place définitive. Ils pourront utiliser ChatGPT, mais aussi Bloom, un
modèle international open source développé par trois Français, et
LLaMA, le modèle d'IA développé par Meta.
IA : une plus grande qualité de service et des agents soulagés
Concrètement, si l'on désire obtenir des informations – sur la marche
à suivre pour toucher son indemnité chômage par exemple –, l'agent
soumettra notre question à l'IA afin d'obtenir rapidement une réponse
plus claire ou plus complète que celle qu'il aurait donné en temps
normal. Il devra ensuite évaluer la pertinence de cette réponse pour
mieux la corriger derrière, et ainsi nous apporter la réponse la plus
adaptée possible. Pour éviter toute collecte de données de la part des
entreprises et toute fuite éventuelle, les agents ne devront poser que
des questions générales sans jamais renseigner d'informations
personnelles ou confidentielles. Tout sera supervisé par l'Agence
nationale de la sécurité des systèmes d'information (ANSSI) et la Commission nationale de l'informatique et des libertés (CNIL).
Le Gouvernement se veut rassurant, promettant que l'IA ne va pas
remplacer les agents, qui devront toujours vérifier et adapter les
réponses fournies. Une crainte légitime étant donné que le développement
stupéfiant de cette technologie s'annonce comme une véritable
révolution pour le monde du travail et risque de rendre certains métiers
obsolètes, en particulier dans le tertiaire (voir notre article).
Le Japon entame d'ailleurs une démarche similaire puisque le pays, pour
pallier la pénurie de main d'œuvre dans ses administrations,
expérimente elle aussi l'IA générative à la mairie de Yokosuka, au sud
de Tokyo, pendant une durée de quatre semaines. L'objectif est de
déterminer si cela permet aux agents de gagner du temps en résumant des
réunions ou en corrigeant des communications, et ainsi leur permettre de
se consacrer à d'autres tâches.
Cette nouvelle intervient alors que les gouvernements, y compris en
France, affichent une certaine défiance envers l'IA, notamment dans la
collecte des données, qui pourrait entrainer de l'ingérence de la part
de pays étrangers. La mairie et la métropole de Montpellier ont par
exemple reçu l'ordre, en mars dernier, de ne plus utiliser ChatGPT "par précaution" et "à titre conservatoire" , comme le rapportait le Midi Libre.
Dans la même optique, les services de streaming et les jeux mobiles ont
été officiellement interdits sur les smartphones professionnels des
fonctionnaires français (voir notre article). La CNIL a d'ailleurs mis en place fin janvier un service de l'intelligence artificielle (SIA) destiné à encadrer l'utilisation de cette technologie et à répondre aux problèmes qu'elle soulève.
Tandis
que Google et Microsoft se livrent une guerre féroce pour régner sur le
secteur de l'intelligence artificielle, Amazon travaille à améliorer
Alexa, son assistant intelligent, à l'aide de ses propres modèles de
langage.
La sortie de l'intelligence artificielle
conversationnelle ChatGPT en novembre 2022 a créé l'effervescence sur
Internet, mais aussi au sein des secteurs du numérique et de la
technologie. La guerre sans merci engagée entre Microsoft
et Google s'est déjà étendue à d'autres entreprises, Opera et Baidu –
le "Google chinois" – ayant déjà entamé les hostilités – sans compter
les services comme Adobe
et Canva. Même Elon Musk, après avoir clamé haut et fort son inquiétude
à propos de cette technologie, a fini par s'y mettre (voir notre article)
! Par conséquent, certains craignaient qu'Amazon ne prenne du retard
dans ce domaine. Depuis, le géant du e-commerce a commencé à déployer de
façon progressive Bedrock, un ensemble d'IA génératives censé permettre
aux entreprises et aux professionnels de développer des services et des
outils à moindre coût (voir notre article).
Mais il ne compte pas s'arrêter là et attend miser sur Alexa pour
rivaliser avec les autres intelligences artificielles génératives, comme
le révèle Business Insider. De quoi rebooster la popularité de l'assistant vocal, alors que 100 millions de ses enceintes connectées ont adopté les protocoles Matter et Thread, deux nouveaux standards en domotique.
Amazon : une Alexa bientôt dopée à l'IA générative
Dans une interview accordée au Financial Times en février 2023, Andy Jassy, le PDG d'Amazon, assurait ne pas être inquiet à ce sujet et se montrait même plutôt confiant. "Je pense que c'est excitant, ce qui est possible avec l'IA générative", déclare-t-il avant d'ajouter que "la
plupart des grandes entreprises profondément techniques, comme la
nôtre, travaillent depuis longtemps sur ces très grands modèles d'IA
générative", sans toutefois donner plus de détails. L'entreprise
envisage de travailler davantage avec d'autres entreprises, plus
petites, dans le domaine de l'intelligence artificielle, comme c'est
déjà le cas avec Stability AI, un concurrent d'Open AI.
Il faut dire qu'Amazon dispose déjà depuis plusieurs années de
technologies d'intelligence artificielle et d'apprentissage automatique,
comme son assistant vocal Alexa et CodeWhisperer, un assistant en code
basé sur l'IA. Alexa est présente dans de nombreux foyers à travers des
appareils qui intègrent ses fonctions comme les enceintes Echo. Certains
utilisateurs y ont recours pour des tâches pratiques, telles que lancer
de la musique, régler l'éclairage et les alarmes ou encore gérer sa
consommation énergétique, mais d'autres aiment utiliser l'assistant à
des fins plus divertissantes, comme en lui demandant de partager des
blagues ou de raconter des histoires.
Mais aussi merveilleuse soit-elle, Alexa ne peut pas composer
elle-même de poèmes ou écrire des codes, contrairement à ChatGPT – même
si le résultat n'est pas toujours au rendez-vous. Elle a donc du retard
sur ce point-là. Amazon travaille actuellement à la rendre plus
"conversationnelle", étant donné qu'elle ne fait que répondre aux
questions de l'utilisateur. "Nous sommes engagés comme jamais dans Echo et Alexa et nous continuerons à investir fortement en eux", expliquait en novembre 2022 David Limp, le vice-président d'Amazon, à Business Insider. L'assistant vocal possède toutefois un gros avantage sur ChatGPT : sa capacité à offrir des services personnalisés.
Amazon Alexa : une IA plus personnalisée ?
En effet, il se souvient de choses comme la musique préférée de
l'utilisateur, son type de livre favori ou encore les nouvelles
susceptibles de l'intéresser le plus. Il peut également se souvenir des
échéances importantes et est parfaitement à l'aise avec les informations
en temps réel. Des atouts qui, couplés à une IA générative, pourraient
produire des résultats des plus intéressants. Selon les documents
internes consultés par Business Insider, Amazon travaillerait sur ses
propres modèles de langage depuis plusieurs années. Parmi eux, LLM
(Large Language Model) Alexa Teacher Model, déjà en partie exploité,
mais aussi "de nouveaux modèles beaucoup plus vastes, plus généralisés et plus performants" visant à rendre Alexa "plus proactive et conversationnelle", selon un porte-parole.
Pour le moment, Amazon se concentre sur les Alexa LLM Entertainment
Use Cases, c'est-à-dire les fonctions liées au divertissement. Parmi les
différentes utilisations possibles, l'entreprise mentionne qu'Alexa
serait capable d'inventer une histoire pour la raconter à un enfant.
Grâce à la caméra intégrée dans certaines enceintes Echo, comme l'Echo
Show, l'assistant vocal adapterait le récit en fonction de
l'environnement, pour inclure la peluche que le jeune utilisateur tient
dans les mains par exemple. Il pourrait également, via son écran,
projeter des illustrations que l'IA aura générées spécialement pour le
récit. Alexa pourrait également identifier une série à partir
d'informations parcellaires fournies par l'interlocuteur, ou tout du
moins effectuer des recommandations pertinentes, et proposer à
l'utilisateur de s'abonner à la plateforme de streaming diffusant le
programme. D'ailleurs, Amazon prévoit déjà des partenariats stratégiques
avec certaines entreprises comme Disney, Lego et HBO, ce qui
contribuerait à augmenter les revenus générés par Alexa.
L'assistant vocal serait également capable de faciliter la recherche
et la lecture d'actualités, en présentant un résumé personnalisé des
faits importants et en aidant les utilisateurs à approfondir des sujets
en récupérant des nouvelles et des informations connexes. Dans sa note
interne, Amazon estime que l'utilisateur doit avoir l'impression "qu'Alexa pense plutôt qu'elle ne récupère des informations dans une base de données".
Espérons toutefois que l'entreprise ne précipitera pas les choses,
car ce genre d'intelligence artificielle est aussi révolutionnaire que
destructeur. En effet, les IA ont tendance à "halluciner", c'est-à-dire
inventer et affirmer avec aplomb de fausses informations. Bard, celle de
Google, avait d'ailleurs fait une erreur pendant sa première
présentation, ce qui avait fait a fait perdre pas moins de 100 milliards
de dollars en bourse à l'entreprise (voir notre article).
Cela peut avoir des conséquences désastreuses, en particulier avec les
actions quotidiennes qu'effectuent les assistants vocaux.
Mon Carnet - Et si ChatGPT changeait notre point de vue à notre insu
Dans
sa chronique de samedi dernier, le chroniqueur technologie du Wall
Street Journal, Christopher Mims, avait un texte fort intéressant qui
portait sur la capacité des intelligences artificielles comme ChatGPT ou
Bard, de faire changer notre point de vue sans que nous nous en
rendions compte. Je vous explique.
Les assistants d'intelligence artificielle (IA) comme ChatGPT d’Open
AI, Chat Bing de Microsoft ou Bard de Google peuvent changer notre façon
de penser sans que nous nous en rendions compte. Des études ont montré
que lorsqu'un individu utilise une IA pour écrire un essai, l'algorithme
peut l'inciter à prendre parti pour ou contre une opinion donnée en
fonction de son biais. Cette expérience peut influencer les opinions des
sujets sur le sujet traité. Ce phénomène appelé "persuasion latente"
est préoccupant, car l'IA aurait ainsi la possibilité d’altérer
subtilement et imprévisiblement nos opinions à mesure que nous en
devenons plus dépendants.
Les
chercheurs de l’Université Cornell aux États-Unis qui ont découvert ce
phénomène estiment que la meilleure défense contre cette nouvelle forme
d'influence psychologique est de sensibiliser davantage les gens. À long
terme, d'autres défenses, telles que la transparence imposée par les
régulateurs sur le fonctionnement des algorithmes d'IA et les biais
humains qu'ils imitent, pourraient être utiles.
En fait, ça
pourrait même conduire à un avenir où les gens choisissent les IA qu'ils
utilisent - au travail, à la maison, au bureau et dans l'éducation de
leurs enfants - en fonction des valeurs humaines exprimées dans les
réponses fournies par l'IA. Certaines IA pourraient également avoir
différentes "personnalités", y compris des convictions politiques.
Déjà,
des outils permettent aux utilisateurs d'interagir avec l'IA pour
rédiger des courriers électroniques, du matériel marketing, de la
publicité, des présentations, des feuilles de calcul, etc. Et les
Microsoft, Google et de dizaines d’autres entreprises travaillent fort
dans le domaine. Encore la semaine dernière, Google a annoncé que son
dernier grand modèle de langage, PaLM 2, sera utilisé dans 25 produits
de l'entreprise.
Cependant, l'utilisation de l'IA pour influencer
les opinions soulève des inquiétudes quant aux possibles utilisations
négatives de cette technologie, notamment dans les gouvernements
autocratiques, les entreprises manipulatrices, les groupes de lobbys ou
les cybercriminels.
Les entreprises technologiques, telles que
Microsoft, Google et OpenAI, ont promis de travailler sur une IA
responsable, qui examine les dommages potentiels de l'IA et les aborde.
OpenAI a publié une partie de ses directives sur la manière dont ses
systèmes doivent traiter les sujets politiques et culturels. Chez
Google, l’incubateur Jigsaw, une unité qui conseille et construit des
outils pour les grands modèles de langage, est également impliqué dans
l'étude des effets de l'interaction avec l'IA sur les individus.
Chose
certaine, l'IA est un outil puissant qui peut aider l'humanité à
résoudre de nombreux problèmes, mais elle doit être utilisée de manière
responsable pour éviter toute influence indue sur les opinions des
individus. Les entreprises technologiques travaillent pour produire une
IA responsable, examinant les dommages potentiels et publiant des
directives pour le traitement des sujets politiques et culturels. Il est
important de comprendre que les IA ne sont pas des clones
algorithmiques des opinions et des valeurs de leurs créateurs, mais
qu'elles reflètent les opinions intégrées lors de leur entraînement.
Il
est difficile de supprimer complètement les opinions et la subjectivité
des IA sans compromettre leur utilité. Les modèles de langage utilisés
par les IA sont entraînés sur des données provenant de diverses sources,
ce qui entraîne inévitablement l'incorporation des opinions et des
biais contenus dans ces textes.
L'évaluation des opinions des IA
sera une tâche continue à mesure que les modèles seront mis à jour et de
nouveau seront développés. Les utilisateurs pourraient choisir les IA
en fonction de leurs propres valeurs et ainsi éviter toute influence
indésirable.
En les utilisant, en sachant que d’autres les
utilisent, gardons en tête que les agents conversationnels peuvent
influencer subtilement nos opinions sans que nous en soyons conscients.
Il est essentiel de sensibiliser davantage les utilisateurs à cette
influence et de favoriser la transparence dans le fonctionnement des
algorithmes d'IA.
Pour consulter la chronique de Christopher Mims, dans le Wall Street Journal, c’est par ici.
Et pour la recherche sur le sujet, c’est par ici pour une version PDF.
Google Messages : l’IA va bientôt transformer vos SMS en paroles de chansons
Google Messages va s’ouvrir à l’intelligence artificielle
générative. D’ici peu, l’application va vous proposer de réécrire vos
SMS en paroles de chansons. L’IA va aussi vous aider à adapter la
tonalité de votre message…
En miroir de Microsoft, Google ambitionne d’intégrer
l’intelligence artificielle générative à la majorité de ses produits.
Comme on vous l’expliquait il y a quelques semaines, l’IA s’apprête
notamment à faire une entrée fracassante dans Google Messages,
l’application de SMS, RCS et de messagerie instantanée pour smartphones
Android. Grâce aux modèles linguistiques développés par le géant
Google, l’application sera même capable d’écrire vos SMS à votre place.
Nos confrères de 9to5Google ont obtenu des captures d’écran montrant le fonctionnement de la nouveauté.
La fuite corrobore les précédentes découvertes du média, qui avait
longuement fouillé dans le code de l’APK de l’application en mars.
Depuis, il semble que Google a considérablement progressé dans
l’intégration de l’option, laissant entrevoir une disponibilité
imminente.
Comme
on peut le voir sur les captures d’écran, la fonction s’intitule
« Magic Compose », soit « Composition Magique » en français. Elle
s’appuie sur l’intelligence artificielle générative pour assister l’utilisateur dans la rédaction de messages.
Concrètement, l’IA générative pourra réécrire les SMS de l’utilisateur. Celui-ci sera en effet invité à choisir entre différentes tonalités
dans les paramètres de l’interface. Il est notamment possible de
demander à l’IA de réécrire le message sur un ton formel, enjoué, relax
ou de manière plus brève. Pour à ces options, il suffit de cliquer sur
une icône montrant un stylo qui brille.
Surtout, Google Messages propose de transformer un banal SMS… en paroles de chansons.
Sur base du message tapé par l’utilisateur, l’IA générative va imaginer
un refrain avec des rimes. Au lieu de demander à un proche « quand
rentres-tu ? » ou « ramène du pain, on en a plus », vous pourriez lui
envoyer un petit poème qui conserve l’intention initiale. C’est aussi
amusant qu’inutile. D’après 9to5Google, qui a pu tester l’option, les
textes générés sont parfois absurdes.
Google Messages va vous souffler les réponses
Moins
révolutionnaire, mais plus pratique, l’IA peut aussi vous suggérer de
courtes réponses en fonction du contexte de la conversation. Si vous
discutez avec un proche et que vous évoquez un besoin de craies, Google
Messages suggérera des réponses comme « je m’en charge », « j’apporterai aussi la craie », « j’apporte la craie » ou « j’arrive dans une minute ». Aux yeux de 9to5Google, l’IA propose des réponses plus « approfondies et pertinentes » que les Smart Replies, dont les suggestions restent très basiques.
Le modèle linguistique s’inspire de vos précédents messages
pour deviner la suite logique de la conversation, de la même manière
que Bard, tout comme ChatGPT, examine votre requête pour y répondre.
Pour y parvenir, l’IA puise dans la base de données avec laquelle elle a
été entraînée.
Évidemment, Google n’imposera pas l’intelligence artificielle à ses
utilisateurs. Il sera possible d’activer ou de désactiver « Magic
Compose ». Il suffira de cocher, ou décocher, l’option dans la section
« Suggestions » des paramètres. Notez que Google indique clairement
qu’il s’agit d’une fonction toujours au stade expérimental, tout comme
Bard.
Rendez-vous le 10 mai pour la Google I/O
D’après le média, il est probable que Google ne tarde pas à entamer le déploiement de l’IA
au sein de l’application. On peut s’attendre à ce que le géant de
Mountain View profite de la Google IO, la conférence annuelle consacrée
aux développeurs, pour lever le voile sur « Magic Compose ».
Sauf
surprise, l’intelligence artificielle devrait être l’une des grandes
stars de l’événement. Dans la foulée, Google va aussi présenter son
premier smartphone pliant, le Pixel Fold. La conférence d’ouverture aura lieu le 10 mai 2023. Elle débutera à 19 h, heure de Paris.
Un chercheur a mis au point un leurre qui permet de tromper les pirates grâce à ChatGPT
Son travail ouvre la perspective de beaux progrès en matière de cybersécurité
On sait à contrario que ces modèles de langage peuvent être une arme au service des cybercriminels
Depuis
plusieurs mois, des experts alertent sur les risques que font peser
ChatGPT et ses concurrents sur la cybersécurité. Mais cette fois, c’est
l’inverse qui s’est produit : on s’est servi du modèle de langage
d’OpenAI pour créer un outil efficace contre les cyberattaques.
Cet exploit a été réalisé par Xavier Bellekens, chercheur et PDG de
la société de cybersécurité Lupovis. Il s’est servi de ChatGPT pour
mettre au point un honeypot (pot de miel en Français). Si vous n’êtes
pas trop familier avec cette notion, sachez qu’il s’agit d’un leurre
utilisé pour tromper les hackers en leur faisant croire qu’ils prennent
le contrôle d’un réseau qui n’existe pas.
Concrètement, l’expert a
donc utilisé ChatGPT pour obtenir des instructions et du code pour
construire une fausse imprimante. Il a fait les choses bien car les
éventuels pirates tombaient sur une page de connexion avec des
identifiants et un mot de passe tristement banals : « admin » et
« password ». Cette opération ne lui a pris qu’une dizaine de minutes.
Le système produit avec l’aide de l’IA enregistre aussi toutes les
connexions entrantes dans une base de données.
ChatGPT, pour le meilleur et pour le pire
Une fois lancé,
le honeypot est très vite attaqué par des bots. Puis, le chercheur
constate qu’une personne se connecte et elle est parfaitement repérée
par l’outil mis au point par ChatGPT. En clair, tout fonctionne comme il
le souhaitait.
Bien sûr, il faudra reproduire cette expérience à
plus grande échelle mais elle est très prometteuse et suscite
l’enthousiasme des autres experts en cybersécurité. À terme, on peut
même imaginer pouvoir utiliser des IA telles que ChatGPT pour concevoir
de faux réseaux entiers qui compliqueraient considérablement la tâche
des pirates.
C’est une bonne nouvelle car jusque là on pointait du doigt les risques de ChatGPT.
On sait notamment qu’il permet aux acteurs malveillants de concevoir
des messages de phishing crédibles et sur-mesure dans de très nombreuses
langues. Les e-mail ridicules et bourrés de fautes sont donc destinés à
disparaître.
De même, l’IA pourrait donner l’occasion à des hackers moins
expérimentés d’améliorer leurs connaissances techniques et de mettre au
point des ransomwares, comme l’expliquait récemment Suleyman Ozarslan,
chercheur en sécurité et cofondateur de Picus Security : « Je n’ai aucun doute sur le fait que ChatGPT et d’autres outils de ce type vont démocratiser la cybercriminalité ».
Avec
Aivia, Interprefy propose le tout premier système de traduction vocale
en temps réel fonctionnant à l'IA. Un dispositif révolutionnaire qui
ouvre une nouvelle ère en signant peut-être la fin du métier de
traducteur…
À l'instar de nombreux secteurs d'activité, l'intelligence artificielle
s'est fortement développée dans le domaine de la traduction durant ces
dernières années. Avec la mondialisation, les échanges s'étendent
par-delà les frontières et peuvent devenir plus difficiles à comprendre.
En effet, l'anglais, qui est la langue internationale, n'est parlé que
par environ 17 % de la population mondiale. Aussi, les systèmes de
traduction en temps réel sont devenus indispensables, en particulier
dans le monde du travail. Si l'on en trouve déjà sur certaines
plateformes de visioconférence, comme Skype,
Interprefy, un fournisseur de services de traduction et
d'interprétation, annonce avoir développé un système de traduction
vocale "de parole à parole" (speech-to-speech) utilisant l'intelligence artificielle, comme l'annonce The Next Web. Baptisé Aivia,
l'outil s'adresse en particulier aux réunions et événements
internationaux. Dans un premier temps, Aivia sera disponible en
24 langues et accents régionaux. Elle vise à populariser les traductions
simultanées en les rendant plus abordables.
Interprefy Aivia : rendre la traduction simultanée abordable
Interprefy affirme avoir participé à plus de 50 000 réunions.
Celles-ci vont des conférences de presse à distance lors du tournoi de
football Euro 2020 aux entretiens avec des astronautes dans la Station
spatiale internationale. Cependant, de nombreux organisations et
événements n'ont pas le budget nécessaire pour faire appel à des
interprètes professionnels. "C'est pourquoi nous avons développé un
service qui offre une traduction en temps réel à un prix abordable,
ainsi que la flexibilité et l'assistance nécessaires pour garantir une
expérience multilingue transparente à l'utilisateur", explique Oddmund Braaten, le PDG d'Interprefy.
Concrètement, dans un événement en présentiel, il suffit d'afficher
un QR code sur un écran pour que les invités puissent accéder au service
via leurs téléphones portables ou des appareils équipés d'émetteurs
infrarouges (IR) – téléviseurs, baladeurs, lecteurs multimédias... D'une
simple pression sur un bouton, le service traduit la parole en audio et
en sous-titres en temps réel. Cela permet d'économiser les frais de
traduction normalement investis lors d'importantes conférences, dont le
nombre a explosé durant la pandémie. Interprefy revendique être la
première entreprise à proposer un tel service de traduction vocale
automatisée pour les événements en ligne et en direct. Avia peut
également être utilisée depuis la plateforme de réunion de l'entreprise,
leur application ou une plateforme tierce, comme Zoom et Microsoft Teams.
Interprefy Aivia : le futur de la traduction en temps réel ?
Pour parvenir à un tel résultat, Aivia combine trois technologies
d'IA : la reconnaissance automatique de la parole pour convertir la
parole en texte, la traduction automatique dans la langue ciblée et la
génération de voix synthétique pour lire le texte traduit à haute voix.
Pour compléter le tout, un outil d'extraction de glossaire permet de
personnaliser Aivia pour chaque événement, avec des mots-clés pertinents
et des noms ou abréviations difficiles à comprendre ou à prononcer. Une
boîte à outils permet également d'évaluer la meilleure IA pour chaque
combinaison de langues. Selon Oddmund Braaten, cette approche permet de
surmonter deux problèmes majeurs de la traduction vocale en temps réel :
les résultats incohérents et les besoins des organisateurs
d'événements.
L'utilisation de tels outils interroge sur l'avenir du métier de traducteur – certaines études montrent que le développement d'IA risque de rendre de nombreux métiers du tertiaire obsolètes (voir notre article).
Toutefois, Oddmund Braaten estime que l'IA, au lieu d'être vue comme le
remplaçant des traducteurs humains, peut plutôt jouer un rôle
complémentaire, étant donné que seuls des linguistes compétents peuvent
traduire les subtilités du contexte, du ton, de l'humour et des idiomes.
"Les interprètes ont la capacité unique de s'adapter à chaque
situation et de paraphraser et interpréter des informations non verbales
telles que le langage corporel et le ton de la voix",
explique-t-il. Pour lui, l'IA est à utiliser comme alternative plus
abordable dans des situations où il n'y a pas besoin de grande nuance.
Une chanson a été générée par intelligence artificielle avec les voix de Drake et The Weeknd
Le titre a été supprimé de nombreuses plateformes de streaming sur demande d’Universal
Pour éviter le deepfake, il suffit de bien se protéger
Apparue
sur différentes plateformes de streaming et ayant déjà connu un certain
succès, une chanson générée par de l’intelligence artificielle a été
supprimée d’Apple Music et de Spotify. Deezer et Tidal
ont suivi le mouvement, sur demande expresse des ayants droit (Universal
Music). Et pour cause : ce sont en fait les voix de Drake et de The
Weeknd qui ont ici été clonées, soit des artistes réputés avec déjà des
dizaines de millions d’auditeurs à l’international. C’est la première
fois qu’un tel “incident” concerne des auteurs de cette envergure, si
bien que la décision pourrait faire jurisprudence.
Avec l’avènement des moteurs de création de contenu comme GPT-3 ou
DALL-E, les catalogues de streaming pourraient cependant s’avérer rapidement dépassés
par des requêtes de suppression de ce type. On sait que des robots sont
d’ores et déjà capables de détecter du texte généré par des outils
comme ceux d’OpenAI, mais la tâche pourrait être plus ardue pour
l’audio. La reconnaissance des sons demande en effet de sérieux
entraînements pour les logiciels qui s’y attellent ; ce n’est pas pour
rien qu’Apple a reconnu la valeur de Shazam avant de s’offrir la plateforme.
La revanche du créateur “fantôme”
Ghostwriter, le créateur à l’origine de cette “fausse” chanson, s’est justifié en précisant être ghost producerpour
des majors, mais avec ces derniers collectant la majorité des revenus
issus de ses titres. Un ghost producer est un compositeur payé par un
autre artiste pour créer une piste, mais qui ne sera jamais crédité lors
de sa sortie. Travaillant dans l’ombre, le ghost producer peut être
comparé au prête-plume dans la littérature traditionnelle.
On
ne sait pas, pour l’instant, quelle ampleur représente le phénomène des
chansons générées par intelligence artificielle. Les images de type deepfake, cependant, continuent de susciter des critiques similaires, notamment du côté de l’industrie pornographique et en politique.
Plus de confidentialité comme solution ?
Malgré tout, que
ce soit pour Drake ou pour The Weeknd, il ne sera pas étonnant de voir
des contenus reprenant leur identité se multiplier sur le web ces
prochains mois. La technologie est désormais à la portée de tous,
parfois même gratuite, et même si YouTube a également annoncé prendre
des mesures contre ce type de pratique, il sera par exemple difficile de lutter contre des apps telles que Telegram ou Signal.
Non, pour mieux se protéger, la véritable alternative semble être la confidentialité.
Si votre présence en ligne n’en a pas la couleur, il ne faudra pas
s’étonner de retrouver de pâles copies de votre timbre sur le net. Vous
ne pourrez pas dire que vous ne le saviez pas.