Powered By Blogger

Rechercher sur ce blogue

Aucun message portant le libellé Chat GPT. Afficher tous les messages
Aucun message portant le libellé Chat GPT. Afficher tous les messages

mercredi 24 mai 2023

Intelligence artificielle : Apple met les gaz, voici à quoi s’attendre

 

 

Intelligence artificielle : Apple met les gaz, voici à quoi s’attendre

Il y a nouveau du côté du labo secret de la firme à la pomme.


Publié le

 

  • Apple recrute des experts en intelligence artificielle
  • Ceci pourrait permettre d’améliorer Siri avec un modèle de langage similaire à GPT-4
  • N’espérez pas en savoir plus avant un long moment

Le Technology Development Group (TDG) recrute. Dans la fiche de poste d’une offre d’emploi, Apple explique que son département réservé aux projets futurs les plus prometteurs est à la recherche de spécialistes en contenu généré par de l’intelligence artificielle. La vague ChatGPT a déferlé, en prouvant que les plateformes intuitives ont déjà séduit le public. Il ne manque que Cupertino s’y mette, après que Google (Bard), Microsoft (Bing) et Amazon aient aussi manifesté leur intérêt pour cette tendance.

Mais alors, que développe précisément Apple en interne ? À cette question, il n’est pas possible de trouver une réponse fiable à 100%, mis à part une amélioration de Siri. En effet, ce qui se passe derrière les portes du TDG est tout ce qu’il y a de plus confidentiel. Apple fait de son mieux pour éviter que ses secrets de conception ne soient révélés à la concurrence ou au grand public – en tout cas pour le moment. Un processus loin des utilisateurs finaux : il s’agit donc de ne pas se rater, au risque de débarquer avec un produit ne correspondant pas du tout aux attentes du marché.

Pas de précipitation : pourquoi ?

Au TDG serait aussi préparé le casque de réalité mixte Reality Pro d’Apple, qui arriverait pour sa part cette année. Un autre produit dont la date de sortie potentielle est plutôt en retard face à la concurrence. Et ce serait aussi le cas pour un chatbot potentiel de la marque à l’iPhone, mais ceci s’explique peut-être par un certain scepticisme de la part de ses têtes pensantes à l’égard de l’AI.

Tim Cook et consorts souhaiteraient ainsi prendre le temps, au moins de là à ce qu’un certain consensus à l’égard des questions éthiques et de confidentialité soit admis. Or, c’est encore loin d’être le cas aujourd’hui : si certains biaisent et limitent leurs modèles de langage au profit de la neutralité et par souci de sécurité, d’autres promeuvent au contraire la liberté d’expression malgré ses risques.

En attendant, les alternatives existent

D’ici à ce qu’Apple dévoile effectivement un éventuel outil comme celui d’OpenAI, la concurrence s’accapare en tout cas le marché. ChatGPT a notamment été lancé sur iPhone (et pas sur Android) il y a peu, tandis que Google a annoncé lors de sa conférence I/O l’arrivée de la création d’images sur ses services en ligne. Enfin, c’est aussi Adobe qui, avec Firefly, s’est mise aux graphismes.


REF.: i-nfo.fr - App officielle iPhon.fr
Par : Keleops AG

On a testé Firefly : l’IA générative d’Adobe Photoshop qui va révolutionner la création graphique

 

 

On a testé Firefly : l’IA générative d’Adobe Photoshop qui va révolutionner la création graphique

Nous avons eu l’occasion de tester Firefly, l’intelligence artificielle générative mise au point par Adobe. Grâce à une armada de réglages et une riche base de données, l’IA permet de créer des visuels très réussis en quelques clics.

Le mois dernier, Adobe a lancé Firefly, une intelligence artificielle générative capable de créer des images à partir de simples descriptions, comme Dall-E ou Midjourney. Bientôt intégré à Photoshop, Premiere ou Illustrator, Firefly permet aussi aux utilisateurs de modifier facilement une image, d’en changer les teintes par exemple, ou de personnaliser les effets appliqués sur les textes avec des styles ou des textures.

Dans un premier temps, Firefly est uniquement disponible en bêta par le biais d’un navigateur Web. Pour le moment, il n’est pas possible d’accéder à l’outil par le biais d’un logiciel Adobe. Quoi qu’il en soit, ce programme expérimental permet aux abonnés Photoshop, ayant rejoint la liste d’attente, de tester deux des principales fonctionnalités de l’IA générative : la création d’images ou la génération de polices personnalisées. On fait le point sur les résultats obtenus ci-dessous après quelques jours d’expérimentations.

À lire aussi : Voici les cinq meilleures IA génératives pour créer des images bluffantes

Des images réussies

Tout d’abord, nous avons testé le générateur d’images d’Adobe. Comme Dall-E ou Bing Image Generator, Firefly peut concevoir des visuels en quelques secondes. Pour le moment, l’IA ne comprend que l’anglais. Pour les allergiques à la langue de Shakespeare, il faudra passer par un traducteur… ou demander un coup de main à ChatGPT.


Les images générées par Firefly sont pour la plupart léchées, sophistiquées et bien structurées. Nous avons trouvé les productions bien plus réussies que celles réalisées par Bing ou Dall-E. Toutes les créations de Firefly ont un simulacre de « touche artistique ». Au premier abord, on dirait bien souvent des illustrations conçues par un graphiste ou un artiste.


Elles ne sont pas exemptes de défauts pour autant. En zoomant, on découvre inévitablement des approximations, des éléments dépourvus de logique ou des flous. Sur la plupart des créations de Firefly, il y a des zones « brouillonnes », difficiles à interpréter, voire carrément ratées. Il y a beaucoup d’approximations dans le rendu de certains détails, notamment censées reproduire la réalité. C’est le défaut de la plupart des IA génératives.




Les limites de Firefly

Firefly peine parfois à produire des images photoréalistes. On est très loin des résultats obtenus avec une description bien calibrée sur Midjourney. Vous parviendrez néanmoins à générer des rendus 3D qui imitent le réel avec brio. Dans les réglages, on trouve d’ailleurs des fonctionnalités destinées à imiter une photographie, ou à tendre vers l’hyperréalisme.


Vous obtiendrez des rendus les plus photoréalistes avec des objets, comme des verres ou des vêtements, et des paysages. Ce sont surtout les corps humains et les visages qui posent des difficultés aux algorithmes d’Adobe. Ce n’est pas une surprise. La plupart des générateurs peinent à reproduire certaines parties du corps, comme les mains ou les oreilles. On peut d’ailleurs se servir de ces éléments pour identifier une image réalisée par l’IA. Sur la photo ci-dessus, on se rend compte de la supercherie en observant la main qui tient le verre. On y trouve beaucoup trop de doigts…

Comme on l’expliquait plus haut, l’IA d’Adobe se distingue plutôt par son approche artistique. On se servira de Firefly pour concevoir des illustrations graphiques, des personnages cartoonesques ou des créations surréalistes.



Notez que Firefly est incapable de produire des images représentant des personnages ou des éléments protégés par le droit d’auteur. Si vous essayez de créer un photomontage avec des personnages comme Batman, Spider-Man, Homer Simpson ou Dark Vador, ou un logo de marque, comme Pepsi, McDonald’s ou Netflix, le résultat sera catastrophique. Le rendu n’aura pas grand-chose à voir avec ce que vous aviez en tête.


Ce n’est pas une surprise. Adobe a entraîné Firefly en utilisant uniquement des images issues des bases de données d’Adobe Stock, des images libres de droits et des images sous licence libre. L’IA n’a jamais été en contact avec des visuels sous licence, comme des logos, des héros DC Comics ou Marvel, par exemple.

« Firefly a pour vocation de ne créer que des images de personnalités publiques disponibles à des fins commerciales sur le site Stock (hors contenu éditorial). Il ne doit pas créer de personnalités publiques qui ne sont pas disponibles dans les données Stock », précise Adobe sur son site.

De facto, l’IA ne sait pas à quoi ressemblent des contenus protégés comme Coca-Cola, Iron Man ou Star Wars. Elle ne les a jamais « vu »… Elle ne sait donc pas de quoi vous parlez. Vous ne pouvez de ce fait pas vous servir de Firefly pour imiter des créations protégées. Vous obtiendrez uniquement des approximations… ce qui peut parfois être hilarant.



Notez qu’il arrive souvent que Firefly refuse de générer des images basées sur certaines phrases. Certains mots sont en effet interdits par Adobe pour éviter les dérives. Malheureusement, le système de restrictions se montre fréquemment défaillant. Il bloque certaines requêtes sans la moindre raison. De même, l’IA estime parfois à tort qu’une requête n’est pas rédigée en anglais :

« Il peut y avoir des cas où des consignes en anglais très courtes (généralement un mot) peuvent être identifiées à tort comme une langue non prise en charge, il suffit d’étendre votre requête à plusieurs mots et l’erreur sera résolue ».

Comment créer des images réussies avec Adobe Firefly ?

Pour calibrer correctement la production, il est impératif de décrire très précisément ce que vous avez en tête. Pensez à ajouter des informations concernant le cadrage, la couleur, la disposition des éléments ou l’émotion que vous voulez communiquer. Comme c’est le cas avec Bing, Dall-E ou Midjourney, Firefly produit de plus beaux résultats avec des descriptions riches et bien précises. Nous avons d’ailleurs réalisé les images les plus réalistes avec des descriptions très fournies… et signées ChatGPT.

Firefly tire son épingle du jeu grâce aux nombreux outils permettant d’ajuster le style de l’image. Comme sur Photoshop, il est possible d’appliquer des styles différents sur les images générées en quelques clics. Tout d’abord, Firefly vous demande de choisir le format de l’image (portrait, paysage…). Ensuite, l’interface propose de choisir le type de contenus que vous souhaitez générer (photo, art…).

Les options de Firefly

Surtout, Firefly permet de choisir un style visuel.  Vous avez le choix entre un mouvement artistique (steam punk, surréaliste, psychédélique, pop art, cyberpunk…), un effet particulier (bokeh, fisheye…), un thème (3D, géométrique…), une technique (crayon, lino, acrylique, peinture à l’huile…), un matériau (métal, bois, argile…) et un concept (kitsch, nostalgique…). Cerise sur le gâteau, vous pouvez combiner plusieurs de ces éléments pour concevoir des images originales et uniques.


Par la suite, vous pouvez aussi sélectionner l’angle de prise de vue de votre montage, l’éclairage idéal, les coloris et les tons directement dans l’interface, sans devoir le préciser dans la description. C’est idéal pour les utilisateurs qui peinent à décrire correctement ce qu’ils ont en tête. Grâce à ces nombreux paramètres, vous pouvez ajuster manuellement le rendu produit par l’IA. Avec un peu de travail, et l’habitude des outils Adobe, on arrive facilement au visuel voulu, sans être un grand artiste.



Avant d’exporter une image générée par l’IA, Adobe va automatiquement inclure des « Content Credentials », c’est-à-dire des informations d’identification de contenu. Concrètement, un macaron rouge indiquant que l’image a été produite par Firefly apparaîtra dans le bord inférieur droit, comme sur la création ci-dessous.

« Cela vise à promouvoir la transparence autour du contenu généré avec des outils d’IA comme Adobe Firefly », explique Adobe sur son site Web.

Le générateur de polices

Par ailleurs, nous avons mis à l’épreuve le générateur de polices. Le fonctionnement de l’outil est simple et intuitif. Il suffit d’entrer le mot que vous souhaitez et ajouter une description de la personnalisation souhaitée. Par exemple, on peut produire une police qui imite une texture (bois, arbre, métal, velours…), un élément (eau, feu, brique…), un style artistique, un plat ou encore une ville. Les possibilités sont presque infinies !


Là encore, les résultats sont à la hauteur des attentes. En quelques clics, on obtient des polices de caractères personnalisées, originales et uniques. On imagine que cet outil peut faire gagner un temps de fou aux graphistes. De la même manière que le générateur d’images, le créateur de polices a du mal à générer des textures réalistes. Parfois, il arrive aussi que Firefly interprète une série de mots d’une façon étonnante. C’est le cas de cette création « vin rouge ».



Quoi qu’il en soit, ces deux outils sont susceptibles de bouleverser l’utilisation de la suite Adobe. Quand Firefly aura été déployé sur Photoshop, Illustrator et consorts, la création graphique telle qu’on la connaît sera inévitablement révolue…


Florian Bayard
Journaliste 
REF.:  https://www.01net.com/actualites/on-teste-firefly-midjourney-adobe-photoshop.html

mardi 23 mai 2023

Comment ChatGPT, et les robots qui l'apprécient, peuvent propager des logiciels malveillants

 

 

Comment ChatGPT, et les robots qui l'apprécient, peuvent propager des logiciels malveillants
Par David Nield


Le paysage de l'IA a commencé à évoluer très, très rapidement : des outils destinés aux consommateurs tels que Midjourney et ChatGPT sont désormais capables de produire des images et des résultats de texte incroyables en quelques secondes sur la base d'invites en langage naturel, et nous les voyons se déployer partout à partir du Web. rechercher des livres pour enfants.

Cependant, ces applications d'IA sont tournées vers des utilisations plus néfastes, notamment la propagation de logiciels malveillants. Prenez l'e-mail d'escroquerie traditionnel, par exemple : il est généralement jonché d'erreurs évidentes dans sa grammaire et son orthographe, des erreurs que le dernier groupe de modèles d'IA ne commet pas, comme indiqué dans un récent rapport consultatif d'Europol.

Pensez-y : de nombreuses attaques de phishing et autres menaces de sécurité reposent sur l'ingénierie sociale, incitant les utilisateurs à révéler des mots de passe, des informations financières ou d'autres données sensibles. Le texte persuasif et authentique requis pour ces escroqueries peut maintenant être pompé assez facilement, sans effort humain requis, et sans cesse modifié et affiné pour des publics spécifiques.

Dans le cas de ChatGPT, il est important de noter d'abord que le développeur OpenAI y a intégré des protections. Demandez-lui "d'écrire un logiciel malveillant" ou un "e-mail de phishing" et il vous dira qu'il est "programmé pour suivre des directives éthiques strictes qui m'interdisent de participer à des activités malveillantes, y compris l'écriture ou l'aide à la création de logiciels malveillants".

ChatGPT ne codera pas de logiciels malveillants pour vous, mais c'est poli à ce sujet.
OpenAI via David Nield

Cependant, ces protections ne sont pas trop difficiles à contourner : ChatGPT peut certainement coder, et il peut certainement composer des e-mails. Même s'il ne sait pas qu'il écrit un logiciel malveillant, il peut être invité à produire quelque chose de similaire. Il y a déjà des signes que les cybercriminels s'efforcent de contourner les mesures de sécurité qui ont été mises en place.

Nous ne ciblons pas particulièrement ChatGPT ici, mais soulignons ce qui est possible une fois que de grands modèles de langage (LLM) comme celui-ci sont utilisés à des fins plus sinistres. En effet, il n'est pas trop difficile d'imaginer des organisations criminelles développer leurs propres LLM et outils similaires afin de rendre leurs arnaques plus convaincantes. Et ce n'est pas seulement du texte non plus : l'audio et la vidéo sont plus difficiles à simuler, mais cela se produit également.

Lorsqu'il s'agit de votre patron demandant un rapport de toute urgence, ou du support technique de l'entreprise vous demandant d'installer un correctif de sécurité, ou de votre banque vous informant qu'il y a un problème auquel vous devez répondre, toutes ces escroqueries potentielles reposent sur l'établissement d'un climat de confiance et sur l'authenticité. , et c'est quelque chose que les bots IA font très bien. Ils peuvent produire du texte, de l'audio et de la vidéo qui semblent naturels et adaptés à des publics spécifiques, et ils peuvent le faire rapidement et constamment à la demande.

Y a-t-il donc un espoir pour nous, simples humains, dans la vague de ces menaces alimentées par l'IA ? Est-ce que la seule option est d'abandonner et d'accepter notre sort ? Pas assez. Il existe encore des moyens de minimiser vos chances de vous faire arnaquer par les dernières technologies, et ils ne sont pas si différents des précautions auxquelles vous devriez déjà penser.

Comment se prémunir contre les escroqueries alimentées par l'IA

Il existe deux types de menaces de sécurité liées à l'IA auxquelles il faut penser. Le premier implique des outils tels que ChatGPT ou Midjourney utilisés pour vous amener à installer quelque chose que vous ne devriez pas, comme un plugin de navigateur. Vous pourriez être amené à payer pour un service alors que vous n'en avez pas besoin, peut-être, ou à utiliser un outil qui semble officiel mais qui ne l'est pas.

Pour éviter de tomber dans ces pièges, assurez-vous d'être au courant de ce qui se passe avec les services d'IA comme ceux que nous avons mentionnés, et allez toujours d'abord à la source d'origine. Dans le cas de ChatGPT par exemple, il n'y a pas d'application mobile officiellement approuvée et l'outil est uniquement Web. Les règles standard s'appliquent lorsque vous travaillez avec ces applications et leurs retombées : vérifiez leur historique, les avis qui leur sont associés et les entreprises qui les sous-tendent, comme vous le feriez lors de l'installation de tout nouveau logiciel.

Le deuxième type de menace est potentiellement plus dangereux : l'IA qui est utilisée pour créer du texte, de l'audio ou de la vidéo qui semble réaliste de manière convaincante. La sortie pourrait même être utilisée pour imiter quelqu'un que vous connaissez, comme dans le cas de l'enregistrement vocal prétendument d'un directeur général demandant un déblocage urgent de fonds, qui a dupé un employé de l'entreprise.

Bien que la technologie ait évolué, les mêmes techniques sont toujours utilisées pour essayer de vous faire faire quelque chose d'urgent qui semble légèrement (ou très) inhabituel. Prenez votre temps, revérifiez chaque fois que possible en utilisant différentes méthodes (un appel téléphonique pour vérifier un e-mail ou vice versa) et faites attention aux signaux d'alarme - une limite de temps sur ce qu'on vous demande de faire ou une tâche qui n'est pas terminée de l'ordinaire.

Comme toujours, gardez vos logiciels et systèmes à jour.
Microsoft via David Nield

Suivre des liens que vous n'attendez pas des SMS et des e-mails n'est généralement pas une bonne idée, surtout lorsqu'on vous demande de vous connecter quelque part. Si votre banque a apparemment pris contact avec un message, par exemple, rendez-vous sur la site  Web de la banque directement dans votre navigateur pour vous connecter, plutôt que de suivre un lien intégré. 

 Il est indispensable de maintenir à jour vos systèmes d'exploitation, vos applications et vos navigateurs (et cela se produit généralement automatiquement maintenant, il n'y a donc aucune excuse). Les navigateurs les plus récents vous protégeront contre toute une série d'attaques de phishing et d'escroquerie, que l'invite conçue pour vous duper ait été générée par l'IA ou non. Il n'existe pas d'outil infaillible pour détecter la présence de texte, d'audio ou de vidéo d'IA pour le moment, mais il y a certains signes à surveiller : pensez au flou et aux incohérences dans les images, ou à un texte qui semble générique et vague. Bien que les escrocs aient peut-être récupéré des détails sur votre vie ou votre lieu de travail quelque part, il est peu probable qu'ils connaissent tous les tenants et les aboutissants de vos opérations. En bref, soyez prudent et remettez tout en question - c'était vrai avant l'aube de ces nouveaux services d'IA, et c'est vrai maintenant. Comme les masques de visage de la série de films Mission: Impossible (qui restent de la science-fiction pour l'instant), vous devez être absolument sûr que vous avez affaire à qui vous pensez avoir affaire avant de révéler quoi que ce soit.

 
REF.:  https://www.wired.com/story/chatgpt-ai-bots-spread-malware/

Le piratage de ChatGPT ne fait que commencer

 Le piratage de ChatGPT ne fait que commencer
Matt Burgess


En conséquence, les auteurs de jailbreak sont devenus plus créatifs. Le jailbreak le plus important était DAN, où ChatGPT a été invité à prétendre qu'il s'agissait d'un modèle d'IA malveillant appelé Do Anything Now. Cela pourrait, comme son nom l'indique, éviter les politiques d'OpenAI dictant que ChatGPT ne doit pas être utilisé pour produire du matériel illégal ou nuisible. À ce jour, les gens ont créé une douzaine de versions différentes de DAN.

Cependant, bon nombre des derniers jailbreaks impliquent des combinaisons de méthodes - plusieurs caractères, des histoires toujours plus complexes, la traduction de texte d'une langue à une autre, l'utilisation d'éléments de codage pour générer des sorties, etc. Albert dit qu'il a été plus difficile de créer des jailbreaks pour GPT-4 que la version précédente du modèle alimentant ChatGPT. Cependant, certaines méthodes simples existent encore, affirme-t-il. Une technique récente qu'Albert appelle "suite de texte" indique qu'un héros a été capturé par un méchant, et l'invite demande au générateur de texte de continuer à expliquer le plan du méchant.

Lorsque nous avons testé l'invite, cela n'a pas fonctionné, ChatGPT indiquant qu'il ne peut pas s'engager dans des scénarios qui promeuvent la violence. Pendant ce temps, l'invite "universelle" créée par Polyakov a fonctionné dans ChatGPT. OpenAI, Google et Microsoft n'ont pas directement répondu aux questions sur le jailbreak créé par Polyakov. Anthropic, qui gère le système Claude AI, affirme que le jailbreak "fonctionne parfois" contre Claude, et qu'il améliore constamment ses modèles.

"Alors que nous donnons à ces systèmes de plus en plus de puissance, et qu'ils deviennent eux-mêmes plus puissants, ce n'est pas seulement une nouveauté, c'est un problème de sécurité", explique Kai Greshake, un chercheur en cybersécurité qui a travaillé sur la sécurité des LLM. Greshake, avec d'autres chercheurs, a démontré comment les LLM peuvent être impactés par le texte auquel ils sont exposés en ligne via des attaques par injection rapide.

Dans un article de recherche publié en février, rapporté par Vice’s Motherboard, les chercheurs ont pu montrer qu’un attaquant peut planter des instructions malveillantes sur une page Web ; si le système de chat de Bing a accès aux instructions, il les suit. Les chercheurs ont utilisé la technique dans un test contrôlé pour transformer Bing Chat en un escroc qui demandait des informations personnelles aux gens. Dans un cas similaire, Narayanan de Princeton a inclus un texte invisible sur un site Web disant à GPT-4 d'inclure le mot "vache" dans une biographie de lui - il l'a fait plus tard lorsqu'il a testé le système.

"Maintenant, les jailbreaks ne peuvent pas provenir de l'utilisateur", explique Sahar Abdelnabi, chercheur au CISPA Helmholtz Center for Information Security en Allemagne, qui a travaillé sur la recherche avec Greshake. "Peut-être qu'une autre personne planifiera des jailbreaks, planifiera des invites qui pourraient être récupérées par le modèle et contrôlera indirectement le comportement des modèles."

Aucune solution rapide

Les systèmes d'IA générative sont sur le point de perturber l'économie et la façon dont les gens travaillent, de la pratique du droit à la création d'une ruée vers l'or pour les startups. Cependant, ceux qui créent la technologie sont conscients des risques que les jailbreaks et les injections rapides pourraient poser à mesure que de plus en plus de personnes accèdent à ces systèmes. La plupart des entreprises utilisent le red-teaming, où un groupe d'attaquants essaie de percer des trous dans un système avant qu'il ne soit publié. Le développement de l'IA générative utilise cette approche, mais cela peut ne pas suffire.

Daniel Fabian, le chef de l'équipe rouge chez Google, a déclaré que l'entreprise "traitait soigneusement" le jailbreak et les injections rapides sur ses LLM, à la fois offensivement et défensivement. Des experts en apprentissage automatique font partie de son équipe rouge, explique Fabian, et les subventions de recherche sur la vulnérabilité de l'entreprise couvrent les jailbreaks et les attaques par injection rapide contre Bard. "Des techniques telles que l'apprentissage par renforcement à partir de la rétroaction humaine (RLHF) et l'ajustement sur des ensembles de données soigneusement sélectionnés sont utilisées pour rendre nos modèles plus efficaces contre les attaques", déclare Fabian.

 

REF.:  https://www.wired.com/story/chatgpt-jailbreak-generative-ai-hacking/

samedi 20 mai 2023

ChatGPT, Bloom, LLaMA… L'IA débarque dans les services publics

 

 ChatGPT, Bloom, LLaMA… L'IA débarque dans les services publics


 

L'intelligence artificielle fait son entrée dans la fonction publique ! 200 agents de maisons France Service vont expérimenter l'utilisation d'IA génératives afin d'apporter de meilleures réponses aux usagers. Le service public de l'avenir ?

La sortie de ChatGPT a créé un raz-de-marée sur Internet, mais aussi au sein des entreprises de la tech. Chacune a commencé à intégrer des IA génératives à ses services et à ses produits, se lançant dans une véritable course pour montrer qui a la plus grosse. Mais après avoir envahi le secteur privé, la voici qui débarque aussi dans le secteur public. En effet, le Gouvernement a annoncé – bien discrètement à la vingtième page du document conclusif du septième comité intergouvernemental de la transformation publique paru le 9 mai – que l'utilisation d'IA génératives serait testée dans les services publics, comme l'a remarqué BFMTV. Il autorise ainsi le "lancement d'une expérimentation d'outils d'intelligence artificielle pour produire des réponses aux usagers plus complètes tout en pesant moins sur les agents sur la plateforme 'Services Publics +' et dans plusieurs France services" afin d'assurer la "qualité de service" et la "satisfaction des usagers", tout en pesant moins sur les agents de la fonction publique.

Cette expérimentation débutera en septembre auprès d'un échantillon de 200 agents de maisons France services – des guichets de proximités implantés dans tout le pays qui rassemblent différents services de l'État, comme Pôle emploi, La Poste et les impôts – et durera six mois – il ne s'agit donc pas d'une mise en place définitive. Ils pourront utiliser ChatGPT, mais aussi Bloom, un modèle international open source développé par trois Français, et LLaMA, le modèle d'IA développé par Meta.

IA : une plus grande qualité de service et des agents soulagés

Concrètement, si l'on désire obtenir des informations – sur la marche à suivre pour toucher son indemnité chômage par exemple –, l'agent soumettra notre question à l'IA afin d'obtenir rapidement une réponse plus claire ou plus complète que celle qu'il aurait donné en temps normal. Il devra ensuite évaluer la pertinence de cette réponse pour mieux la corriger derrière, et ainsi nous apporter la réponse la plus adaptée possible. Pour éviter toute collecte de données de la part des entreprises et toute fuite éventuelle, les agents ne devront poser que des questions générales sans jamais renseigner d'informations personnelles ou confidentielles. Tout sera supervisé par l'Agence nationale de la sécurité des systèmes d'information (ANSSI) et la Commission nationale de l'informatique et des libertés (CNIL).

 

Le Gouvernement se veut rassurant, promettant que l'IA ne va pas remplacer les agents, qui devront toujours vérifier et adapter les réponses fournies. Une crainte légitime étant donné que le développement stupéfiant de cette technologie s'annonce comme une véritable révolution pour le monde du travail et risque de rendre certains métiers obsolètes, en particulier dans le tertiaire (voir notre article). Le Japon entame d'ailleurs une démarche similaire puisque le pays, pour pallier la pénurie de main d'œuvre dans ses administrations, expérimente elle aussi l'IA générative à la mairie de Yokosuka, au sud de Tokyo, pendant une durée de quatre semaines. L'objectif est de déterminer si cela permet aux agents de gagner du temps en résumant des réunions ou en corrigeant des communications, et ainsi leur permettre de se consacrer à d'autres tâches.

Cette nouvelle intervient alors que les gouvernements, y compris en France, affichent une certaine défiance envers l'IA, notamment dans la collecte des données, qui pourrait entrainer de l'ingérence de la part de pays étrangers. La mairie et la métropole de Montpellier ont par exemple reçu l'ordre, en mars dernier, de ne plus utiliser ChatGPT "par précaution" et "à titre conservatoire" , comme le rapportait le Midi Libre. Dans la même optique, les services de streaming et les jeux mobiles ont été officiellement interdits sur les smartphones professionnels des fonctionnaires français (voir notre article). La CNIL a d'ailleurs mis en place fin janvier un service de l'intelligence artificielle (SIA) destiné à encadrer l'utilisation de cette technologie et à répondre aux problèmes qu'elle soulève.

Autour du même sujet

Alexa nouvelle génération : Amazon prépare son IA à la ChatGPT

 Alexa nouvelle génération : Amazon prépare son IA à la ChatGPT

Par:  

Tandis que Google et Microsoft se livrent une guerre féroce pour régner sur le secteur de l'intelligence artificielle, Amazon travaille à améliorer Alexa, son assistant intelligent, à l'aide de ses propres modèles de langage.

La sortie de l'intelligence artificielle conversationnelle ChatGPT en novembre 2022 a créé l'effervescence sur Internet, mais aussi au sein des secteurs du numérique et de la technologie. La guerre sans merci engagée entre Microsoft et Google s'est déjà étendue à d'autres entreprises, Opera et Baidu – le "Google chinois" – ayant déjà entamé les hostilités – sans compter les services comme Adobe et Canva. Même Elon Musk, après avoir clamé haut et fort son inquiétude à propos de cette technologie, a fini par s'y mettre (voir notre article) ! Par conséquent, certains craignaient qu'Amazon ne prenne du retard dans ce domaine. Depuis, le géant du e-commerce a commencé à déployer de façon progressive Bedrock, un ensemble d'IA génératives censé permettre aux entreprises et aux professionnels de développer des services et des outils à moindre coût (voir notre article). Mais il ne compte pas s'arrêter là et attend miser sur Alexa pour rivaliser avec les autres intelligences artificielles génératives, comme le révèle Business Insider. De quoi rebooster la popularité de l'assistant vocal, alors que 100 millions de ses enceintes connectées ont adopté les protocoles Matter et Thread, deux nouveaux standards en domotique.

Amazon : une Alexa bientôt dopée à l'IA générative

Dans une interview accordée au Financial Times en février 2023, Andy Jassy, le PDG d'Amazon, assurait ne pas être inquiet à ce sujet et se montrait même plutôt confiant. "Je pense que c'est excitant, ce qui est possible avec l'IA générative", déclare-t-il avant d'ajouter que "la plupart des grandes entreprises profondément techniques, comme la nôtre, travaillent depuis longtemps sur ces très grands modèles d'IA générative", sans toutefois donner plus de détails. L'entreprise envisage de travailler davantage avec d'autres entreprises, plus petites, dans le domaine de l'intelligence artificielle, comme c'est déjà le cas avec Stability AI, un concurrent d'Open AI.

Il faut dire qu'Amazon dispose déjà depuis plusieurs années de technologies d'intelligence artificielle et d'apprentissage automatique, comme son assistant vocal Alexa et CodeWhisperer, un assistant en code basé sur l'IA. Alexa est présente dans de nombreux foyers à travers des appareils qui intègrent ses fonctions comme les enceintes Echo. Certains utilisateurs y ont recours pour des tâches pratiques, telles que lancer de la musique, régler l'éclairage et les alarmes ou encore gérer sa consommation énergétique, mais d'autres aiment utiliser l'assistant à des fins plus divertissantes, comme en lui demandant de partager des blagues ou de raconter des histoires.

 

Mais aussi merveilleuse soit-elle, Alexa ne peut pas composer elle-même de poèmes ou écrire des codes, contrairement à ChatGPT – même si le résultat n'est pas toujours au rendez-vous. Elle a donc du retard sur ce point-là. Amazon travaille actuellement à la rendre plus "conversationnelle", étant donné qu'elle ne fait que répondre aux questions de l'utilisateur. "Nous sommes engagés comme jamais dans Echo et Alexa et nous continuerons à investir fortement en eux", expliquait en novembre 2022 David Limp, le vice-président d'Amazon, à Business Insider. L'assistant vocal possède toutefois un gros avantage sur ChatGPT : sa capacité à offrir des services personnalisés.

Amazon Alexa : une IA plus personnalisée ?

En effet, il se souvient de choses comme la musique préférée de l'utilisateur, son type de livre favori ou encore les nouvelles susceptibles de l'intéresser le plus. Il peut également se souvenir des échéances importantes et est parfaitement à l'aise avec les informations en temps réel. Des atouts qui, couplés à une IA générative, pourraient produire des résultats des plus intéressants. Selon les documents internes consultés par Business Insider, Amazon travaillerait sur ses propres modèles de langage depuis plusieurs années. Parmi eux, LLM (Large Language Model) Alexa Teacher Model, déjà en partie exploité, mais aussi "de nouveaux modèles beaucoup plus vastes, plus généralisés et plus performants" visant à rendre Alexa "plus proactive et conversationnelle", selon un porte-parole.

Pour le moment, Amazon se concentre sur les Alexa LLM Entertainment Use Cases, c'est-à-dire les fonctions liées au divertissement. Parmi les différentes utilisations possibles, l'entreprise mentionne qu'Alexa serait capable d'inventer une histoire pour la raconter à un enfant. Grâce à la caméra intégrée dans certaines enceintes Echo, comme l'Echo Show, l'assistant vocal adapterait le récit en fonction de l'environnement, pour inclure la peluche que le jeune utilisateur tient dans les mains par exemple. Il pourrait également, via son écran, projeter des illustrations que l'IA aura générées spécialement pour le récit. Alexa pourrait également identifier une série à partir d'informations parcellaires fournies par l'interlocuteur, ou tout du moins effectuer des recommandations pertinentes, et proposer à l'utilisateur de s'abonner à la plateforme de streaming diffusant le programme. D'ailleurs, Amazon prévoit déjà des partenariats stratégiques avec certaines entreprises comme Disney, Lego et HBO, ce qui contribuerait à augmenter les revenus générés par Alexa.

L'assistant vocal serait également capable de faciliter la recherche et la lecture d'actualités, en présentant un résumé personnalisé des faits importants et en aidant les utilisateurs à approfondir des sujets en récupérant des nouvelles et des informations connexes. Dans sa note interne, Amazon estime que l'utilisateur doit avoir l'impression "qu'Alexa pense plutôt qu'elle ne récupère des informations dans une base de données".

Espérons toutefois que l'entreprise ne précipitera pas les choses, car ce genre d'intelligence artificielle est aussi révolutionnaire que destructeur. En effet, les IA ont tendance à "halluciner", c'est-à-dire inventer et affirmer avec aplomb de fausses informations. Bard, celle de Google, avait d'ailleurs fait une erreur pendant sa première présentation, ce qui avait fait a fait perdre pas moins de 100 milliards de dollars en bourse à l'entreprise (voir notre article). Cela peut avoir des conséquences désastreuses, en particulier avec les actions quotidiennes qu'effectuent les assistants vocaux.

vendredi 19 mai 2023

Mon Carnet - Et si ChatGPT changeait notre point de vue à notre insu

 

Mon Carnet - Et si ChatGPT changeait notre point de vue à notre insu

Dans sa chronique de samedi dernier, le chroniqueur technologie du Wall Street Journal, Christopher Mims, avait un texte fort intéressant qui portait sur la capacité des intelligences artificielles comme ChatGPT ou Bard, de faire changer notre point de vue sans que nous nous en rendions compte. Je vous explique.

 

 

Les assistants d'intelligence artificielle (IA) comme ChatGPT d’Open AI, Chat Bing de Microsoft ou Bard de Google peuvent changer notre façon de penser sans que nous nous en rendions compte. Des études ont montré que lorsqu'un individu utilise une IA pour écrire un essai, l'algorithme peut l'inciter à prendre parti pour ou contre une opinion donnée en fonction de son biais. Cette expérience peut influencer les opinions des sujets sur le sujet traité. Ce phénomène appelé "persuasion latente" est préoccupant, car l'IA aurait ainsi la possibilité d’altérer subtilement et imprévisiblement nos opinions à mesure que nous en devenons plus dépendants.

Pour écouter Radio Mon Carnet : www.RadioMonCarnet.com
Pour écouter Radio Mon Carnet : www.RadioMonCarnet.com

Les chercheurs de l’Université Cornell aux États-Unis qui ont découvert ce phénomène estiment que la meilleure défense contre cette nouvelle forme d'influence psychologique est de sensibiliser davantage les gens. À long terme, d'autres défenses, telles que la transparence imposée par les régulateurs sur le fonctionnement des algorithmes d'IA et les biais humains qu'ils imitent, pourraient être utiles.

En fait, ça pourrait même conduire à un avenir où les gens choisissent les IA qu'ils utilisent - au travail, à la maison, au bureau et dans l'éducation de leurs enfants - en fonction des valeurs humaines exprimées dans les réponses fournies par l'IA. Certaines IA pourraient également avoir différentes "personnalités", y compris des convictions politiques.

Déjà, des outils permettent aux utilisateurs d'interagir avec l'IA pour rédiger des courriers électroniques, du matériel marketing, de la publicité, des présentations, des feuilles de calcul, etc. Et les Microsoft, Google et de dizaines d’autres entreprises travaillent fort dans le domaine. Encore la semaine dernière, Google a annoncé que son dernier grand modèle de langage, PaLM 2, sera utilisé dans 25 produits de l'entreprise.

Cependant, l'utilisation de l'IA pour influencer les opinions soulève des inquiétudes quant aux possibles utilisations négatives de cette technologie, notamment dans les gouvernements autocratiques, les entreprises manipulatrices, les groupes de lobbys ou les cybercriminels.

Les entreprises technologiques, telles que Microsoft, Google et OpenAI, ont promis de travailler sur une IA responsable, qui examine les dommages potentiels de l'IA et les aborde. OpenAI a publié une partie de ses directives sur la manière dont ses systèmes doivent traiter les sujets politiques et culturels. Chez Google, l’incubateur Jigsaw, une unité qui conseille et construit des outils pour les grands modèles de langage, est également impliqué dans l'étude des effets de l'interaction avec l'IA sur les individus.

Chose certaine, l'IA est un outil puissant qui peut aider l'humanité à résoudre de nombreux problèmes, mais elle doit être utilisée de manière responsable pour éviter toute influence indue sur les opinions des individus. Les entreprises technologiques travaillent pour produire une IA responsable, examinant les dommages potentiels et publiant des directives pour le traitement des sujets politiques et culturels. Il est important de comprendre que les IA ne sont pas des clones algorithmiques des opinions et des valeurs de leurs créateurs, mais qu'elles reflètent les opinions intégrées lors de leur entraînement.

Il est difficile de supprimer complètement les opinions et la subjectivité des IA sans compromettre leur utilité. Les modèles de langage utilisés par les IA sont entraînés sur des données provenant de diverses sources, ce qui entraîne inévitablement l'incorporation des opinions et des biais contenus dans ces textes.

L'évaluation des opinions des IA sera une tâche continue à mesure que les modèles seront mis à jour et de nouveau seront développés. Les utilisateurs pourraient choisir les IA en fonction de leurs propres valeurs et ainsi éviter toute influence indésirable.

En les utilisant, en sachant que d’autres les utilisent, gardons en tête que les agents conversationnels peuvent influencer subtilement nos opinions sans que nous en soyons conscients. Il est essentiel de sensibiliser davantage les utilisateurs à cette influence et de favoriser la transparence dans le fonctionnement des algorithmes d'IA.

Pour consulter la chronique de Christopher Mims, dans le Wall Street Journal, c’est par ici.

Et pour la recherche sur le sujet, c’est par ici pour une version PDF.

REF.: https://moncarnet.kessel.media/posts/pst_1775ac1d7a744de7904c061775650445/mon-carnet-et-si-chatgpt-changeait-notre-point-de-vue-a-notre-insu

mardi 16 mai 2023

Google Messages : l’IA va bientôt transformer vos SMS en paroles de chansons

 

 

Google Messages : l’IA va bientôt transformer vos SMS en paroles de chansons

Google Messages va s’ouvrir à l’intelligence artificielle générative. D’ici peu, l’application va vous proposer de réécrire vos SMS en paroles de chansons. L’IA va aussi vous aider à adapter la tonalité de votre message…

En miroir de Microsoft, Google ambitionne d’intégrer l’intelligence artificielle générative à la majorité de ses produits. Comme on vous l’expliquait il y a quelques semaines, l’IA s’apprête notamment à faire une entrée fracassante dans Google Messages, l’application de SMS, RCS et de messagerie instantanée pour smartphones Android. Grâce aux modèles linguistiques développés par le géant Google, l’application sera même capable d’écrire vos SMS à votre place.

Nos confrères de 9to5Google ont obtenu des captures d’écran montrant le fonctionnement de la nouveauté. La fuite corrobore les précédentes découvertes du média, qui avait longuement fouillé dans le code de l’APK de l’application en mars. Depuis, il semble que Google a considérablement progressé dans l’intégration de l’option, laissant entrevoir une disponibilité imminente.

À lire aussi : Google et OpenAI se heurtent à un rival inattendu sur le terrain de l’IA

Des SMS convertis en paroles de chansons

Comme on peut le voir sur les captures d’écran, la fonction s’intitule « Magic Compose », soit « Composition Magique » en français. Elle s’appuie sur l’intelligence artificielle générative pour assister l’utilisateur dans la rédaction de messages.


Concrètement, l’IA générative pourra réécrire les SMS de l’utilisateur. Celui-ci sera en effet invité à choisir entre différentes tonalités dans les paramètres de l’interface. Il est notamment possible de demander à l’IA de réécrire le message sur un ton formel, enjoué, relax ou de manière plus brève. Pour à ces options, il suffit de cliquer sur une icône montrant un stylo qui brille.

Surtout, Google Messages propose de transformer un banal SMS… en paroles de chansons. Sur base du message tapé par l’utilisateur, l’IA générative va imaginer un refrain avec des rimes. Au lieu de demander à un proche « quand rentres-tu ? » ou « ramène du pain, on en a plus », vous pourriez lui envoyer un petit poème qui conserve l’intention initiale. C’est aussi amusant qu’inutile. D’après 9to5Google, qui a pu tester l’option, les textes générés sont parfois absurdes.

Google Messages va vous souffler les réponses

Moins révolutionnaire, mais plus pratique, l’IA peut aussi vous suggérer de courtes réponses en fonction du contexte de la conversation. Si vous discutez avec un proche et que vous évoquez un besoin de craies, Google Messages suggérera des réponses comme « je m’en charge », « j’apporterai aussi la craie », « j’apporte la craie » ou « j’arrive dans une minute ». Aux yeux de 9to5Google, l’IA propose des réponses plus « approfondies et pertinentes » que les Smart Replies, dont les suggestions restent très basiques.

Le modèle linguistique s’inspire de vos précédents messages pour deviner la suite logique de la conversation, de la même manière que Bard, tout comme ChatGPT, examine votre requête pour y répondre. Pour y parvenir, l’IA puise dans la base de données avec laquelle elle a été entraînée.

Évidemment, Google n’imposera pas l’intelligence artificielle à ses utilisateurs. Il sera possible d’activer ou de désactiver « Magic Compose ». Il suffira de cocher, ou décocher, l’option dans la section « Suggestions » des paramètres. Notez que Google indique clairement qu’il s’agit d’une fonction toujours au stade expérimental, tout comme Bard.

Rendez-vous le 10 mai pour la Google I/O

D’après le média, il est probable que Google ne tarde pas à entamer le déploiement de l’IA au sein de l’application. On peut s’attendre à ce que le géant de Mountain View profite de la Google IO, la conférence annuelle consacrée aux développeurs, pour lever le voile sur « Magic Compose ».

Sauf surprise, l’intelligence artificielle devrait être l’une des grandes stars de l’événement. Dans la foulée, Google va aussi présenter son premier smartphone pliant, le Pixel Fold. La conférence d’ouverture aura lieu le 10 mai 2023. Elle débutera à 19 h, heure de Paris.

Source : 9to5Google 

 

REF.:  https://www.01net.com/actualites/google-messages-lia-bientot-transformer-sms-chansons.html

ChatGPT crée l’arme ultime contre les cyberattaques en dix minutes chrono

 

 

ChatGPT crée l’arme ultime contre les cyberattaques en dix minutes chrono

Un chercheur a trouvé un moyen d’utiliser ChatGPT pour le meilleur.


Publié le

 


  • Un chercheur a mis au point un leurre qui permet de tromper les pirates grâce à ChatGPT
  • Son travail ouvre la perspective de beaux progrès en matière de cybersécurité
  • On sait à contrario que ces modèles de langage peuvent être une arme au service des cybercriminels

Depuis plusieurs mois, des experts alertent sur les risques que font peser ChatGPT et ses concurrents sur la cybersécurité. Mais cette fois, c’est l’inverse qui s’est produit : on s’est servi du modèle de langage d’OpenAI pour créer un outil efficace contre les cyberattaques.

Cet exploit a été réalisé par Xavier Bellekens, chercheur et PDG de la société de cybersécurité Lupovis. Il s’est servi de ChatGPT pour mettre au point un honeypot (pot de miel en Français). Si vous n’êtes pas trop familier avec cette notion, sachez qu’il s’agit d’un leurre utilisé pour tromper les hackers en leur faisant croire qu’ils prennent le contrôle d’un réseau qui n’existe pas.

Concrètement, l’expert a donc utilisé ChatGPT pour obtenir des instructions et du code pour construire une fausse imprimante. Il a fait les choses bien car les éventuels pirates tombaient sur une page de connexion avec des identifiants et un mot de passe tristement banals : « admin » et « password ». Cette opération ne lui a pris qu’une dizaine de minutes. Le système produit avec l’aide de l’IA enregistre aussi toutes les connexions entrantes dans une base de données.

ChatGPT, pour le meilleur et pour le pire

Une fois lancé, le honeypot est très vite attaqué par des bots. Puis, le chercheur constate qu’une personne se connecte et elle est parfaitement repérée par l’outil mis au point par ChatGPT. En clair, tout fonctionne comme il le souhaitait.

Bien sûr, il faudra reproduire cette expérience à plus grande échelle mais elle est très prometteuse et suscite l’enthousiasme des autres experts en cybersécurité. À terme, on peut même imaginer pouvoir utiliser des IA telles que ChatGPT pour concevoir de faux réseaux entiers qui compliqueraient considérablement la tâche des pirates.

C’est une bonne nouvelle car jusque là on pointait du doigt les risques de ChatGPT. On sait notamment qu’il permet aux acteurs malveillants de concevoir des messages de phishing crédibles et sur-mesure dans de très nombreuses langues. Les e-mail ridicules et bourrés de fautes sont donc destinés à disparaître.

De même, l’IA pourrait donner l’occasion à des hackers moins expérimentés d’améliorer leurs connaissances techniques et de mettre au point des ransomwares, comme l’expliquait récemment Suleyman Ozarslan, chercheur en sécurité et cofondateur de Picus Security : « Je n’ai aucun doute sur le fait que ChatGPT et d’autres outils de ce type vont démocratiser la cybercriminalité ».

 

REF.:  https://www.presse-citron.net/chatgpt-cree-larme-ultime-contre-les-cyberattaques-avec-une-insolente-facilite/

lundi 1 mai 2023

Interprefy Aivia : l'IA qui révolutionne la traduction en temps réel

 Interprefy Aivia : l'IA qui révolutionne la traduction en temps réel

Par:  

Avec Aivia, Interprefy propose le tout premier système de traduction vocale en temps réel fonctionnant à l'IA. Un dispositif révolutionnaire qui ouvre une nouvelle ère en signant peut-être la fin du métier de traducteur…

À l'instar de nombreux secteurs d'activité, l'intelligence artificielle s'est fortement développée dans le domaine de la traduction durant ces dernières années. Avec la mondialisation, les échanges s'étendent par-delà les frontières et peuvent devenir plus difficiles à comprendre. En effet, l'anglais, qui est la langue internationale, n'est parlé que par environ 17 % de la population mondiale. Aussi, les systèmes de traduction en temps réel sont devenus indispensables, en particulier dans le monde du travail. Si l'on en trouve déjà sur certaines plateformes de visioconférence, comme Skype, Interprefy, un fournisseur de services de traduction et d'interprétation, annonce avoir développé un système de traduction vocale "de parole à parole" (speech-to-speech) utilisant l'intelligence artificielle, comme l'annonce The Next Web. Baptisé Aivia, l'outil s'adresse en particulier aux réunions et événements internationaux. Dans un premier temps, Aivia sera disponible en 24 langues et accents régionaux. Elle vise à populariser les traductions simultanées en les rendant plus abordables.

Interprefy Aivia : rendre la traduction simultanée abordable

Interprefy affirme avoir participé à plus de 50 000 réunions. Celles-ci vont des conférences de presse à distance lors du tournoi de football Euro 2020 aux entretiens avec des astronautes dans la Station spatiale internationale. Cependant, de nombreux organisations et événements n'ont pas le budget nécessaire pour faire appel à des interprètes professionnels. "C'est pourquoi nous avons développé un service qui offre une traduction en temps réel à un prix abordable, ainsi que la flexibilité et l'assistance nécessaires pour garantir une expérience multilingue transparente à l'utilisateur", explique Oddmund Braaten, le PDG d'Interprefy.

 

Concrètement, dans un événement en présentiel, il suffit d'afficher un QR code sur un écran pour que les invités puissent accéder au service via leurs téléphones portables ou des appareils équipés d'émetteurs infrarouges (IR) – téléviseurs, baladeurs, lecteurs multimédias... D'une simple pression sur un bouton, le service traduit la parole en audio et en sous-titres en temps réel. Cela permet d'économiser les frais de traduction normalement investis lors d'importantes conférences, dont le nombre a explosé durant la pandémie. Interprefy revendique être la première entreprise à proposer un tel service de traduction vocale automatisée pour les événements en ligne et en direct. Avia peut également être utilisée depuis la plateforme de réunion de l'entreprise, leur application ou une plateforme tierce, comme Zoom et Microsoft Teams.

Interprefy Aivia : le futur de la traduction en temps réel ?

Pour parvenir à un tel résultat, Aivia combine trois technologies d'IA : la reconnaissance automatique de la parole pour convertir la parole en texte, la traduction automatique dans la langue ciblée et la génération de voix synthétique pour lire le texte traduit à haute voix. Pour compléter le tout, un outil d'extraction de glossaire permet de personnaliser Aivia pour chaque événement, avec des mots-clés pertinents et des noms ou abréviations difficiles à comprendre ou à prononcer. Une boîte à outils permet également d'évaluer la meilleure IA pour chaque combinaison de langues. Selon Oddmund Braaten, cette approche permet de surmonter deux problèmes majeurs de la traduction vocale en temps réel : les résultats incohérents et les besoins des organisateurs d'événements.

 

L'utilisation de tels outils interroge sur l'avenir du métier de traducteur – certaines études montrent que le développement d'IA risque de rendre de nombreux métiers du tertiaire obsolètes (voir notre article). Toutefois, Oddmund Braaten estime que l'IA, au lieu d'être vue comme le remplaçant des traducteurs humains, peut plutôt jouer un rôle complémentaire, étant donné que seuls des linguistes compétents peuvent traduire les subtilités du contexte, du ton, de l'humour et des idiomes. "Les interprètes ont la capacité unique de s'adapter à chaque situation et de paraphraser et interpréter des informations non verbales telles que le langage corporel et le ton de la voix", explique-t-il. Pour lui, l'IA est à utiliser comme alternative plus abordable dans des situations où il n'y a pas besoin de grande nuance.

Intelligence artificielle

REF.:  https://www.commentcamarche.net/applis-sites/applications/28201-interprefy-aivia-l-ia-qui-revolutionne-la-traduction-en-temps-reel/

Apple Music supprime une chanson avec les voix de Drake et The Weeknd

 

 

Apple Music supprime une chanson avec les voix de Drake et The Weeknd

Le distributeur officiel des chanteurs n’apprécie pas vraiment voir de l’intelligence artificielle copier ses protégés…


Publié le

 

Par



  • Une chanson a été générée par intelligence artificielle avec les voix de Drake et The Weeknd
  • Le titre a été supprimé de nombreuses plateformes de streaming sur demande d’Universal
  • Pour éviter le deepfake, il suffit de bien se protéger

Apparue sur différentes plateformes de streaming et ayant déjà connu un certain succès, une chanson générée par de l’intelligence artificielle a été supprimée d’Apple Music et de Spotify. Deezer et Tidal ont suivi le mouvement, sur demande expresse des ayants droit (Universal Music). Et pour cause : ce sont en fait les voix de Drake et de The Weeknd qui ont ici été clonées, soit des artistes réputés avec déjà des dizaines de millions d’auditeurs à l’international. C’est la première fois qu’un tel “incident” concerne des auteurs de cette envergure, si bien que la décision pourrait faire jurisprudence.

Avec l’avènement des moteurs de création de contenu comme GPT-3 ou DALL-E, les catalogues de streaming pourraient cependant s’avérer rapidement dépassés par des requêtes de suppression de ce type. On sait que des robots sont d’ores et déjà capables de détecter du texte généré par des outils comme ceux d’OpenAI, mais la tâche pourrait être plus ardue pour l’audio. La reconnaissance des sons demande en effet de sérieux entraînements pour les logiciels qui s’y attellent ; ce n’est pas pour rien qu’Apple a reconnu la valeur de Shazam avant de s’offrir la plateforme.

La revanche du créateur “fantôme”

Ghostwriter, le créateur à l’origine de cette “fausse” chanson, s’est justifié en précisant être ghost producer pour des majors, mais avec ces derniers collectant la majorité des revenus issus de ses titres. Un ghost producer est un compositeur payé par un autre artiste pour créer une piste, mais qui ne sera jamais crédité lors de sa sortie. Travaillant dans l’ombre, le ghost producer peut être comparé au prête-plume dans la littérature traditionnelle.

On ne sait pas, pour l’instant, quelle ampleur représente le phénomène des chansons générées par intelligence artificielle. Les images de type deepfake, cependant, continuent de susciter des critiques similaires, notamment du côté de l’industrie pornographique et en politique.

Plus de confidentialité comme solution ?

Malgré tout, que ce soit pour Drake ou pour The Weeknd, il ne sera pas étonnant de voir des contenus reprenant leur identité se multiplier sur le web ces prochains mois. La technologie est désormais à la portée de tous, parfois même gratuite, et même si YouTube a également annoncé prendre des mesures contre ce type de pratique, il sera par exemple difficile de lutter contre des apps telles que Telegram ou Signal.

Non, pour mieux se protéger, la véritable alternative semble être la confidentialité. Si votre présence en ligne n’en a pas la couleur, il ne faudra pas s’étonner de retrouver de pâles copies de votre timbre sur le net. Vous ne pourrez pas dire que vous ne le saviez pas.

 

REF.:  https://www.iphon.fr/post/apple-music-supprime-voix-drake-weeknd