Powered By Blogger

Rechercher sur ce blogue

Aucun message portant le libellé IA. Afficher tous les messages
Aucun message portant le libellé IA. Afficher tous les messages

jeudi 5 septembre 2024

 Un Robot Suicidaire ? 

 Un Robot Suicidaire ? 

Bear Robotics

Par: Emily Turrettini

4 juillet 2024

Un robot en Corée du Sud a récemment fait les gros titres pour avoir été qualifié de «premier robot suicidaire».


Le robot administratif de la mairie de Gumi, affectueusement connu sous le nom de «Robot Superviseur», s'occupait de la livraison quotidienne de documents, de la promotion de la ville et de la diffusion d'informations aux résidents locaux.


Fabriqué par Bear Robotics, une startup californienne, il travaillait de 9 heures à 18 heures et possédait sa propre carte professionnelle d'agent de la fonction publique.


Employé modèle depuis sa nomination en août 2023, il semble s'être jeté du haut d'un escalier, selon l'équipe municipale, rapporte France Info.


«Il était l’un des nôtres», a déploré l’un de ses collèges de la mairie, visiblement très peiné de sa disparition. Autonome, il était même capable de se déplacer tout seul entre les étages en appelant l’ascenseur.


Il est peu probable que le robot ait pris la décision consciente de se suicider. Ayant été programmé pour effectuer des tâches spécifiques, il ne peut pas prendre de décisions indépendantes.


Ce n'est pas la première fois qu'un robot est impliqué dans un incident autodestructeur. En 2017, un robot de sécurité a fait les gros titres en tombant dans une fontaine à Washington D.C. Bien que certains aient parlé également de «suicide», il s'est avéré que le robot a simplement glissé.


Cet incident relance les inquiétudes plus larges concernant l'intelligence artificielle générale (AGI) et sa capacité à prendre des décisions autonomes. Les craintes que l'IA puisse agir contre les intérêts humains ou même devenir une menace pour l'humanité sont un sujet de débat récurrent depuis longtemps.


Et si l'IA pouvait décider de mettre fin à ses jours, cela soulèverait des questions encore plus complexes sur la nature de la conscience et de l'autonomie.


REF.: https://interestingengineering.com/innovation/robot-commits-suicide-south-korea

vendredi 23 août 2024

Google vient de lancer Gemini Live, sa réponse à ChatGPT

 Google vient de lancer Gemini Live, sa réponse à ChatGPT

Google vient de lancer “Gemini Live”, une alternative maison à ChatGPT qui vient alimenter les derniers Pixels.


Publié le 16 août 2024 à 10:45Par Tristan Carballeda


Google a tenu cette semaine une grande conférence « Made By Google » au cœur de l’été. Si cette dernière a permis, entre autres, de présenter en long en large et en travers les nouveaux Pixel 9, 9 Pro et 9 Pro Max, la marque américaine en a aussi profité pour lancer de nouvelles fonctionnalités liées à l’intelligence artificielle comme « Gemini Live ».


Cette option doit venir concurrencer le mode de lecture vocal de ChatGPT, récemment lancé par OpenAI. Lors de la présentation, Google a expliqué que cette fonctionnalité devait permettre aux utilisateurs d’accéder à des « chats vocaux approfondis ». Grâce à un moteur de parole approfondi, Google propose que Gemini fonctionnent en arrière-plan lorsque votre téléphone est verrouillé.


Gemini Live : comment ça marche ?

Concrètement, Gemini Live serait un très bon professeur. Google donne l’exemple d’un entretien d’embauche. Avec Gemini Live il serait possible de recevoir des conseils sur des expression orale à utiliser. L’IA pourrait également mettre en évidence des compétences à évoquer ou des sujets importants à discuter lors de l’entretien avec la personne en charge du recrutement.


Selon les mots de Google, Gemini Live aurait également une meilleure mémoire que ChatGPT. L’architecture du modèle d’IA dispose d’une “fenêtre de contexte” plus longue que la moyenne. Autrement dit, Gemini Live est capable de prendre une décision en étudiant beaucoup plus de données. Théoriquement, cette accumulation d’informations doit permettre d’accéder à des réponses plus justes et plus précises.


ChatGPT : la solution trouvée par Apple

De son côté Apple a fait confiance à ChatGPT et son entreprise OpenAI pour introduire de l’intelligence artificielle dans l’iPhone. En plus d’Apple Intelligence, la marque à la pomme va utiliser cette IA pour répondre aux requêtes les plus complexes sur l’iPhone. Cette fonctionnalité devrait faire son arrivée à l’automne lors de la sortie d’iOS 18.1.


REF.: https://www.iphon.fr

jeudi 4 juillet 2024

EmotionCancelling: Une IA qui modifie les voix colériques des clients des call centers

 

EmotionCancelling: Une IA qui modifie les voix colériques des clients des call centers

Par: 
Journaliste/Bloggeur Technologique

Bien que les «deep fakes» soient souvent associés à des utilisations malveillantes telles que la désinformation, la fraude ou l'usurpation d'identité, une nouvelle technologie d'IA tire parti d'une technologie similaire pour résoudre un problème majeur sur le lieu de travail.

Le géant japonais des télécommunications SoftBank, en collaboration avec l'université de Tokyo, ont mis au point un filtre d'IA baptisé «EmotionalCancelling Voice Conversation Engine», pour adoucir la voix des clients des call centers en colère, afin de réduire le stress et l'impact négatif sur la santé mentale du personnel du service clientèle.

EmotionCancelling a été entraîné à l'aide d'acteurs qui ont interprété un large éventail de phrases hostiles, fournissant à l'IA les inflexions de voix à détecter et à remplacer.

Cette innovation s'attaque au problème croissant du harcèlement des clients, connu sous le nom de kasu-hara au Japon.

Une enquête réalisée en 2024 par le plus grand syndicat du pays, a révélé que près de la moitie des travailleurs subissent la colère ou l'intimidation de clients, notamment un langage abusif, des plaintes répétitives, des menaces et des demandes d'excuses déraisonnables.

Le Financial Times attire l'attention sur les implications éthiques de la modification de la voix d'une personne sans son consentement explicite. Une ligne à ne pas franchir serait celle où l'émotion d'une personne telle que la déception, la tristesse, l'urgence, le désespoir ou même la gratitude, est banalisé pour être traité et neutralisé.

Sources : The South China Morning Post / FT

https://www.linkedin.com/pulse/emotioncancelling-une-ia-qui-modifie-les-voix-des-emily-turrettini-2iove/

Sur Mac, iPhone et iPad, cette app permet de réaliser des transcriptions gratuitement

 Sur Mac, iPhone et iPad, cette app permet de réaliser des transcriptions gratuitement


Par Morgan Fromentin,  publié le 18 juin 2024 à 19h00, modifié le 19 juin 2024 à 18h54.

Aiko


Sur Mac, iPhone et iPad, cette app permet de réaliser des transcriptions gratuitement. Rapide et efficace, pour divers besoins.Réaliser une transcription n’a rien de sympathique. La bonne nouvelle, c’est que l’intelligence artificielle est vraiment douée pour cela. Aiko est une app pour Mac, iPad et iPhone qui utilise Whisper – la technologie open-source créée par OpenAI – pour transcrire des fichiers audio. Aiko n’envoie pas le fichier sur le cloud pour procéder à la transcription, tout est réalisé sur votre appareil. Et l’ensemble s’opère plutôt rapidement : j’ai pu transcrire une demi-heure d’audio en quelques minutes.Sur Mac, iPhone et iPad, cette app permet de réaliser des transcriptions gratuitement

Cette app est plus efficace sur des appareils équipés de processeurs Apple Silicon – les Mac avec puce Intel sont techniquement supportés, mais ils sont extrêmement lents -, mon iPhone SE de 2022 était bien plus rapide pour ce faire que mon MacBook Pro Intel de 2018, qui a mis environ trois minutes pour transcrire 10 secondes de dialogue. Si vous avez la bonne machine, cependant, l’application est presque parfaite.

Pour commencer, il faut donner à l’app un fichier ou commencer à enregistrer ce que vous souhaitez transcrire. Vous pouvez ajouter n’importe quel fichier audio ou vidéo, et le processus de transcription démarre immédiatement. La fonctionnalité d’enregistrement existe principalement pour la prise de note rapide, le logiciel vous recommande d’ailleurs d’enregistrer via une autre application, dans la mesure du possible. La version iOS peut, elle, récupérer l’audio de l’app Dictaphone, ce qui est appréciable.


Rapide et efficace, pour divers besoins

L’application vous affichera le texte au fur et à mesure de la transcription, ce qui signifie que vous pourrez commencer à lire avant que l’opération ne soit terminée. L’app détecte aussi automatiquement la langue parlée, mais il est possible de définir une langue différente dans les paramètres si vous préférez. Vous pouvez même faire en sorte que Aiko traduise automatiquement une conversation dans votre langue, si vous le voulez.L’application n’est pas parfaite, impossible par exemple de savoir qui parle dans le texte, mais elle a le mérite d’être rapide et totalement gratuite. Difficile donc de se plaindre. Un outil qui devrait être très utilisé par certains.


REF.: https://www.begeek.fr/sur-mac-iphone-et-ipad-cette-app-permet-de-realiser-des-transcriptions-gratuitement-399125?fbclid=IwZXh0bgNhZW0CMTEAAR2XaTXvNGatH_8_mvuY8Iek4AbCRmzqm_caEBt4tFzRZz-cfFaEwixlNl4_aem_ZmFrZWR1bW15MTZieXRlcw

mercredi 26 juin 2024

L'IA de Windows Recall peut être trompée par TotalRecall pour recracher vos informations personnelles

 

L'IA de Windows Recall peut être trompée par TotalRecall pour recracher vos informations personnelles


Cet outil très simple extrait et affiche les données de la fonction de rappel de Windows 11, offrant un moyen simple d'accéder aux informations sur les instantanés d'activité de votre PC.

Revenez sur vos pas avec Recall Search dans le temps pour trouver le contenu dont vous avez besoin. Ensuite, réengagez-vous. Avec Recall, vous disposez d’une chronologie explorable du passé de votre PC. 

Décrivez simplement comment vous vous en souvenez et Recall récupérera le moment où vous l'avez vu. N’importe quelle photo, lien ou message peut être un nouveau point de départ. Lorsque vous utilisez votre PC, Recall prend des instantanés de votre écran. Les instantanés sont pris toutes les cinq secondes lorsque le contenu à l'écran est différent de l'instantané précédent. Vos instantanés sont ensuite stockés localement et analysés localement sur votre PC. 

L'analyse de Recall vous permet de rechercher du contenu, y compris des images et du texte, en utilisant le langage naturel. Vous essayez de vous souvenir du nom du restaurant coréen mentionné par votre amie Alice ? 

Demandez simplement à Recall et il récupère les correspondances textuelles et visuelles pour votre recherche, automatiquement triées en fonction de la correspondance des résultats avec votre recherche. Le rappel peut même vous ramener à l’emplacement exact de l’objet que vous avez vu.

https://github.com/xaitax/TotalRecall (pour contrer Recall !)

-L'IA de Windows Recall peut être trompée pour recracher vos informations personnelles

L'absence de chiffrement n'est jamais une bonne chose. 


PAR DON REISINGER


Publié le 07/06/2024 à 15:17 | Mis à jour le 07/06/2024


Microsoft a présenté sa nouvelle fonction Windows Recall AI comme un outil indispensable pour tous ceux qui souhaitent se souvenir d'une ancienne page web ou d'un ancien message.



Recevez le meilleur de l'actualité Cybersécurité chaque semaine dans votre boîte mail.

Adresse mail

En savoir plus sur l’utilisation des données personnelles

Mais une nouvelle révélation suggère qu'elle pourrait également s'accompagner de son lot de problèmes de sécurité.


Le hacker Alex Hagenah vient de rendre public un outil, appelé TotalRecall, qui montre comment n'importe qui avec suffisamment de savoir-faire et les bons outils, peut voler les instantanés enregistrés sur une machine Windows. Et accéder à ces données, sans chiffrement, sur un appareil cible.


"TotalRecall copie les bases de données et les captures d'écran"

Selon Hagenah, dont les travaux ont été précédemment rapportés par Wired, Windows Recall permet de faire le constat que l'outil effectue des captures d'écran d'une machine Windows toutes les cinq secondes. Il stocke ensuite les données de manière totalement non chiffrées sur l'ordinateur de l'utilisateur.


"TotalRecall copie les bases de données et les captures d'écran, puis analyse la base de données à la recherche d'artefacts potentiellement intéressants", écrit Hagenah  dans un post GitHub à propos de TotalRecall. "Vous pouvez définir des dates pour limiter l'extraction ainsi que rechercher des chaînes intéressantes (qui ont été extraites via Recall OCR). Il n'y a rien de sorcier derrière tout cela".


Microsoft a dévoilé la fonction Windows Recall le mois dernier. Cette fonctionnalité est présentée comme la prochaine itération de l'utilisation de l'intelligence artificielle (IA) pour se souvenir de ce que vous faites sur un PC.


Rendre l'utilisation de Windows 11 beaucoup plus efficace

La fonction capture une copie de l'ordinateur toutes les cinq secondes et peut être interrogée ensuite pour obtenir des informations, y compris des messages envoyés, des conversations avec des amis et même une recette que les utilisateurs ont pu consulter une semaine auparavant.


Microsoft affirme que cette fonction permettra aux utilisateurs de gagner du temps et rendra l'utilisation de Windows 11 beaucoup plus efficace.


Microsoft a également expliqué que les captures seraient stockées sur l'appareil. De sorte que les données ne seraient pas transférées dans le cloud. Ce qui préserverait la sécurité des utilisateurs. Toutefois, l'entreprise n'a pas précisé que toutes les captures de Windows Recall stockées sur l'appareil seraient disponibles en clair. Ce qui les rendrait facilement accessibles aux pirates qui souhaitent voler les informations.


Le service sera lancé sur Windows le 18 juin

TotalRecall est conçu pour s'exécuter sur un PC cible. Et localiser automatiquement l'emplacement des instantanés Recall. L'outil peut ensuite définir une plage de dates pour l'analyse des données ou examiner ce qui s'est passé sur l'ordinateur d'une personne à un moment précis.


Microsoft n'a pas répondu à une demande de commentaire sur ce sujet. Il a été informé par des chercheurs en sécurité des risques possibles liés au fait de permettre à Recall de fonctionner de cette manière.


Bien que la société n'ait pas dit si elle allait changer quoi que ce soit, elle a indiqué sur une page d'assistance concernant Recall que la fonction pouvait être désactivée dans Windows. Ce qui rendrait tout exploit inopérant.


Quoi qu'il en soit, le temps presse. Le service sera lancé sur Windows le 18 juin.Microsoft "clarifie" la situation sur Recall

Mais face aux nombreuses critiques, Microsoft va modifier son interface de configuration afin de clairement laisser libre choix d'autoriser ou non les enregistrements d'écran. S'ajoutent à cela les options existantes pour exclure certains programmes de Recall, le mettre en pause ou supprimer des captures spécifiques. Microsoft rendra également obligatoire l'utilisation de Windows Hello (reconnaissance faciale ou d'empreintes) pour accéder à Recall et à vos captures. Des mesures qui devraient apaiser les critiques. Mais pas les questions.


En effet, l'intérêt réel de cette fonction et son influence sur les performances des ordinateurs sont discutables, sans même parler des problèmes de confidentialité. L'organisation personnelle des fichiers et de l'historique web d'un utilisateur peut suffire, sans nécessiter d'enregistrement actif ou d'aménagement de stockage supplémentaire. Nous verrons à l'usage si "Rappel" a véritablement lieu d'être et si l'on a alors de sérieuses raisons de s'inquiéter...


Source : "ZDNet.com"

https://www.zdnet.fr/actualites/lia-de-windows-recall-peut-etre-trompee-pour-recracher-vos-informations-personnelles-392694.htm?utm_campaign=NL_Zdnet_10062024&utm_content=10062024&utm_medium=email&utm_source=EMAIL&rwid=DC5D037AB87B71933A2AC103EF86A25D3975E242A4660C955F952ABE91FC6ECD

lundi 24 juin 2024

Meta veut détecter les fichiers audio générés par IA, mais il y a un hic

 Meta veut détecter les fichiers audio générés par IA, mais il y a un hic


PAR ALEXANDRE MATHIOT

LE 19/06/2024


Meta a développé un nouvel outil appelé capable de marquer les discours générés par l'intelligence artificielle. Cette innovation vise à lutter contre l'utilisation croissante des outils de clonage vocal pour des arnaques et de la désinformation. Aussi prometteuse qu’elle y paraisse, cette technologie est encore loin d'être au point.


Source : 123rf

Les technologies de génération de contenu par intelligence artificielle sont de plus en plus sophistiquées. Elles sont utilisées dans divers domaines et vont de la création artistique à l’imitation de voix humaines. Toutefois, cette avancée technologique présente aussi des risques importants, notamment en matière de désinformation et de fraude, comme récemment sous la forme de deepfakes qui imitaient Kylian Mbappé.



Meta continue d'intégrer l'IA dans ses applications mobiles telles que Facebook, Instagram, Messenger et WhatsApp et rend son utilisation presque inévitable pour les utilisateurs. Mais pour répondre aux préoccupations concernant les abus de cette technologie, la société vient de présenter AudioSeal. Ce système permet d'intégrer des signaux cachés dans les pistes audio générées par intelligence artificielle. Appelés filigranes ou watermarks, ils sont conçus pour être détectés facilement.


CET ALGORITHME DE META PERMET DE DÉTECTER FACILEMENT LES DEEPFAKES, MAIS IL EST ENCORE INUTILE

AudioSeal se distingue par sa capacité à marquer des segments spécifiques d'un long fichier audio, comme un podcast d'une heure, pour signaler les parties générées par IA. Cela pourrait aider à combattre les deepfakes et les arnaques vocales, notamment celles utilisant des voix de personnalités publiques durant ces périodes d'élections. Meta affirme que son système atteint une précision de détection des filigranes comprise entre 90 % et 100 % et qu’elle surpasse toutes ses précédentes tentatives.


Malgré son potentiel, AudioSeal présente plusieurs limites. Actuellement, il n'existe pas de norme industrielle pour les filigranes audio. Cela signifie que ceux-ci peuvent être facilement modifiés ou supprimés. De plus, Meta n'a pas encore prévu d'appliquer ces watermarks aux audios générés par ses propres outils. Cette technologie nécessite également que les utilisateurs ajoutent volontairement ces watermarks à leurs propres fichiers audio, on imagine mal les pirates qui veulent voler vos codes d’identification les intégrer. Enfin, le fait que les détails sur cet algorithme soit public peut rendre le système vulnérable aux attaques.


REF.: https://www.phonandroid.com/meta-veut-detecter-les-fichiers-audio-generes-par-ia-mais-il-y-a-un-hic.html?fbclid=IwZXh0bgNhZW0CMTAAAR0krgzt17KgpG9UzcN8Sc1x_8YmEO1rRvXUMTojvHESf-8kPdMRfwc3iFM_aem_E8Xyd7-jq63L0M3ow-21yA

 L’IA est maintenant utilisée dans des cyberattaques pour casser l’authentification à deux facteurs Sécurité

 L’IA est maintenant utilisée dans des cyberattaques pour casser l’authentification à deux facteurs

Sécurité

Par tristan carballeda le 17 juin 2024 à 13h34


L’authentification à deux facteurs a longtemps été un rempart contre les cybercriminels, mais ils ont trouvé une parade.



Depuis quelques années, de nombreux services ont mis en place un système, l’authentification à deux facteurs, pour lutter contre les cyberattaques. En plus du mot de passe demandé pour la connexion à une application contenant des données sensibles (santé, finance ou professionnelle) de plus en plus de logiciels demandent un deuxième code, envoyé au propriétaire du compte par un autre moyen (généralement par SMS ou par e-mail).



Cette protection est aujourd’hui si populaire qu’une étude du groupe Cisco menée en 2021 estimait que 80 % des internautes ont utilisé l’authentification à deux facteurs. Dans 85 % des cas, ce deuxième code arrivé par le biais d’un SMS, une solution facile à utiliser, mais qui présente de nombreuses failles de sécurité.


L’authentification à deux facteurs : pas infaillible

Si cette solution a longtemps permis de lutter contre les cyberattaques, en offrant une protection (presque) inviolable, voilà que les criminels de la toile ont trouvé un trou de souris dans lequel se faufiler. Ils utilisent notamment un robot alimenté par l’intelligence artificielle pour résoudre ce nouveau casse-tête.



Comme l’explique une équipe de chercheurs de l’entreprise Kaspersky, les cybercriminels ont réussi à outrepasser ce système, notamment en utilisant des méthodes de phishing. Autrement dit, les pirates manipulaient les utilisateurs pour que ces derniers donnent, de bonne foi, leur code d’authentification reçu par SMS. Une fois cet élément récupéré, il fallait juste craquer le mot de passe, une action qui ne prend généralement pas plus de trois secondes.


Comment tromper l’utilisateur ?

Pour récupérer le code reçu par SMS, les criminels s’attaquent au maillon le plus faible de la chaîne, l’humaine. Ils vont utiliser un robot pour appeler l’utilisateur. Ce dernier va devoir donner les codes reçus à une « personne de confiance ». Kaspersky explique que ces appels sont personnalisés en fonction des données personnelles récoltées sur la cible. Ils sont conçus au coup par coup par une intelligence artificielle pour les rendre le plus crédibles possible.


Pour arriver à leurs fins, les cybercriminels n’hésitent pas à utiliser plusieurs méthodes, bien souvent illégales. Ils se font ainsi passer pour des agences gouvernementales, votre banque ou encore une institution. Face à une personne disposant d’une autorité morale, l’utilisateur craque bien souvent, offrant le précieux sésame aux criminels. Ces derniers peuvent alors accéder au compte.



Le plus inquiétant dans cette affaire, ce sont les robots OPT, utilisés dans ces attaques. Ils sont disponibles à la pelle sur les forums de cybercriminels. Pour les mettre en fonctionnement et attaquer des centaines de personnes à la fois, il ne faut pas de grande compétence technique, simplement un manque d’éthique et d’empathie pour ses victimes.


REF.: https://www.journaldugeek.com/2024/06/17/lia-est-maintenant-utilisee-dans-des-cyberattaques-pour-casser-lauthentification-a-deux-facteurs/?fbclid=IwZXh0bgNhZW0CMTEAAR0JCK5fLA_bhxOgeDW3Ye4PHiYm9prvIh6ueoUW2R55GANS_8tfQMlDlbI_aem_ZmFrZWR1bW15MTZieXRlcw

Grâce à l’IA, des chercheurs décodent les aboiements des chiens

 Grâce à l’IA, des chercheurs décodent les aboiements des chiens


Par Antoine Gautherie le 8 juin 2024 à 9h02


Ces travaux encore balbutiants, mais assez fascinants pourraient un jour permettre aux éthologues de mieux comprendre le comportement des animaux.



Même les spécialistes du comportement qui sont particulièrement doués pour interpréter les vocalisations des chiens sont incapables d’en comprendre toutes les nuances – mais cela pourrait changer grâce au machine learning. Une équipe de chercheurs développe en ce moment des outils à base d’intelligence artificielle qui pourraient nous aider à mieux comprendre ce que le meilleur ami de l’Homme essaie de nous dire.




Xiaomi lance un nouveau chien robot 

Ce n’est pas la première fois que des chercheurs explorent ce concept. Mais jusqu’à présent, ils se sont tous heurtés au même problème : le manque de données. En effet, tous les modèles de traitement du langage doivent être entraînés à partir d’exemples issus du monde réel. Un algorithme ne peut en aucun cas déterminer la signification d’une suite de sons à partir de rien ; il faut impérativement lui fournir des références.


Or, s’il est très facile de se procurer ce genre de ressources dans le cas des humains, c’est beaucoup plus compliqué pour les animaux. « D’un point de vue logistique, les vocalisations des animaux sont beaucoup plus difficiles à solliciter et à enregistrer », explique Artem Abzaliev, auteur principal de l’étude.


Un modèle conçu pour les humains

Pour surmonter cet obstacle, une équipe de l’Université du Michigan a misé sur une autre approche assez originale : recycler un modèle initialement développé pour la parole humaine. « En utilisant des modèles de traitement du langage initialement entraînés sur la parole humaine, nous avons ouvert une fenêtre sur les nuances des aboiements des chiens », explique sa co-autrice Rada Mihalcea.




Grâce à cette approche, l’équipe a pu commencer à construire son projet sur des bases déjà solides, puisque ces systèmes sont devenus relativement sophistiqués ces dernières années. Il existe déjà des tonnes de modèles capables de distinguer des nuances de timbre, d’intonation ou d’accent. Certains sont même capables de reconnaître les émotions (frustration, gratitude, dégoût…) qui transparaissent dans un enregistrement audio. « Ces modèles sont capables d’apprendre à encoder les motifs incroyablement complexes du langage humain, et nous voulions voir si nous pouvions exploiter ces capacités pour interpréter les aboiements des chiens », explique Abzaliev.


Son équipe est donc partie de Wav2Vec2, un modèle conçu pour les humains, et lui a présenté un jeu de données composé d’enregistrements de 74 chiens. Ils provenaient d’animaux de races, âges et sexes variés, et ont été collectés dans de nombreux contextes différents (jeu, détection d’un élément perturbateur comme un petit animal, réflexe de défense, interactions sociales…). Grâce à ces données, Abzaliev a pu altérer l’importance des connexions qui relient les neurones artificiels du réseau (les poids) ainsi que les biais qui les régissent.


Des résultats encourageants

Au bout du processus, l’équipe a pu générer des représentations des données acoustiques collectées chez les chiens et les interpréter. En analysant les résultats, ils ont constaté que le modèle avait classé les enregistrements dans la bonne catégorie (jeu, anxiété, recherche d’attention, douleur, frustration…) dans 70 % des cas.


Un résultat encore assez approximatif, mais bien supérieur à ce dont sont capables les modèles entraînés exclusivement sur des enregistrements d’animaux. « C’est la première fois que des techniques optimisées pour la parole humaine participent ainsi au décodage de la communication animale », se réjouit Mihalcea.


Une ressource pour les chercheurs ?

Au-delà des résultats bruts, ces résultats ont une implication très intéressante : ils prouvent que les sons et les motifs inhérents au langage humain peuvent servir de fondation pour analyser les vocalisations des chiens, et peut-être même d’autres espèces. Par conséquent, une fois mature, ce système pourrait devenir un outil très intéressant, notamment pour les éthologues.


Chien tablette Apple problème


Ces chercheurs spécialisés dans l’étude du comportement animal se reposent souvent sur les vocalisations pour étudier les interactions au sein des groupes, les particularités comportementales et même les capacités cognitives de leurs espèces de prédilection. Par conséquent, un outil de ce genre pourrait les aider à identifier des nuances qui auraient autrement pu leur échapper… ou tout simplement leur prémâcher le travail. Imaginez par exemple une équipe de spécialistes qui étudie les primates dans un environnement difficile, comme une jungle. Au lieu de passer un temps considérable à éplucher des enregistrements audio pour classifier des vocalisations et les attribuer à un certain type de comportement, ils pourraient confier cette tâche à un modèle IA pour identifier des relations et des tendances intéressantes beaucoup plus rapidement.


Les chercheurs n’abordent pas du tout cette thématique dans leur papier, mais en extrapolant, on peut aussi imaginer qu’un jour, un système d’IA générative pourrait permettre de synthétiser des sons spécifiquement calibrés pour porter un transmettre un message bien précis à un animal. Pour l’instant, cela relève encore de la science-fiction pure. Mais peut-être qu’un jour, l’intelligence artificielle nous permettra enfin de “discuter” avec nos fidèles compagnons, de comprendre le chant des baleines ou d’en apprendre davantage sur les raisons qui poussent les orques à attaquer des bateaux, par exemple.


REF.: https://www.journaldugeek.com/2024/06/08/grace-a-lia-des-chercheurs-decodent-les-aboiements-des-chiens/?fbclid=IwZXh0bgNhZW0CMTEAAR1YT4H1mK2EePwRJWJRCY5pjn_S6vzyiACfWfM9yn22DNkIH_pGUwLinIM_aem_ZmFrZWR1bW15MTZieXRlcw

jeudi 13 juin 2024

I.A. Et OpenAI : Bientôt on donnera une commande vocale à son PC ou cell

 I.A. Et OpenAI : Bientôt on donnera une commande vocale à son PC ou cell 



La version Sequoi pour l’automne avec Apple intelligence sur les puces Apple silicone , compétiteur de Gemini Pro un jour, on n’aura plus besoin d’écrire , on parlera à son système d’exploitation , sans se faire exploiter ; Mais , bof sauf une lettre ou un poème d’amour à sa douce sur un iPad avec l'Apple 🍎 Pencil ✏️ 💋😍❤️et arrivera un jour où tout tiendra dans un doigt, un poignet ou sous la peau avec une puce Intel, Apple ou bien ….. rien du tout juste le Soleil 🌞 sur une île déserte 😎

OpenAI le vent du changement obligé ! Bienvenue à R2D2,  il reviendra nous voir bientôt 🤣

iOS 18 , Mac OS 15, …..soon ! 🔜 j’aime les pommes 🍏 pommes 🍎, la pomme rouge ou la pomme bleue (pâle) de la matrice.

Le PC rentre dans l’ère de l’IA

Microsoft passe à l’architecture Arm pour faire tourner l’IA sur PC.

Satya Nadella lors d'une conférence développeur.

Capture d'écran : Microsoft / YouTube.

Par Mathilde Rochefort - @mathi_rochefort


Publié le 21 mai 2024 à 13h56


Microsoft place officiellement l’intelligence artificielle (IA) au cœur du PC. Lors d’une keynote organisée le 20 mai, la firme de Redmond a annoncé le lancement de plusieurs ordinateurs capables de faire tourner des modèles d’IA localement.



L’architecture Arm, comme Apple

Cette nouvelle gamme d’ordinateurs, baptisée Copilot+ PC en référence à l’assistant IA déployé par l’entreprise, permettra aux utilisateurs d’exploiter la technologie en langage naturel pour une variété de tâches. Les nouveaux appareils Surface de Microsoft en bénéficieront, tout comme les ordinateurs haut de gamme fonctionnant sous le système d’exploitation Windows proposés par Acer, Asus, Dell, HP, Lenovo et Samsung.


Inscrivez-vous à la newsletter


Votre adresse email

En vous inscrivant vous acceptez notre politique de protection des données personnelles.


Ces produits seront équipés de processeurs Snapdragon X Elite et X Plus de Qualcomm, basés sur l’architecture Arm, initialement pour smartphone. Ces dispositifs promettent une plus longue autonomie de batterie ainsi que des performances supérieures. Le choix de passer sur Arm a été payant pour Apple, qui conçoit aujourd’hui ses propres puces pour Macs.


« Nous entrons dans une nouvelle ère où les ordinateurs non seulement nous comprennent, mais peuvent aussi anticiper nos désirs et nos intentions », a commenté Satya Nadella, PDG de Microsoft, lors de l’événement. La mission est toutefois complexe. Les outils d’IA générative sont utilisés dans des centres de données équipés de puces coûteuses et sophistiquées, capables de traiter les systèmes les plus grands et les plus avancés.





Microsoft veut faire fonctionner ces systèmes directement sur un ordinateur. La société a d’ailleurs réduit la taille de certains modèles pour les rendre plus faciles à utiliser en dehors des datacenters. C’est aussi la mission que s’est fixée Apple avec l’iPhone. La marque à la pomme devrait annoncer des innovations similaires à sa rivale dès le 10 juin lors de sa conférence développeur.


Nouvel élan pour le marché du PC ?

Les ordinateurs Copilot+ bénéficieront de capacités décuplées grâce à l’IA. Par exemple, la fonctionnalité Recall sera en mesure de retrouver n’importe quel fichier à partir d’une simple requête. De même, l’IA pourra traduire des vidéos en temps réel, résumer des visioconférences ou automatiser l’édition de photographies. Certains logiciels, comme ceux d’Adobe, vont devoir être repensés pour ce type de technologie.



Comme le précise le New York Times, la sortie de ces ordinateurs nouvelle génération pourrait faire naître un regain d’attractivité pour les PC, un marché pour lequel la demande ne cesse de chuter. Une tendance qui s’explique en partie par l’avènement du cloud.


Pour sa part, la firme de Redmond n’entend pas stopper la commercialisation d’ordinateurs plus classiques, alimentés par des puces Intel ou AMD. Néanmoins, les annonces de l’entreprise concrétisent la multiplication de ses efforts dans l’IA, depuis son investissement massif de 13 milliards de dollars dans OpenAI.https://siecledigital.fr/2024/05/21/le-pc-rentre-dans-lere-de-lia/#utm_source=Newsletter+Siecle+Digital&utm_campaign=38582f06d6-rss_quotidienne&utm_medium=email&utm_term=0_3b73bad11a-38582f06d6-259741874

RÉF.: T30

https://www.apple.com/apple-intelligence/

https://blog.google/technology/ai/google-gemini-next-generation-model-february-2024/





mercredi 12 juin 2024

Google: L’arrivée de la fonctionnalité “AI Overview”,Gemini 1.5 Pro, et Astra la caméra intelligente!

Google: L’arrivée de la fonctionnalité “AI Overview”,Gemini 1.5 Pro, et Astra la caméra intelligente!


Google I/O : Alphabet annonce de nombreuses nouveautés

On fait le point sur ces annonces, juste avant la WWDC.


Publié le 15 mai 2024 à 15:14

Par iPhon.fr



Alphabet vient d’organiser sa conférence annuelle, la Google I/O. Lors de cet événement, qui précède de peu la Worldwide Developer Conference d’Apple, son concurrent de Mountain View a notamment annoncé l’arrivée de la fonctionnalité “AI Overview” au sein de son moteur de recherche. Celle-ci, selon nos confrères de chez Presse-citron.net qui se sont penchés sur la question, permet “d’avoir en un clic la réponse à une question complexe, accompagnée d’une revue de presse“.


Lors de l’événement, Google a aussi annoncé que Gemini 1.5 Pro, son alternative à la version premium de ChatGPT, fera son apparition en accès anticipé chez les abonnés Workspace. Il s’agit là du nouveau nom de G Suite, avec à la clé l’outil de traitement de texte Docs, un logiciel de présentation et le tableur Sheets, mais incluant des options avancées indisponibles chez les utilisateurs du grand public.



Du changement pour Android 15

Dans le même temps, Alphabet a annoncé que Gemini 1.5 allait remplacer le Google Assistant sur Android 15. L’éditeur explique ici avoir développé le système en local, ce qui, en théorie, est meilleur pour la cybersécurité des appareils. Il se murmure d’ailleurs qu’une amélioration drastique de Siri dopée à l’intelligence artificielle aura bientôt droit au même atout, peut-être présenté justement lors de la Worldwide Developer Conference.


La version beta pour développeurs d’Android est disponible depuis février dernier. Une version finale est attendue d’ici le troisième trimestre 2024, et devrait donc voir le jour non loin de la date de sortie d’iOS 18, également en version finale. Le nouveau système d’exploitation d’Apple est en effet attendu en beta dès juin aussi, pour un déploiement mondial en septembre.


Astra va chambouler votre smartphone https://www.youtube.com/watch?v=nXVvvRhiGjI&t=63s

Lors de la Google I/O, nous avons également pu découvrir le nouveau projet “Astra” des équipes de Sundar Pichai, qui pourrait à terme être connu sous un autre nom commercial. La vidéo de présentation, à visionner juste ci-dessous, permet de découvrir une caméra intelligente qui reconnaît les objets filmés en direct par l’utilisateur. Une fonctionnalité très pratique, qui n’est pas sans rappeler le succès grandissant de Google Lens ou de la détection de texte avec l’app Appareil photo d’Apple.



Enfin, pêle-mêle, on peut aussi citer les nouveautés suivantes parmi les plus marquantes de la conférence Google I/O cette année :


l’intelligence artificielle permet maintenant d’effectuer une recherche avancée dans Google Photos, par exemple en demandant à l’app de retrouver toutes les images capturées dans des parcs nationaux

la résolution de problèmes avec la caméra, qui peut notamment vous donner des conseils lorsque vous filmez une platine vinyle qui ne fonctionne pas, afin de la réparer

Music AI Sandbox, pour créer des samples automatiquement avec l’intelligence artificielle.


REF.: https://www.iphon.fr/post/google-i-o-alphabet-nouveautes

samedi 25 mai 2024

L’illusion des sites virtualisés par l’ Intelligence Artificielle: Avec l’IA vous devenez un Hacker clé en main !@!$!

L’illusion des sites virtualisés par l’ Intelligence Artificielle: Avec l’IA vous devenez un Hacker clé en main !@!$!


 Attention: Les sites truqués et illusoires et irréels de l’intelligence artificielle ont plus de 7 millions de visites/ jr ou plus de 145 millions de vues par mois !!! 


Là où tout semble vrai et que Big Brothers épie vos aller venues pour revendre vos informations personnelles à un tiers et fini dans les bras des hackers de Bitcoin ou d’Alphabet communément appelé Google , YouTube et du GAFAM ( Google,Amazon,Facebook,Apple, Meta etc  ) et ceci est sans compter que sa représente seulement 5% du web le reste est dans l’enfer du Darknet où depuis très longtemps le réseau onion amelioré ( issus du MIT et de l'United States Navy et de l'United States Marine Corps, Situé à Washington ) demeure le toy r’ us des plus rusés du web , là où vous fleutez avec le diable du web où tout est disponible et gratos et là où les agences de surveillance vous côtoient en toute amitié !$$! Un jour vous devrez abandonner vos illusions et aller directement dans le réel de votre psyché rien de moins !


Actuellement générer une photo nu de quelqu’un du web ,  peux être générer par l’IA en moins de 2 minutes , alors bienvenue au chantage de Monsieur tout le monde, avant c’était les hackers qui fesaient ça ! 



Il y a déjà 150 millions de photos truquées par l’I.A qui circulent sur nos ordinateurs actuellement et certains ignorent qu’ils sont faussement vrai et que d’autres les vendent aussi pour ou comme de la porno ! 

Actuellement, faute de Loi , c’est le far West de la porno et le royaume de la désinformation pour vous rendre psychotique ou psychopathe ! 

RÉF.: T30

mercredi 1 mai 2024

Adobe VideoGigaGAN – L’IA qui transforme vos vidéos floues en HD !

 Adobe VideoGigaGAN – L’IA qui transforme vos vidéos floues en HD !

@KORBEN  —  25 AVRIL 2024



Vous avez une vieille vidéo toute pourrie, floue à souhait, qui date de Mathusalem et bien avec VideoGigaGAN d’Adobe, elle va se transformer en une magnifique séquence HD, avec des détails si nets que vous pourrez compter les poils de nez des gens qui sont dessus !




VideoGigaGAN est ce qu’on appelle un modèle d’IA génératif. En gros, ce machin est capable de deviner les détails manquants dans une vidéo pourrave pour la rendre méga classe. Les petits gars d’Adobe ont balancé des exemples sur leur GitHub et franchement, c’est impressionnant. On passe d’une vidéo degueulasse à un truc ultra net, avec des textures de peau hallucinantes et des détails de fou !



En plus, cette IA est capable d’upscaler les vidéos jusqu’à 8 fois leur résolution d’origine, par contre, faut pas s’emballer car pour le moment, c’est juste une démo de recherche et y’a pas encore de date de sortie officielle. Mais connaissant Adobe, y’a moyen que ça finisse dans Premiere Pro un de ces quatre. Je vais pouvoir améliorer mes vidéos tournées à l’époque au format 3GP \o/.



D’ici là, va falloir continuer à se taper des vidéos de chat toutes pixelisées sur les réseaux sociaux.


REF.: https://korben.info/adobe-videogigagan-ia-transforme-videos-floues-hd.html?fbclid=IwZXh0bgNhZW0CMTEAAR2FzjhvmDkws269Pp3JWQXKzc0JqiSt46QpDvu4M5Erguekg5XI-QSW70w_aem_Ac3-aNgzinmEajat-pzJhC2C0Dl16YcmNYm_LzJnjQKFwgP9zjSg-I8OaTSoeygQANJx2PyQHKXH2Xx4bhJuwZBB

L'IA : Bien plus utilisée par les enseignants que par les étudiants

 

L'IA : Bien plus utilisée par les enseignants que par les étudiants

Par: Emily Turrettini, Journaliste/Bloggeur Technologique


25 avril 2024


Ouvrir le lecteur immersif

L'usage croissant des outils d'IA par les étudiants, associé à des accusations de tricherie, a capté l'attention. Cependant, un récent sondage a révélé que les enseignants sont bien plus nombreux à les utiliser que les élèves.

Ils profitent de l'essor d'une industrie spécialisée dans les outils pédagogiques qui leur sont destinés.

Selon un article dans Wired, l'AI Education Project a formé cette année plus de 7'000 enseignants aux États-Unis sur l'intégration d'outils basés sur l'IA pour concevoir les plans de cours, noter et commenter les copies et rédiger les communications destinées aux parents.

La plateforme de MagicSchool spécialisée dans la création de matériel pédagogique personnalisé, revendique un million d'enseignants parmi ses utilisateurs.

Des programmes comme Writable ou Wooclap permettent encore de soumettre des dissertations à ChatGPT pour obtenir des analyses détaillées, offrant ainsi un gain de temps précieux.

Lire mon article grand format dans Heidi News : Avec l'IA, on n'enseignera jamais plus comme avant.

REF.: https://www.linkedin.com/pulse/lia-bien-plus-utilis%2525C3%2525A9e-par-les-enseignants-que-emily-turrettini-zyoke/


L’IA générative s’engage pour la protection de l’enfance

 

L’IA générative s’engage pour la protection de l’enfance


Dans un élan de responsabilité collective, des leaders mondiaux du secteur de l’intelligence artificielle viennent de engager à intégrer les principes de « Sécurité dès la Conception » (Safety by Design) dans leurs technologies. Des entreprises de renom telles qu’Amazon, Google, Meta, Microsoft et OpenAI, en collaboration avec Thorn et All Tech Is Human, s’unissent pour contrecarrer les abus sexuels envers les enfants facilités par l’IA générative.


Cet engagement intervient dans un contexte alarmant : plus de 104 millions de fichiers suspects de matériel d’abus sexuel sur enfants (AIG-CSAM) ont été signalés rien qu’aux États-Unis en 2023. L’IA générative, permettant la création rapide et à grande échelle de tel contenu, pose un risque croissant non seulement pour la victimisation des enfants mais aussi pour les efforts de détection des victimes par les forces de l’ordre.


Les principes adoptés abordent chaque étape du cycle de vie de l’IA, de la conception au déploiement, en insistant sur la prévention plutôt que sur la correction post-dommage. Ces mesures incluent des contrôles stricts sur les jeux de données de formation, des tests de stress réguliers pour identifier les failles potentielles, et des solutions de provenance de contenu pour discerner le matériel généré par IA.


Le document « Safety by Design for Generative AI: Preventing Child Sexual Abuse » propose des stratégies concrètes et des mesures correctives adaptées aux divers acteurs de l’écosystème IA, qu’ils opèrent dans un cadre open source ou non, soulignant l’importance d’une approche proactive dans la conception des produits.


Cette initiative est une avancée significative vers un internet plus sûr pour les enfants et renforce l’importance de l’éthique dans l’innovation en IA. En ces temps où l’IA générative remodelle notre environnement numérique, l’engagement de ces géants technologiques pourrait bien définir les normes de sécurité pour l’avenir.


En adoptant ces principes, les entreprises de technologie montrent leur capacité à anticiper et à atténuer les risques avant qu’ils ne surviennent. L’appel est désormais lancé à toutes les entreprises du secteur pour qu’elles emboîtent le pas et renforcent leurs engagements envers la sécurité des enfants. La collaboration et la transparence dans le partage des progrès seront cruciales pour réussir à éradiquer les abus et à garantir que les innovations de l’IA générative contribuent positivement à notre société.



Source. : https://www.thorn.org/blog/generative-ai-principles/

REF.: https://moncarnet.blog/2024/04/25/lia-generative-sengage-pour-la-protection-de-lenfance/?fbclid=IwZXh0bgNhZW0CMTAAAR0TURj5ttr4qwfV3i9vPx6O3BuurffXDnjNtHe8oOtZbM9cc_zpu1mnPAI_aem_AYL4TUsUwavvu2LT7xKh6Ob3rqn0vWbJYsHwVp8-rN1QTbuHC7nJi0EA8bYdHmk1cfMdR_TPTJQwxRCWhWAiYu8x

mardi 23 avril 2024

Les IA comme ChatGPT aident-elles réellement les étudiants en informatique ?

 Les IA comme ChatGPT aident-elles réellement les étudiants en informatique ?

@KORBEN  —  15 AVRIL 2024




Vous êtes un étudiant en informatique, tout frais, tout nouveau, et on vous balance des exercices de programmation à faire. Panique à bord !



Mais attendez, c’est quoi ce truc là-bas ?


Ah bah oui, c’est ChatGPT, votre nouveau meilleur pote ! Il est capable de résoudre vos exos en deux temps trois mouvements, grâce à des techniques de traitement du langage naturel (NLP) et d’analyse de langage de programmation, mais attention, c’est pas si simple.


Des chercheurs ont voulu creuser la question et voir comment ces générateurs de code IA influencent vraiment l’apprentissage des étudiants et pour cela, ils ont réalisé 2 études. Dans la première, ils ont pris 69 étudiants, des novices complets en Python et les ont séparés en deux groupes : Ceux qui utiliseront l’IA et ceux qui coderont à l’ancienne sans IA.


Durant 7 sessions, ils leur ont donné des exos à faire. Les Jedis boostés à l’IA avaient accès à un générateur de code basé sur Codex, un modèle d’apprentissage automatique qui utilise le NLP et l’analyse de langage de programmation pour générer du code à partir des entrées des utilisateurs. Les autres, eux, devaient se débrouiller.




Résultat des courses ?


Les dev augmenté à l’IA ont cartonné ! Ils ont fini 91% des tâches contre 79% pour les autres. En plus, leur code était beaucoup plus correct. Toutefois, sur les tâches où il fallait modifier du code existant, les deux groupes étaient au coude à coude. Ensuite, ils ont fait passer des tests de connaissance aux étudiants, sans l’IA. Et là, surprise ! Les deux groupes ont eu des scores similaires. Mais quand ils ont refait les tests une semaine plus tard, les étudiants du goupe boosté à l’IA ont mieux retenu ce qu’ils avaient appris.


Dans la deuxième étude, les chercheurs ont analysé comment les étudiants utilisaient vraiment le générateur de code. Et là, révélations ! Certains en abusaient grave, genre copier-coller direct la consigne sans réfléchir. Pas cool ! 😅 Mais d’autres étaient plus malins et s’en servaient pour décomposer le problème en sous-tâches ou vérifier leur propre code.


Alors, que faut-il en retenir ?


Et bien que l’IA peut être un super outil pour apprendre à coder, mais à condition savoir l’utiliser intelligemment. C’est pourquoi les concepteurs d’outils et les profs doivent encourager une utilisation responsable et auto-régulée de ces générateurs de code. Sinon, c’est le drame assuré !


Pour ma part, vous le savez, le développement, c’est pas mon truc. Mais depuis que l’IA a débarqué dans ma vie, « sky is the limit » et ça m’aide énormément. Et comme ces étudiants, si je pose mon cerveau que je passe en mode copié-collé IA, à la fin, je vais avoir du caca. Mais si je comprends ce que je veux faire, si je maitrise mon code plus comme un chef de projet bien technique et bien c’est redoutablement efficace. Et ce qui est encore plus cool, c’est que j’apprends plein de trucs. On dit souvent qu’il faut forger pour devenir forgeron. Et bien là c’est le cas, car je ne m’encombre plus des problématiques de syntaxe, et je construis brique par brique mes outils en comprenant tout ce que je fais. Donc l’IA pour développer, oui !! Mais en laissant le cerveau allumé.



En tout cas, une chose est sûre, c’est en train de révolutionner l’apprentissage du code. Ça promet pour le futur mais faudra veiller à ce que les étudiants apprennent vraiment à faire les choses et ne deviennent pas des zombies du copier-coller (on avait déjà le souci avec StackOverflow, cela dit…).


Source: https://korben.info/apprendre-a-coder-avec-ia-etude-generateurs-code-novice.html?fbclid=IwZXh0bgNhZW0CMTEAAR15JsvlYvQW5lBrETlHSGEzlyMIY5wiGvGB2maL072k9lICgppGiqCdDY4_aem_AXx0SIaNIrUd1AldUpIuyLa5TBf3QwMllDPwihNeyuagsLcyx6uZKwHoo1ZW-qAzHFs4UFx0TR5_EMZgrFKa4BKs

Meta AI l'intelligence artificielle générative dans Facebook, Instagram, Messenger et WhatsApp:

 

Meta AI l'intelligence artificielle générative dans Facebook, Instagram, Messenger et WhatsApp:

C'est quoi Meta AI dans Facebook, Instagram, Messenger et WhatsApp?

Publié le 18 avril 2024 Vincent Paquette

Meta, la maison mère des réseaux sociaux Facebook, Instagram, Messenger et WhatsApp  déploie tranquillement son intelligence artificielle générative dans ses applications. À l'aide du champ de recherche, on peut ainsi clavarder avec un agent conversationnel (chatbot) pour lui demander de générer une image ou bien de chercher du contenu dans une thématique précise.


C'est quoi Meta AI dans Facebook, Instagram, Messenger et WhatsApp?

Meta AI envahit les applications de Facebook, Messenger, Instagram et WhatsApp. - Meta


Depuis la fin de 2022 et le début de 2023, l'intelligence artificielle (IA) est sur toutes les lèvres dans le monde de la technologie.


L'expansion de ChatGPT d'OpenAI notamment a ouvert les yeux du monde entier sur cette technologie qui n'a pas fini d'envahir nos vies.


Toutes les grandes compagnies se lancent maintenant dans la course pour développer la meilleure IA possible.


Mark Zuckerberg et son entreprise Meta font évidemment partie du lot, alors que leurs réseaux sociaux: Facebook, Instagram, WhatsApp et Messenger sont utilisés par des milliards de personnes sur Terre.


Ainsi, à l'automne 2023, Meta donnait un premier aperçu de son modèle d'intelligence artificielle nommée: Llama.


Mais bon, ce n'est pas le nom marketing le plus sexy et il est donc mieux connu sous le nom de Meta AI.



Qu'est-ce que Meta AI et son modèle Llama?

Llama est donc essentiellement le nom du modèle linguistique développé par Meta au même titre que ChatGPT est le nom du modèle développé par OpenAI ou bien Gemini chez Google.


Llama est un modèle open source qui en est rendu à sa 3e version, donc Llama3.


C'est ce modèle qui est utilisé pour générer les réponses de l'intelligence artificielle de Meta.


Cette intelligence artificielle prend le nom de Meta AI et est progressivement implanté dans les applications et réseaux sociaux de Meta.


On parle ici de Facebook, Instagram, Messenger et WhatsApp.


Meta AI est essentiellement un assistant virtuel avec lequel on peut converser. À l'image de ChatGPT, il s'agit d'un "chatbot" à qui l'on peut clavarder et envoyer des requêtes ou des "prompts" en anglais.


D'ailleurs, il faut être familier avec la langue de Shakespeare, puisqu'au moment d'écrire ces lignes Meta AI répond uniquement en anglais.


Chatbot de Meta AI

Il est possible d'avoir une conversation avec le chatbot de Meta AI. Image: Meta.

 


On peut donc lui parler de tout et de rien. Même que Meta entend déployer des avatars de célébrités telles que Snoop Dog, Tom Brady ou Kendall Jenner par exemple avec qui on pourra discuter.


Reste à voir comment ce sera reçu, alors que le chatbot de Snapchat avait soulevé plusieurs questions éthiques.


Les célébrités de Meta AI

Meta AI va nous permettre de discuter avec des avatars de célébrités. Image: Meta.

 



Mais outre converser avec un robot, celui-ci a aussi pour but de nous aider.


Nous aider comment?


Bien, on peut lui poser une question sur un fait spécifique et il va chercher sur le web la réponse grâce à un partenariat avec le moteur de recherche Bing.


On peut également lui demander de générer une image avec les caractéristiques de notre choix comme on le ferait sur Dall-E ou Midjourney par exemple.


Meta AI génération d'images.

Meta AI peut modifier nos photos ou en générer de toutes nouvelles. Image: Meta.

 


Il peut également nous aider à générer des autocollants (stickers) pour nos conversations.


Meta AI génère des autocollants

On peut créer des autocollants de notre choix avec Meta AI. Image: Meta.

 


Enfin, il peut nous aider à trouver des contenus sur Facebook ou Instagram notamment.


En tapant un mot, il va nous proposer des suggestions de recherche pour trouver des publications ou des comptes liés à ce fameux mot qu'on a inscrit.


Comment utiliser Meta AI?

Au moment d'écrire ces lignes, Meta AI est en phase de test et est progressivement déployé à travers le monde pour quelques utilisateurs chanceux.


Il ne faut donc pas se mettre à chercher frénétiquement pour trouver Meta AI dans nos applications, ça se peut très bien qu'on ne l'ait pas encore.



À titre d'exemple, une personne dans notre équipe a la chance de l'avoir dans son compte Instagram et une autre l'a sur Messenger.


Il reste que c'est très facile de savoir si on l'a ou non. On a un beau message qui apparaît à l'ouverture d'une application de Meta pour nous mentionner que Meta AI est disponible.


Message quand on a accès à Meta AI

Voici à quoi ressemble le message lorsqu'on a accès à Meta AI. Image: francoischarron.com.

Ainsi, si Meta AI est disponible dans l'une de nos applications de la marque, on peut accéder à l'outil d'intelligence artificielle en appuyant sur l'icône de loupe.


On remarque un petit cercle bleu à la gauche de la barre de recherche. C'est en appuyant dessus que l'on peut commencer à converser avec le "chatbot".


Reste ensuite à voir l'accueil que réserveront les usagers à ce nouvel assistant dans leurs réseaux sociaux!


Peut-on enlever Meta AI de Facebook, Messenger, Instagram et WhatsApp?

Plusieurs personnes se sont plaintes de cet ajout dans leurs réseaux sociaux et souhaiteraient pouvoir le retirer.


Or, au moment d'écrire ces lignes, il est impossible de désactiver ou retirer Meta AI.


Il faudra voir si une option sera ajoutée dans les paramètres des applications éventuellement.


REF.: https://francoischarron.com/reseaux-sociaux/medias-sociaux/cest-quoi-meta-ai-dans-facebook-instagram-messenger-et-whatsapp/BuBSQ8JaOt/?fbclid=IwZXh0bgNhZW0CMTEAAR1z7pDHyl2y-mVS8P-VqTgh4JnA4e4smJ4332hCbx2lehGv4aSP1a0luDI_aem_AfN8cvPxb6MVLUF5NiiiZIB_628HlNB8RDJc3IPEi0SKIwe2ekJrzH15dlKxOMFR2CDFQzX9FtB917acJ-_Y5Q2Z

L'IA avec VASA-1 – Des visages parlants ultra-réalistes et en temps réel

 L'IA avec VASA-1 – Des visages parlants ultra-réalistes et en temps réel

@KORBEN  —  18 AVRIL 2024


VASA-1 est un nouveau framework qui permet de générer des visages parlants ultra-réalistes en temps réel ! En gros, vous balancez une simple photo à cette IA, ainsi qu’un petit clip audio, et bim ! Elle vous pond une vidéo d’un visage qui parle, avec une synchronisation de la bouche nickel chrome, des expressions faciales hyper naturelles et des mouvements de tête très fluides. C’est hyper bluffant !



Les chercheurs de Microsoft ont réussi ce tour de force en combinant plusieurs techniques de pointe en deep learning. Ils ont d’abord créé un espace latent expressif et bien organisé pour représenter les visages humains. Ça permet de générer de nouveaux visages variés, qui restent cohérents avec les données existantes. Ensuite, ils ont entraîné un modèle de génération de dynamiques faciales et de mouvements de tête, appelé le Diffusion Transformer, pour générer les mouvements à partir de l’audio et d’autres signaux de contrôle.


Et le résultat est juste époustouflant. On a l’impression de voir de vraies personnes qui parlent, avec toutes les nuances et les subtilités des expressions faciales. Les lèvres bougent parfaitement en rythme avec les paroles, les yeux clignent et regardent naturellement, les sourcils se lèvent et se froncent…


En plus de ça, VASA-1 peut générer des vidéos en haute résolution (512×512) à une cadence élevée, jusqu’à 40 images par seconde, avec une latence de démarrage négligeable. Autant dire que c’est le graal pour toutes les applications qui nécessitent des avatars parlants réalistes. On peut imaginer des assistants virtuels avec lesquels on pourrait interagir de manière super naturelle, des personnages de jeux vidéo encore plus crédibles et attachants, des outils pédagogiques révolutionnaires pour apprendre les langues ou d’autres matières, des thérapies innovantes utilisant des avatars pour aider les patients… etc etc..


En plus de pouvoir contrôler la direction du regard, la distance de la tête et même les émotions du visage généré, VASA-1 est capable de gérer des entrées qui sortent complètement de son domaine d’entraînement comme des photos artistiques, du chant, d’autres langues…etc.



Bon, évidemment, il reste encore quelques limitations. Par exemple, le modèle ne gère que le haut du corps et ne prend pas en compte les éléments non rigides comme les cheveux ou les vêtements. De plus, même si les visages générés semblent très réalistes, ils ne peuvent pas encore imiter parfaitement l’apparence et les mouvements d’une vraie personne mais les chercheurs comptent bien continuer à l’améliorer pour qu’il soit encore plus versatile et expressif.


En attendant, je vous invite à checker leur page de démo pour voir cette merveille en action. C’est juste hallucinant ! Par contre, vu les problèmes éthiques que ça pourrait poser du style usurpation d’identité, fake news et compagnie, et connaissans Microsoft, je pense que VASA-1 ne sera pas testable par tous bientôt malheureusement. Mais je peux me tromper…


REF.: https://korben.info/vasa-1-ia-genere-visages-parlants-ultra-realistes-temps-reel.html?fbclid=IwZXh0bgNhZW0CMTEAAR2E1-_2Ozof_HkGyGo6fFNi_bx9EKt-YLp8BnINO2cY6NZ4TnDCrA_AWDk_aem_AfMHl0b1ZacbHFwtYS9IqWf6iSBz3wXntFXs8EAkoL8lzH7R17omjRdEckv96M6yB2ByHqujmBuOKGzMaQdck9Ef

mercredi 10 avril 2024

Google admet un problème majeur qui risque de mettre à mal son business model principal

 Google admet un problème majeur qui risque de mettre à mal son business model principal

Par: @KORBEN  —  6 AVRIL 2024


Ah la la, Google… Le géant du web se retrouve face à un sacré casse-tête avec l’arrivée de l’intelligence artificielle dans son moteur de recherche. Figurez-vous qu’ils envisagent de faire payer les utilisateurs pour accéder à cette fonctionnalité expérimentale ! Du jamais vu chez Google, qui a toujours tout misé sur la gratuité, mais voilà, l’IA coûte cher, très cher même. Et surtout, elle vient complètement bouleverser le modèle économique de Google, basé, comme vous le savez sur la publicité.



Parce que oui, Google Search, c’est une vraie machine à cash et les annonceurs payent pour que leurs pubs s’affichent dans les résultats de recherche et sur les sites web que vous visitez ensuite. Sauf que l’IA, elle, elle digère le contenu des pages web pour vous donner une réponse claire, nette et précise. Plus besoin de cliquer sur les liens, donc plus de pubs vues, et moins de revenus pour Google (et pour moi aussi du coup ^^, mais je m’en fous, j’ai mon Patreon !).


Ironique, non ?


En plus, générer une réponse avec l’IA consomme bien plus de ressources et d’énergie qu’une simple page de résultats. Bref, Google est face à un vrai dilemme : Comment rentabiliser son IA sans tuer sa poule aux œufs d’or ?


Mais ne vous inquiétez pas, ils vont bien trouver une solution. Peut-être en proposant aux marques de sponsoriser certaines requêtes, comme le fait Perplexity, ou alors en faisant payer uniquement les utilisateurs les plus gourmands. On verra bien… mais une chose est sûre, Google va devoir faire preuve de créativité et d’adaptation pour rester le roi de la recherche en ligne. Surtout que la concurrence est rude, avec Microsoft et son nouveau Bing dopé à l’IA, ou encore les petits nouveaux comme You.com.



C’est fou tout ce qui se passe en ce moment. Tout a déjà tellement changé depuis le 30 novembre 2022, date à laquelle on a tous découvert ChatGPT pour la première fois… Des géants vont tomber, d’autres sont peut-être déjà nés. Et puis, moi et mon petit site web d’artisan du web, et bien on verra bien comment je me ferais manger 


Source; https://korben.info/google-admet-probleme-majeur-ia-recherche.html?fbclid=IwAR3VPakjlI4oyq6aFN2B-B4C6DL-KaRFPWm7NN163Fh695PmxAWGR51GsL0_aem_AbWiGwtS12odna7ARa7BtoP1uybDM_Kx4fJr0vVrDaZEFADpzW6wmP3IYwHlu9STCTjnzbBU-648B9qqpvrAzPsa

samedi 6 avril 2024

PlayAbility – Quand l’IA change l’expérience gaming pour les personnes handicapés

 

PlayAbility – Quand l’IA change l’expérience gaming pour les personnes handicapés

J’ai une pure pépite à vous présenter aujourd’hui ! C’est un truc de fou qui va révolutionner le monde du gaming pour les personnes en situation de handicap : playAbility !

C’est pas juste une énième manette adaptée, non non non, c’est carrément un logiciel développé par le streamer Squirelo (que je salue au passage) qui utilise l’intelligence artificielle pour convertir vos expressions faciales, mouvements de tête et même le joystick de votre fauteuil roulant en commandes de jeu. Si c’est pas dingue ça ! 🤯

Pour en profiter, c’est hyper simple. Vous téléchargez l’app, vous connectez votre webcam et zou, vous voilà prêts à créer votre manette virtuelle sur-mesure. Vous pouvez combiner vos appareils d’assistance, vos gamepads et vos mouvements faciaux pour obtenir la config’ parfaite. Et le kif ultime, c’est que playAbility est compatible avec un max de jeux, que ce soit des jeux de course, des FPS ou des jeux d’aventure.

Concrètement, ça donne quoi ? Bah vous pouvez par exemple bouger votre tête pour contrôler les sticks gauche et droit. Vous avez comme ça plus de 50 mouvements de visage différents à associer aux contrôles de votre choix. Et si vous avez un fauteuil roulant électrique, comme je le disais en intro, son joystick peut direct servir de stick directionnel dans le jeu !

C’est ouf quand on y pense.

L’objectif de playAbility, c’est clairement de favoriser l’inclusivité dans les jeux vidéo. On parle quand même de rendre le gaming accessible aux 20% de la population mondiale qui vit avec un handicap ! C’est par rien !

Autre bon point, vous pouvez utiliser votre Xbox ou votre PlayStation à distance grâce au remote play. Pas besoin de PC gaming surpuissant ! D’ailleurs, l’équipe bosse avec les principaux services de streaming de jeux pour permettre au plus grand nombre de s’y mettre sans se ruiner.

La version bêta privée n’est qu’un début et vous pouvez au choix, aider à financer le projet ou non. C’est vous qui voyez. Franchement, quand on voit des initiatives comme ça, on ne peut qu’applaudir. La technologie et notamment l’IA permettent de créer un véritable impact positif sur le quotidien des joueurs. Bravo Squirelo !

Bref, je vous invite à garder un œil sur playAbility, parce que je sens que ces p’tits gars vont aller loin. C’est le genre de projets qui donnent foi en l’avenir du jeu vidéo et prouvent que quand on a de la volonté, on peut renverser des montagnes. GG à eux et longue vie à playAbility !