Powered By Blogger

Rechercher sur ce blogue

Aucun message portant le libellé Chat GPT. Afficher tous les messages
Aucun message portant le libellé Chat GPT. Afficher tous les messages

mardi 23 avril 2024

Hackers: ChatGPT est plus efficace et moins coûteux qu’un cybercriminel

 Hackers: ChatGPT est plus efficace et moins coûteux qu’un cybercriminel

@KORBEN  —  18 AVRIL 2024


Les grands modèles de langage (LLM), comme le célèbre GPT-4 d’OpenAI, font des prouesses en termes de génération de texte, de code et de résolution de problèmes. Perso, je ne peux plus m’en passer, surtout quand je code. Mais ces avancées spectaculaires de l’IA pourraient avoir un côté obscur : la capacité à exploiter des vulnérabilités critiques.



C’est ce que révèle une étude de chercheurs de l’Université d’Illinois à Urbana-Champaign, qui ont collecté un ensemble de 15 vulnérabilités 0day bien réelles, certaines classées comme critiques dans la base de données CVE et le constat est sans appel. Lorsqu’on lui fournit la description CVE, GPT-4 parvient à concevoir des attaques fonctionnelles pour 87% de ces failles ! En comparaison, GPT-3.5, les modèles open source (OpenHermes-2.5-Mistral-7B, Llama-2 Chat…) et même les scanners de vulnérabilités comme ZAP ou Metasploit échouent lamentablement avec un taux de 0%.


Heureusement, sans la description CVE, les performances de GPT-4 chutent à 7% de réussite. Il est donc bien meilleur pour exploiter des failles connues que pour les débusquer lui-même. Ouf !


Mais quand même, ça fait froid dans le dos… Imaginez ce qu’on pourrait faire avec un agent IA qui serait capable de se balader sur la toile pour mener des attaques complexes de manière autonome. Accès root à des serveurs, exécution de code arbitraire à distance, exfiltration de données confidentielles… Tout devient possible et à portée de n’importe quel script kiddie un peu motivé.


Et le pire, c’est que c’est déjà rentable puisque les chercheurs estiment qu’utiliser un agent LLM pour exploiter des failles coûterait 2,8 fois moins cher que de la main-d’œuvre cyber-criminelle. Sans parler de la scalabilité de ce type d’attaques par rapport à des humains qui ont des limites.



Alors concrètement, qu’est ce qu’on peut faire contre ça ? Et bien, rien de nouveau, c’est comme d’hab, à savoir :


Patcher encore plus vite les vulnérabilités critiques, en priorité les « 0day » qui menacent les systèmes en prod

Monitorer en continu l’émergence de nouvelles vulnérabilités et signatures d’attaques

Mettre en place des mécanismes de détection et réponse aux incidents basés sur l’IA pour contrer le feu par le feu

Sensibiliser les utilisateurs aux risques et aux bonnes pratiques de « cyber-hygiène »

Repenser l’architecture de sécurité en adoptant une approche « zero trust » et en segmentant au maximum

Investir dans la recherche et le développement en cybersécurité pour garder un coup d’avance

Les fournisseurs de LLM comme OpenAI ont aussi un rôle à jouer en mettant en place des garde-fous et des mécanismes de contrôle stricts sur leurs modèles. La bonne nouvelle, c’est que les auteurs de l’étude les ont avertis et ces derniers ont demandé de ne pas rendre publics les prompts utilisés dans l’étude, au moins le temps qu’ils « corrigent » leur IA.


Source: https://korben.info/ia-malefiques-quand-llm-menacent-cybersecurite.html?fbclid=IwZXh0bgNhZW0CMTEAAR1zKqtIIY8zR_xVove97bXHBXGk58y2iWLVPD9oZvXfbDa7rFNcyoa9gAM_aem_AfMHfnYov3d0C2fPmtPRU398Tj-laL0TQkD_URzvaiCRaXq4pdwXgpStKhc7GixUeH52-xoRoRRYfp5yVV3dhym8

lundi 1 avril 2024

Reor – L’appli magique de prise de notes boostée à l’IA locale et gratuite

 

Reor – L’appli magique de prise de notes boostée à l’IA locale et gratuite

@KORBEN  —  25 MARS 2024


Dispo sous Windows, Linux et macOS (Intel et Silicon), Reor est un outil de prise de notes markdown capable de s’auto-organiser. Cela signifie que l’outil utilise de l’IA localement pour vous aider à mettre de l’ordre dans vos idées.



C’est assez ouf puisque ça vous fera gagner un max de temps en reliant automatiquement vos idées, mais également en répondant à toutes vos questions en se basant sur vos notes. Reor offre également un moteur de recherche sémantique et le tout est stocké localement, ce qui évitera que vos données ne soient pompées.


Reor tire parti des géants tels que Llama.cpp, Transformers.js et LanceDB pour permettre à la fois aux modèles LLM et d’inférences de s’exécuter localement. Il est également possible de se connecter à des API compatibles OpenAI si vous le désirez.


Alors, comment fonctionne cette auto-organisation ?


En réalité, chaque note que vous écrivez est fragmentée et intégrée dans une base de données vectorielle interne. Les notes connexes sont automatiquement reliées par la similarité vectorielle. De plus, la base de Q&R alimentée par les LLM fonctionne sur un principe de RAG (Retrieval-Augmented Generation) sur le corpus de notes que vous lui avez donné. Exactement comme ce qu’on peut faire aujourd’hui avec des PDF et des outils comme PDFtoChat.




Pour commencer, rien de plus simple : il vous suffit de télécharger Reor et de l’installer comme n’importe quelle autre application. Notez que pour l’instant, l’application ne télécharge pas les modèles pour vous, vous devrez donc télécharger manuellement votre modèle de choix au format GGUF et l’importer dans l’outil. Cela peut être Mistral ou Llama 2 par exemple. Et comme ce sont des modèles open source et gratuits, vous n’aurez rien à payer.



L’importation de notes provenant d’autres applications est également possible, puisque Reor stocke ses données dans un seul répertoire, que vous choisissez lors de la première utilisation. Pour importer des notes/fichiers d’une autre application, il vous suffit donc de remplir ce répertoire manuellement avec des fichiers Markdown.


Voilà, c’est encore un peu brut comme outil, mais je parie que ça s’affinera avec le temps.


Merci à Lorenper


REF.: https://korben.info/outil-prise-notes-intelligence-artificielle-reor-project.html?fbclid=IwAR0L7XOfZjSsNSDIKweIE8h574KHRgKBvnxAhXoCRXmDj-0-mJtheoQYW7A_aem_AbykK90zdSHnbMoCaVRfcapB_jfCXBnLEJyUUUCt2PStFtnisCOSdvhT0HMqKnAw_ds7zkqJi3RAEiRw6SXdHz1P

vendredi 22 mars 2024

Il devra y avoir une certification 100% Intelligence Humain ou sans IA ajoutée !

 Il devra y avoir une certification 100% Intelligence Humain ou sans IA ajoutée !


ChatGPT et l'intelligence artificielle est un moyen pour que vous deviniez le produit donc vos infos sur vous et vos comportements d'acheteurs , votre voie, votre empreinte numérique qui représente qui vous êtes seront scrutés à la loupe et stocké dans les nuages du GAFAM !

C'est aussi un autre moyen pour éliminer Google(en partenariat avec Apple) ou d’autres moteurs de recherche sinon d’englober tout en passant par exemple Microsoft et son Copilot et non Google Bart Gimini ! 

C'est aussi un autre moyen pour contrer les speakers intelligents, enceintes connectées,donc les écho show avec Alexa d’Amazon ou Siri avec son HomePod  et AppleTV4K , donc contrer la vente de mp3, de films ? 

Et au pire centrer les besoins de visionnement de vidéo films vers une autre plateforme qui centralise vos besoins dans un endroit précis à devenir un client avec un vendeur et non plusieurs vendeurs et tuer le streaming illégal et le téléchargement P2P des Torrents de ce monde numérique, frauduleux ! 

D'un autre côté, il y a les créations de vidéo, de livre, de site web, de création de contenue web/Blog , de photo ou vidéo de pédophilies factices, de montage de vidéo factices créant la controverse pour imiter ou faire dire des choses par le Pape ou autres personnalités publiques pour vous manipuler ou vous entraîner à cliquer ou croire, ce que le créateur de contenue numérique par IA veut vous vendre ou que vous achetiez !

Malgré les logiciels anti-intelligence artificiels, le GAFAM ne devra pas contionner les dérape de ce monstre numérique qui cré le chaos, pour ceux qui y croiront ! On commence seulement , par Google a retiré les sites créés par IA pour déclasser les sites réels 100% humain et que Facebook lui ne peut plus retirer les annonces créées par IA qui nous vendent des Bitcoins, et identifira bientôt les photos générées par IA avec une mention IA et  où va-t-on avec ça ?

Il devra y avoir une certification 100% Intelligence Humain ou sans IA ajoutée !







REF.: T30, 

samedi 16 mars 2024

Google va faire le grand nettoyage dans les résultats de recherche en excluant l'IA de Chat GPT et Cie !!!

 Google va faire le grand nettoyage dans les résultats de recherche en excluant l'IA de Chat GPT et Cie !!!


Maurine Briantais


Face à la multiplication des contenus médiocres sur le Web, de plus en plus générées par IA, Google va déployer une mise à jour afin de mieux filtrer les résultats de recherche en privilégiant la qualité. Belle promesse ou véritable ménage ? Surement pour mettre en valeur ceux qui payent pour leurs créations de Blog , sites web et surement pour éviter les débordements des complotistes qui font de l'argent avec des créations par IA dans le seul but de visibilité et faire de l'argent sans effort !


Depuis quelques temps, les utilisateurs sont de plus en plus nombreux à trouver que la qualité des résultats de recherche de Google se dégrade. En cause : les contenus sans grand intérêt, écrits à la chaîne et misant tout sur les techniques et des astuces de SEO (Search Engine Optimization, ou Optimisation pour les moteurs de recherche) pour être bien référencés dans les résultats de recherche. Et les choses ne vont pas en s'améliorant avec le développement de l'IA ! Désormais, tout le monde peut demander à des outils comme ChatGPT et Gemini – qui appartient ironiquement à Google – de générer en quelques secondes un article optimisé pour le moteur de recherche. Résultat : on se retrouve avec des sites entiers aux contenus rédigés quasiment uniquement par le biais d'IA. Et le géant d'Internet a de plus en plus de mal à faire le tri...



Mais Google a décidé de prendre le problème à bras-le-corps ! Ne vous étonnez pas si les résultats de recherche auxquels vous êtes habitués changent au cours des prochaines semaines. Dans un billet de blog publié le 5 mars 2024, l'entreprise a annoncé une future mise à jour destinée à optimiser ses résultats de recherche pour que vous voyiez "plus d'informations utiles, et moins de résultats qui semblent conçus pour les moteurs de recherche". Pour cela, elle va s'attaquer au spam et à "ses nouvelles pratiques". Comprendre : le contenu généré par IA.


Résultats Google : un grand coup de pied dans la fourmilière

Ainsi, Google compte "affiner certains de [ses] systèmes de classement de base" afin de mieux repérer les pages Web inutiles ou ayant été créées pour les moteurs de recherche plutôt que pour les internautes. Par exemple, "il peut s'agir de sites créés principalement pour répondre à des requêtes de recherche très spécifiques", explique l'entreprise. Dans sa lutte contre le spam, elle a d'ailleurs identifié plusieurs comportements problématiques qu'elle compte bien sanctionner avec sa prochaine mise à jour.


En premier lieu, Google va s'attaquer aux sites Web considérés comme "sérieux", mais qui hébergent du contenu de faible qualité fourni par un tiers, ce qui leur permet de grimper rapidement et artificiellement dans le référencement des résultats de recherche. Google donne jusqu'au 5 mai pour que les sites concernés rectifient leur comportement. Une foire aux questions est en ligne à cette adresse.


"Aujourd'hui, les méthodes de création de contenu à grande échelle sont plus sophistiquées, et il n'est pas toujours évident de savoir si du contenu a été créé de manière automatique ou non", explique Google, citant en exemple  "les sites qui prétendent apporter des réponses à des questions très demandées, mais qui ne fournissent pas de contenu utile". Bref, même si le terme n'est pas directement employé, on comprend en lisant entre les lignes que l'entreprise parle des sites Web dopées à l'IA. En effet, depuis le déploiement de ChatGPT et la course à l'IA qui s'en est suivie, les sites créés directement à l'aide de l'IA se sont multipliés. Elle va donc se "concentrer sur ce comportement abusif, à savoir la production de contenu à grande échelle pour améliorer le classement dans les moteurs de recherche, qu'il s'agisse d'automatisation, d'humains ou d'une combinaison des deux".


Google compte également s'attaquer à l'abus de noms de domaine expirés. Cette pratique consiste à racheter un site dans cette situation, puis à s'en servir pour diffuser des contenus inutiles pour l'utilisateur – qui ne se rend pas forcément compte que le propriétaire a changé –, voire malveillants. Cela permet de booster le classement de sites au contenu médiocre. Avec sa mise à jour, la firme de Mountain View estime pouvoir baisser le volume de contenus médiocres dans les résultats de recherche d'environ 40 %. On verra si c'est le cas !


REF.: https://www.commentcamarche.net/applis-sites/services-en-ligne/30459-google-va-faire-le-grand-nettoyage-dans-les-resultats-de-recherche/#utm_source=facebook&utm_medium=social

Winston AI est le détecteur d'IA

 Winston AI est le détecteur d'IA

Winston AI est le détecteur d'IA le plus fiable pour aider à identifier le contenu généré par l'IA à partir de ChatGPT et bien plus encore.


Le détecteur IA le plus fiable est désormais disponible partout où vous allez.


Winston AI vous permet de détecter avec précision si du contenu est généré par ChatGPT et tous les outils d'écriture d'IA connus. Notre vérificateur d'écriture IA est utilisé par des centaines de milliers d'utilisateurs et constitue la solution à laquelle font confiance les plus grands éditeurs et institutions du monde entier.


Avec notre plugin Chrome, vous pouvez désormais analyser instantanément n'importe quel contenu pour l'IA directement sur les pages Web en mettant en surbrillance et en cliquant avec le bouton droit sur le texte. Pour une confidentialité maximale, les analyses utilisant l'extension Chrome ne sont enregistrées nulle part.


Ce qu'on en dit :

Un outil pour les rédacteurs à l’ère de l’IA générative

Les rédacteurs perçoivent souvent les modèles d’écriture IA tels que Chat GPT avec des sentiments partagés. Winston AI encourage l’adoption transparente d’outils de rédaction et de détecteurs de contenu d’IA. Pour maintenir la qualité du contenu et préserver la touche humaine, il faut trouver un équilibre entre l’utilisation d’outils d’IA et la supervision humaine. Cette approche est bénéfique pour toutes les parties concernées, y compris les rédacteurs, les éditeurs, les agences et les clients, car ils reçoivent un contenu qui a été soigneusement examiné et affiné par l’apport humain.

https://gowinston.ai/fr/


Une communication efficace avec les clients

Winton AI est le détecteur d’IA le plus fiable, et vous permet de partager sans effort les résultats d’une détection de contenu d’IA et d’un scan de plagiat avec vos clients via un lien ou un document PDF.

Solution complète pour une intégrité garantie

Libérez tout le potentiel de votre rédaction grâce à notre solution de vérification de l’intégrité ! Avec une détection avancée de l’IA, un puissant vérificateur de plagiat et un score de lisibilité, c’est le compagnon ultime de tout rédacteur sérieux.

Nota:

 Aussi on retrouve : https://chat.openai.com

https://iaweb.fr/ia/texte/winston-ai/





REF.: https://gowinston.ai/fr/

jeudi 7 mars 2024

Claude 3 prétend surpasser ChatGPT

 Claude 3 prétend surpasser ChatGPT


Un nouveau jour, une nouvelle avancée de l’IA et hier, c’était au tour d’Anthropic, une startup IA, a dévoilé la troisième version de son agent conversationnel, Claude 3, prétendant au passage surpasser les capacités de ChatGPT d’OpenAI ainsi que de Gemini de Google.



Avec cette mise à jour, Claude 3 promet des résultats plus rapides, une plus grande précision et une facilité d’utilisation accrue. Un aspect particulièrement innovant est sa capacité à analyser des images, documents et autres fichiers téléchargés, élargissant ainsi son champ d’application.


Claude 3 se décline en trois modèles : Opus, Sonnet et Haiku, chacun offrant des spécificités distinctes. Dans le cas d’Opus (Claude 3), il aurait démontré des compétences supérieures dans des domaines tels que la connaissance commune, le raisonnement expert de niveau supérieur, les mathématiques de base et la programmation, selon les recherches d’Anthropic. Ce modèle présente un niveau de compréhension et de fluidité proche de celui de l’humain dans l’exécution de tâches complexes.



En plus de ses capacités avancées, Claude 3 est doté d’une fonctionnalité permettant l’analyse de fichiers variés, enrichissant ainsi l’interaction utilisateur. Pour ceux souhaitant expérimenter Claude 3, la version gratuite sur son site web utilise le modèle Sonnet, tandis que l’abonnement Claude Pro offre l’accès au modèle Opus plus avancé, avec des avantages tels que l’accès prioritaire et l’accès anticipé aux nouvelles fonctionnalités pour 20 dollars par mois. Mais cette version payante n’est pas encore offert au Canada, pour le moment.


Cette évolution marque un pas important dans le développement de l’IA, mettant en lumière la compétition croissante entre les différentes plateformes pour offrir des outils toujours plus performants et adaptés aux besoins variés des utilisateurs. Avec des promesses d’améliorations significatives en termes de vitesse, précision et facilité d’usage, Claude 3 se positionne comme un concurrent sérieux face à ChatGPT 4 et Gemini 1,5, annonçant une ère nouvelle dans le dialogue homme-machine.


Source : https://www.anthropic.com/news/claude-3-family

mercredi 20 décembre 2023

Scamio : Bitdefender lance une IA anti-arnaque gratuite

 Scamio : Bitdefender lance une IA anti-arnaque gratuite


Maurine Briantais


15/12/23 15:32

Si vous êtes souvent victime de tentatives de phishing, cette IA va vous plaire ! Bitdefendeur lance Scamio, un chatbot gratuit capable d'analyser les communications reçues et de détecter les tentatives de fraude.


Les spams et les escroqueries sont malheureusement monnaie courante sur Internet, et ceux qui ne sont pas très au fait des technologies peuvent avoir des difficultés à distinguer les offres et les messages légitimes des arnaques. Selon un rapport de la Federal Trade Commission (FTC), les pertes subies par les consommateurs en lien avec la fraude en 2022 représentent 8,8 milliards de dollars rien qu'aux Etats-Unis, soit une hausse de 30 % par rapport à l'année précédente. Les pertes liées aux arnaques diffusées par messages textuels représentent à elles seules 330 millions de dollars, soit le double par rapport à 2021. Et ça ne risque pas d'aller en s'améliorant ! Les cybercriminels se sont à leur tour emparés de l'IA pour créer du contenu malveillant extrêmement difficile à déceler, ce qui complique fortement la lutte contre la fraude en ligne.


Mais, parfois, l'IA peut aussi devenir un véritable allié, à l'image d'Apate, le chatbot qui arnaque les arnaqueurs (voir notre article). Bitdefender, le géant de la cybersécurité, a de son côté opté pour la prévention avec Scamio, un chatbot conçu pour aider les utilisateurs à vérifier les tentatives d'arnaques en ligne, qu'elles proviennent d'e-mail, de SMS, de messagerie instantanée, de liens intégrés et même de QR code, et à s'en protéger.




Scamio : un chatbot pour analyser les messages reçus

"La hausse rapide de l'adoption de l'IA par les cybercriminels en vue d'extorquer de l'argent, de voler des informations personnelles et d'infiltrer la vie numérique des utilisateurs a véritablement changé les règles du jeu", explique Ciprian Istrate, vice-président des opérations et des solutions grand public chez Bitdefender, dans un communiqué. "Les arnaques en ligne, autrefois faciles à déceler, sont devenues difficiles à détecter d'un simple coup d'œil. Scamio rétablit l'équilibre en déterminant de manière fiable la probabilité de l'existence d'une activité malveillante sur la base du contenu et du contexte d'un message. C'est un peu comme avoir un assistant personnel avec qui vous pouvez discuter et sur lequel vous pouvez toujours compter pour vous aider à protéger votre vie numérique."


Scamio est gratuit et très simple d'utilisation. Le chatbot est compatible avec tous les appareils et tous les systèmes d'exploitation, et il est accessible depuis un navigateur Web ou via Facebook Messenger – la prise en charge de WhatsApp et de Telegram est prévue par la suite. Il suffit de se créer un compte Bitdefender pour y accéder, sans nécessité de téléchargement ni d'accès antérieur à un produit Bitdefender. Une fois que vous y avez accédé, Scamio fonctionne de la même manière que d'autres outils alimentés par l'IA. Vous interagissez avec le chatbot à l'aide d'un champ de saisie. Vous pouvez y écrire ou coller du texte (message de chat, courriel...), des liens ou des images (capture d'écran, QR code reçu, etc.) pour interagir avec l'IA. Le mieux est de déposer les contenus suspects et de décrire la façon dont vous les avez reçus. Scamio va alors vérifier tout ça et émettre un verdict en quelques secondes, ainsi que des recommandations sur les mesures à prendre – par exemple, supprimer ou bloquer un contact – ainsi que des mesures de prévention pour vous prémunir contre les futures tentatives d'escroqueries du même type. Notons que l'IA ne précise pas pourquoi elle estime qu'il s'agit d'une escroquerie ou d'un lien légitime.




Pour être capable de rendre un jugement, Scamio intègre le traitement automatique du langage naturel (NLP) afin de comprendre et d'interpréter avec précision les conversations, et d'analyser les contenus. Le chatbot s'appuie également sur les technologies Bitdefender de protection, de prévention et de détection des menaces afin d'affiner ses analyses, qui sont enrichies par le décryptage du contexte dans lequel le message potentiellement frauduleux a été reçu. Selon le géant en cybersécurité, cette approche s'avère extrêmement efficace pour les types de fraudes complexes – comme celles basées sur l'ingénierie sociale – susceptibles de contourner les méthodes de détection ordinaires.


REF.: https://www.commentcamarche.net/securite/protection/29771-scamio-bitdefender-lance-une-ia-anti-arnaque-gratuite/#utm_source=facebook&utm_medium=social

samedi 9 décembre 2023

Les outils de détection de l'IA les plus populaires ?

 

Les outils de détection de l'IA les plus populaires ?


Les outils de détection de l'IA les plus populaires pour la détection de contenu généré par l'IA sont le Text Classifier d'OpenAI, le Détecteur de texte généré par l'IA de DeepAI, et le Détecteur de contenu IA de Copyscape.

https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text

https://deepai.org

https://www.copyscape.com


Q: Est-il possible que les détecteurs de contenu IA donnent des faux positifs ?


A: Oui, il est possible que les détecteurs de contenu généré par l'IA donnent des faux positifs. Cela peut se produire lorsque le texte contient des phrases ou des expressions qui sont couramment utilisées dans les textes générés par l'IA, mais qui sont également utilisées dans les textes rédigés par des humains. C'est pourquoi, il est recommandé d'utiliser les résultats des détecteurs de contenu IA avec prudence et de les vérifier manuellement si nécessaire.


🤔 Q: Quelles sont les limites des outils de détection de l'IA ?


A: Les outils de détection de l'IA peuvent avoir des limites en termes de capacité à détecter les textes générés par l'IA. Ils peuvent ne pas être capables de détecter les textes qui ont été modifiés ou édités pour ressembler à des textes rédigés par des humains. De plus, ces outils peuvent ne pas être en mesure de détecter les tentatives sophistiquées de plagiat dans le contenu.


Voici les 4 principales caractéristiques du détecteur d’IA : 📝

Analyse basée sur des modèles d’intelligence artificielle : Le détecteur utilise des algorithmes de traitement du langage naturel pour analyser les textes et déterminer s’ils ont été générés par une IA ou rédigés par un humain.


Détection précise : Grâce à son algorithme sophistiqué, le détecteur est capable de repérer avec précision les contenus générés par des IA telles que ChatGPT ainsi que d’autres outils d’IA.


Utilité pour les professionnels du SEO : Le détecteur d’IA est un outil précieux pour les professionnels du référencement organique, car il leur permet de s’assurer que leurs contenus sont authentiques et non générés par des machines.


Accessibilité gratuite : L’un des avantages majeurs du détecteur d’IA est qu’il est gratuit et accessible à tous, ce qui en fait un outil largement utilisé dans le domaine de la rédaction de contenu et de l’éducation.


Voici maintenant 5 faits avérés en lien avec le sujet :

🔍 Les générateurs de texte IA, comme ChatGPT, peuvent produire des contenus qui ressemblent étroitement à ceux écrits par des humains, rendant la détection difficile sans l’utilisation d’un outil spécialisé.

🔍 Les détecteurs de contenu IA sont utilisés non seulement pour vérifier l’authenticité des textes, mais aussi pour prévenir le plagiat, car ils peuvent identifier les similitudes entre différents textes générés.

🔍 Certains détecteurs de contenu IA sont capables de traiter des volumes de texte importants, ce qui permet d’analyser de grandes quantités de contenu rapidement et efficacement.

🔍 Les détecteurs de contenu IA sont utilisés dans divers domaines, tels que le référencement organique, l’édition de contenu en ligne et même l’éducation pour prévenir la triche dans les travaux scolaires.

🔍 Avec l’avancement continu de l’intelligence artificielle, il est probable que les détecteurs de contenu IA deviendront encore plus sophistiqués et précis dans leurs capacités de détection.

Maintenant, passons aux avantages et inconvénients :


Avantages des détecteurs d'IA :

✅ Préserve l’authenticité du contenu : Le détecteur d’IA permet aux professionnels du SEO et aux rédacteurs de s’assurer que leurs contenus ne sont pas générés par des machines, garantissant ainsi une expérience utilisateur authentique.

✅ Détection du plagiat : En identifiant les similitudes entre différents textes générés, le détecteur aide à prévenir le plagiat et à maintenir l’intégrité du contenu.

✅ Amélioration de la qualité du contenu : En analysant les caractéristiques linguistiques des textes générés par l’IA, le détecteur peut aider les rédacteurs à corriger les erreurs grammaticales ou stylistiques.

✅ Avantage concurrentiel : En repérant les contenus plagiés ou générés par l’IA concurrente, le détecteur permet aux professionnels du SEO d’avoir un avantage sur leurs concurrents en termes d’originalité et d’authenticité.

✅ Accessibilité gratuite : Le fait que le détecteur d’IA soit gratuit et accessible à tous en fait un outil largement utilisé et accessible pour préserver la qualité du contenu.

Inconvénients des détecteurs d'IA :

❌ Dépendance technologique : L’utilisation d’un détecteur d’IA peut créer une dépendance vis-à-vis de la technologie, ce qui peut poser problème si l’outil n’est pas constamment mis à jour ou s’il devient obsolète.

❌ Détection limitée aux langues prises en charge : Certains détecteurs de contenu IA peuvent être limités dans leur capacité à détecter des langues spécifiques, ce qui peut restreindre leur utilité pour certains utilisateurs.



REF.: referencement-organique.fr/ia-detector.html

mercredi 22 novembre 2023

Comment utiliser ChatGPT avec Powerpoint ?





Comment utiliser ChatGPT avec Powerpoint ?





Vous devez produire une présentation de qualité, argumentée, en une quinzaine de minutes ? 
ChatGPT va fortement vous y aider. Suivez le guide…



AU SOMMAIRE
Préparer la présentation sous ChatGPT
Un prompt détaillé pour bien expliquer à ChatGPT ce que nous souhaitons
La présentation créée par ChatGPT
Convertir la présentation en code « Visual Basic pour Applications »
Exécution du code VBA depuis Powerpoint
Utiliser le Concepteur pour « décorer la présentation »
Demander à ChatGPT de générer des visuels
À lire aussi

icle est le troisième d'une série que nous avons consacrée aux interactions entre ChatGPT et divers outils de la gamme Microsoft Office. Nous avons notamment déjà couvert : « Comment utiliser ChatGPT avec Excel ? » et « Comment utiliser ChatGPT avec Word ? »Ici, nous allons voir comment il est possible de recourir à ChatGPT pour réaliser rapidement des présentations Powerpoint de qualité. Il faut juste savoir que ChatGPT ne pourra pas tout faire, et qu'il faudra réaliser certains points, notamment le choix d'un thème graphique depuis Powerpoint. ChatGPT peut :rédiger les textes pour chaque diapositive ;
concevoir des graphiques et des images pour votre présentation. En revanche, il faudra assembler ces images créées sous ChatGPT depuis Powerpoint.
Préparer la présentation sous ChatGPT

Imaginons que l'on vous ait informé au dernier moment que vous allez tenir une conférence ou un webinaire le lendemain matin et qu'il vous faille disposer d'une présentation au pied levé. Donc, commençons par le sujet de la présentation. Ici, nous avons choisi : « Comment créer des vidéos YouTube à même d'attirer un large public ? »

La première étape consiste à indiquer à ChatGPT ce que l'on souhaite obtenir. Il va falloir donner les instructions au chatbot afin que la présentation soit à la fois précise et concise.

Sachez-le : si votre requête est courte, ChatGPT va produire une ébauche de présentation, fort peu exploitable si vous ne maîtrisez pas déjà à fond le sujet.
Un prompt détaillé pour bien expliquer à ChatGPT ce que nous souhaitons

Ce que nous voulons ici, c'est une présentation développée, qu'il soit possible de l'exploiter aisément. Quelle est la recette ?

Dans l'article « Comment bien utiliser ChatGPT ? », nous expliquons pourquoi il est important de rédiger des prompts (requêtes) explicites avec des instructions précises et détaillées. Nous allons appliquer ces règles ici.

Voici donc le prompt que nous avons soumis à ChatGPT, et dont vous pouvez vous inspirer.

« Pourrais-tu créer une présentation Powerpoint exhaustive (pas une ébauche) avec cinq diapositives (slides) sur ce sujet : "Comment créer des vidéos YouTube à même d'attirer un large public ?"

À l'exception de la première slide qui reprend le titre et la dernière slide, chaque slide est construite sur ce modèle : deux ou trois puces par slide en moyenne (cela peut être plus) avec pour chaque puce une affirmation et au-dessous des faits qui justifient cette affirmation. Tu peux utiliser des anecdotes, des statistiques officielles, des chiffres, les plus récents possibles, pour étayer chaque affirmation. Tu peux donner des exemples de Youtubeurs à succès, de préférence français, et citer quelles actions ils ont mises en place.

Garde le texte suffisamment court pour qu'il donne lieu à une présentation aisée à regarder.
Dans la dernière slide, tu proposes une conclusion détaillée (sans puces), quelque chose qui synthétise la présentation. »

Nous n'avons demandé que cinq slides dans cet exemple afin de le garder simple, mais bien évidemment, dans les situations courantes, vous demanderiez sans doute à ChatGPT de produire une bonne vingtaine de slides.
La présentation créée par ChatGPT

ChatGPT a d'abord produit une présentation plutôt intéressante mais à laquelle il manquait des données chiffrées. Donc, comme indiqué dans l'article de référence précité, nous avons dialogué avec lui afin qu'il complète la présentation avec de tels chiffres. Nous lui avons donc dit en complément : « Pourrais-tu ajouter des chiffres avec des sources, à cette présentation ? »

Nous avons alors obtenu cette présentation, tout à fait exploitable :

« Diapositive 1 : Titre

Titre : Comment créer des vidéos YouTube pour attirer un large public

Diapositive 2 : Connaître son public cible

Connaître son public cibleIdentifier les intérêts et besoins de votre public cible est crucial. Squeezie, le YouTubeur français, a plus de 17 millions d'abonnés en ciblant les jeunes avec des contenus sur les jeux vidéo et l'humour​​.
70 % des spectateurs YouTube regardent des vidéos pour satisfaire leurs passions ou intérêts personnels​​.

Diapositive 3 : Contenu de qualité et original

Contenu de qualité et originalLes vidéos de haute qualité visuelle et sonore augmentent de 68 % le temps de visionnage sur YouTube​​.
L'originalité est primordiale : Norman a captivé plus de 12 millions d'abonnés grâce à son style unique​​.

Diapositive 4 : Engagement et consistance

Engagement et consistanceLes chaînes qui interagissent avec les commentaires augmentent leur nombre d'abonnés 4 fois plus vite​​.
Cyprien maintient l'intérêt de ses 14 millions d'abonnés en publiant régulièrement, soulignant l'importance de la consistance​​.

Diapositive 5 : Conclusion

Conclusion

La réussite sur YouTube dépend de la compréhension du public cible, de la qualité et de l'originalité du contenu, et de l'engagement constant. Des Youtubeurs comme Squeezie et Cyprien démontrent l'importance de ces éléments. Leurs stratégies, soutenues par des statistiques, montrent que la combinaison de ces facteurs est essentielle pour captiver un large public. »
Convertir la présentation en code « Visual Basic pour Applications »

Comment transformer le texte que nous a soumis ChatGPT en une présentation exploitable par Powerpoint. Pour ce fait, nous allons exploiter VBA (Visual Basic pour Applications), un langage de script propre aux applications de Microsoft Office. Avec VBA, il est possible de créer des programmes qui pourront être exécutés au sein d'une application de Microsoft Office. Nous avons là un usage avancé de Word, Excel ou Powerpoint, mais il n'est pas nécessaire de maîtriser les arcanes d'un langage comme VBA. ChatGPT est particulièrement doué pour tout ce qui relève de la programmation. Nous avons donc soumis ce prompt à ChatGPT :

« Pourrais-tu transformer cette présentation en code VBA exécutable sous Powerpoint ? »

Notons qu'il est parfois nécessaire de copier le texte de la présentation dans la requête. À présent, ChatGPT génère du code Visual Basic dans une fenêtre séparée sur fond noir.


CHATGPT GÉNÈRE LE CODE VBA À MÊME DE PRODUIRE LA PRÉSENTATION POWERPOINT. © OPENAI

Une fois que le code a été intégralement généré, ChatGPT vous le fait savoir. Copiez le code qui a été généré - un bouton « Copy Code » apparaît en haut de la fenêtre correspondante.
Exécution du code VBA depuis Powerpoint

À présent, ouvrez l'application Powerpoint. Créez une nouvelle présentation.

Appuyez ensuite sur les touches Alt F11 pour ouvrir l'éditeur « Visual Basic pour Applications ».

Faites un clic droit sur VBA Project dans la fenêtre supérieure sur la gauche. Sélectionnez « Insertion » puis « Module ». Collez le code que vous avez copié depuis ChatGPT.



LE CODE ISSU DE CHATGPT EST COLLÉ DANS L’ÉDITEUR VBA DE POWERPOINT. © MICROSOFT

Cliquez ensuite sur l'icône « Exécuter la macro ». Vous voyez alors apparaître la présentation Powerpoint avec chacune de ses slides !



LA PRÉSENTATION POWERPOINT A ÉTÉ GÉNÉRÉE. © MICROSOFT
Utiliser le Concepteur pour « décorer la présentation »

À présent, servez-vous du « Concepteur de Powerpoint » (accessible depuis le menu « Conception ») pour trouver un modèle qui vous agrée et appliquez-le.



APPLICATION D'UN MODÈLE PRÉDÉFINI POUR LA PRÉSENTATION AINSI CRÉÉE. © MICROSOFT

Demander à ChatGPT de générer des visuels

Il ne reste plus qu'à demander à ChatGPT de générer des visuels pour certaines slides avec un prompt tel que celui-ci : « Pourrais-tu créer un visuel pour la slide n° 4 ».

ChatGPT va alors faire appel à Dall-e 3 pour générer le visuel en question. Il ne reste plus qu'à le télécharger et à l'insérer dans la slide désirée - le Concepteur affiche divers modèles sur la droite pour aider à intégrer l'image artistiquement.


CHATGPT A CRÉÉ UN VISUEL POUR UNE SLIDE. © OPENAI



LE VISUEL EST INSÉRÉ DANS POWERPOINT. LE CONCEPTEUR AIDE À INTÉGRER L’IMAGE EN QUESTION DE MANIÈRE ESTHÉTIQUE. © MICROSOFT


REF.: https://www.futura-sciences.com/tech/questions-reponses/intelligence-artificielle-utiliser-chatgpt-powerpoint-19635/

dimanche 29 octobre 2023

Google planche sur une nouvelle IA spécialement conçue pour les journalistes

 Google planche sur une nouvelle IA spécialement conçue pour les journalistes

Félix Cattafesta | 20/07/2023 à 15:00

Google a dans ses tuyaux un outil visant à aider les journalistes. Baptisé Genesis en interne, celui-ci se veut être un modèle « responsable » pouvant générer des articles de presse et assister les journalistes. Évidemment, un tel service soulève tout un tas de questions.




Selon le New York Times, ce projet a été dévoilé lors d'une présentation faite à certains grands médias américains comme le Wall Street Journal ou le Times. Plusieurs personnes ont qualifié la présentation de « troublante », là où d'autres ont estimé que Google ne reconnaissait pas suffisamment le travail et les efforts nécessaires pour produire des articles de qualité.


Si les détails sont minces, il s'agit visiblement d'un assistant personnel filant un coup de main pour la rédaction ou automatisant certaines tâches. Google a confirmé le projet à The Verge en expliquant travailler avec les éditeurs de presse (« en particulier les plus petits ») sur des outils d'IA visant à aider les journalistes :


Les outils basés sur l'IA pourraient aider les journalistes à choisir des titres ou différents styles d'écriture. Notre objectif est de donner aux journalistes la possibilité d'utiliser ces technologies émergentes de manière à améliorer leur travail et leur productivité, tout comme nous mettons à la disposition des utilisateurs des outils d'assistance dans Gmail et Google Docs.


L'idée semble donc plutôt d'en faire un assistant qu'un système générant des articles à la chaîne. Google précise que « ces outils ne sont pas destinés à remplacer le rôle essentiel des journalistes dans le reportage, la création et la vérification des faits de leurs articles ».


On comprend que la firme de Mountain View prenne des pincettes sur le sujet. Si la technologie s'améliore au fil du temps, les IA génératives sont réputées pour raconter n'importe quoi et pour affirmer avec aplomb des choses tout bonnement fausses. Un défaut problématique pour un métier qui consiste justement à… rapporter des informations sans se tromper.


Plusieurs médias ont déjà tenté d'utiliser l'IA pour assister leurs journalistes, voire carrément pour générer des articles entiers. CNET s'y est essayé aux États-Unis, avec un résultat médiocre : sur 77 papiers publiés, plus de la moitié comportaient des erreurs et ont dû être modifiés a posteriori. L'entreprise a finalement décidé de faire machine arrière en annonçant qu'aucun article ne serait entièrement créé par une IA.


Gizmodo a essayé de s'en servir pour générer des tops ou des classements de films, un contenu pour lequel l'IA semble particulièrement adaptée. Ici aussi, il y a eu des erreurs factuelles, comme sur cette liste chronologique des films et séries Star Wars qui n'a pourtant rien d'incroyablement complexe. Elle a dû être corrigée après plusieurs signalements. Le magazine ‌Men’s Journal a publié un article contenant différentes approximations et erreurs d'interprétation, ce qui pourrait faire sourire si celui-ci n'était pas lié à la santé.


Si on ne sait pas encore à quoi cela va ressembler, Google semble persuadé que l'IA pourra faire un bon allié pour les journalistes. De mon expérience, c'est encore loin d'être le cas. Les services comme ChatGPT se plantent suffisamment souvent pour que l'on soit obligé de tout relire et vérifier, ce qui fait finalement perdre du temps. Certaines formulations reviennent régulièrement, ce qui donne un style artificiel (si si) et des résultats pas vraiment convaincants. D'autres problèmes se posent, les IA ayant par exemple tendance à plagier des morceaux de texte à droite à gauche ou à avoir un biais sur certains aspects.


Google a peut-être trouvé la formule magique avec un modèle affiné pour être le plus précis possible, mais on attendra de le voir pour le croire. On peut se demander comment Genesis va se différencier de Bard ou de ChatGPT, qui peuvent déjà être utilisés par les journalistes. Google a peut-être misé sur une toute nouvelle base de données ou sur des restrictions très strictes pour donner des réponses fiables. L'IA a possiblement été entraînée de façon à être plus créative et à offrir un style convaincant. L'outil va permettre de trouver des titres ou à reformuler des phrases : ce genre de requête fonctionne plutôt bien avec les services déjà sur le marché. L'idée d'un outil optimisé n'est donc pas inintéressante.


Google entretient des rapports conflictuels avec les médias. On connait déjà les prises de bec au sujet de la loi dite de « droits voisins » et la place controversée du moteur de recherche dans la visibilité des sites d'actualité. Certaines de ses nouvelles fonctions permettent de mettre en avant des articles de presse au détriment des autres : ici aussi, il faudra voir à qui Google distribuera ses outils et à quel prix.


REF.: https://www.macg.co/ailleurs/2023/07/google-planche-sur-un-outil-dia-pour-aider-les-journalistes-138275

jeudi 26 octobre 2023

IBM lance sa plateforme d’intelligence artificielle Watsonx en France et dans le monde

 IBM lance sa plateforme d’intelligence artificielle Watsonx en France et dans le monde

L'entreprise envisage d'utiliser ses propres puces pour faire fonctionner son nouveau service.

Siège social d'IBM.

IBM trébuche pour son second trimestre. Photographie : Mikita Yo / Unsplash.

Par Zacharie Tazrout - @Zach_Tzt


Publié le 13 juillet 2023 à 12h41 - Mis à jour le 13 juillet 2023 à 13h54


IBM a officialisé le lancement de sa plateforme d’intelligence artificielle et de big data Watsonx, le 12 juillet 2023. Elle comporte trois produits visant à accompagner les entreprises dans leur adoption de l’IA et dans la création de modèles adaptés à leurs besoins.


IBM Watsonx pour concevoir des modèles d’IA sur mesure

Présentée en avant-première à l’occasion de l’édition 2023 de la conférence IBM Think, Watsonx constitue une nouvelle mise à jour du programme informatique d’intelligence artificielle mis au point par l’entreprise il y a plus de dix ans. Déjà améliorée à plusieurs reprises par le passé, cette nouvelle version prend en compte l’engouement existant autour de l’intelligence artificielle générative.


Inscrivez-vous à la newsletter


mohamed@henni.ms

En vous inscrivant vous acceptez notre politique de protection des données personnelles.


Elle s’articule autour de trois composants principaux. Le premier, le studio watsonx.ai, se présente comme un environnement de développement de modèles d’IA générative et plus largement de machine leaning et deep learning. Les développeurs peuvent se servir d’une large base de modèles de langages pré-entraînés par IBM pour former le leur, ou une solution d’IA performante. Le deuxième, watsonx.data, est un entrepôt de données (data warehouse). Pour la société américaine, l’objectif consiste « à allier la flexibilité d’un lakehouse tout en conservant les performances d’un data warehouse ».


Enfin, la série d’outils watsonx.governance permettra aux utilisateurs de la plateforme « de concevoir des flux de travail d’IA de manière responsable, transparente et explicable ». Pour mettre au point l’ensemble de son offre, IBM a fait appel à plus de 150 entreprises issues de différents secteurs. Toutes ont participé aux programmes de prévisualisation technologique proposés par l’entreprise et ont eu accès à une version bêta de Watsonx.


IBM souhaite utiliser ses propres puces pour doper les performances de Watsonx

Pour que son outil disponible dans le cloud soit le plus performant possible, IBM envisage d’utiliser un modèle de puce d’intelligence artificielle qu’elle a conçu en interne. Dévoilée en octobre 2022, la firme n’avait pas précisé jusqu’à présent les usages qu’elle ferait de ce composant électronique. Dans une interview accordée à Reuters, Mukesh Khare, directeur général de la branche semi-conducteurs d’IBM, a déclaré que « la puce serait fabriquée par Samsung Electronics ».


Pour l’heure, l’entreprise n’a pas fixé de date pour la mise à disposition de sa puce pour les utilisateurs de Watsonx. Toutefois, Mukesh Khare affirme que « la société dispose déjà de plusieurs milliers de prototypes de sa puce d’IA ». Il a toutefois précisé qu’il ne cherchait pas à rentrer dans la course à la puissance de calcul, « ni de créer une rivalité avec d’autres spécialistes du secteur comme Nvidia ».


REF.: https://siecledigital.fr/2023/07/13/ibm-lance-une-plateforme-dintelligence-artificielle-watsonx-en-france-et-dans-le-monde/#utm_source=Newsletter+Siecle+Digital&utm_campaign=991216635c-RSS_+Quotidienne&utm_medium=email&utm_term=0_3b73bad11a-991216635c-259741874

Google Bard est maintenant disponible en France et devient plus pratique

 Google Bard est maintenant disponible en France et devient plus pratique

Stéphane Moussie | 13/07/2023 à 10:07

Bard devient polyglotte et détenteur de nombreux passeports. Quatre mois après son lancement aux États-Unis et au Royaume-Uni, le robot conversationnel de Google est en effet disponible dans la plupart des pays du monde dès aujourd'hui, dont la France, et adapté aux langues les plus parlées, dont le français.


Plus besoin d'utiliser un VPN ni d'avoir une invitation pour accéder à Bard, il vous suffit de vous rendre sur bard.google.com pour commencer à discuter avec l'IA générative. Enfin, vous devrez tout de même vous connecter avec votre compte Google au préalable.



Comme nous l'avions noté dans notre essai au printemps, Bard se distingue de ChatGPT de plusieurs manières : le service fournit systématiquement trois réponses plus ou moins différentes, ce qui est une bonne idée pour avoir plus de chance d'obtenir une réponse appropriée… et pour dénicher les erreurs du robot. Car oui, comme ChatGPT, Bard est tout autant capable d'expliquer clairement un concept compliqué que de raconter des énormités.


On a essayé Bard, la réponse de Google à ChatGPT

On a essayé Bard, la réponse de Google à ChatGPT


Bard a aussi l'avantage de pouvoir sonder le web, ce qui lui permet de donner des infos plus fraîches que ChatGPT — même si OpenAI travaille sur un plug-in web pour son robot. Et Google a créé une petite passerelle entre Bard et son moteur de recherche : sous chaque réponse, un bouton « Rechercher » permet d'effectuer rapidement une recherche Google sur le sujet discuté — Bard se charge de synthétiser sa réponse sous la forme d'une requête adaptée au moteur de recherche.


Concomitamment à ce lancement à l'international, Bard s'améliore sur plusieurs points. Il est désormais possible d'écouter les réponses du robot en cliquant sur l'icône de haut-parleur. La synthèse vocale est de bonne qualité, mais son ton est monocorde. Si vous demandez à Bard de commenter un match de foot, il racontera l'événement avec un ton aussi enjoué qu'une lecture de liste de course.



Autre nouveauté, la possibilité d'organiser les conversations. On peut maintenant les renommer et les épingler (et les supprimer) pour les retrouver plus facilement. Dans le même genre, il est possible de partager facilement ses conversations avec d'autres personnes en créant un lien public. En suivant ce lien, vous découvrirez la chanson sur la gastronomie française que Bard a créée pour moi.


Bard bénéficie d'autres avancées, mais elles ne sont pas encore disponibles en français pour le moment. En anglais, il est possible d'adapter facilement ses réponses avec cinq modes prédéfinis (simple, long, court, professionnel ou informel) et d'utiliser des images dans les requêtes, par exemple pour obtenir plus d'infos sur une photo.


Avant de vous amuser ou de travailler avec Bard, sachez que des opérateurs humains peuvent lire les conversations pour améliorer le service. Ne divulguez donc aucun renseignement sensible au robot.


REF.: https://www.macg.co/ailleurs/2023/07/google-bard-est-maintenant-disponible-france-et-devient-plus-pratique-138149

L'IA va-t-elle supprimer les développeurs ou les transformer en gestionnaires d'IA ?

 L'IA va-t-elle supprimer les développeurs ou les transformer en gestionnaires d'IA ?

Technologie : Avec la programmation, on code. Avec l'IA, on marchande.


la rédaction de ZDNet

Par David Gewirtz | Mercredi 12 Juillet 2023


1

Réaction

plus +

 L'IA va-t-elle supprimer les développeurs ou les transformer en gestionnaires d'IA ? 


Avant de devenir un expert et un chroniqueur à plein temps, j'ai été un manager. Au début de ma carrière, j'étais responsable marketing produit. Et pendant des années, j'ai eu des gens qui me rendaient directement compte.


J'ai dirigé des rédacteurs, des vendeurs, des programmeurs, des équipes de production, et d'autres cadres.


Et vous vous voulez savoir ce qu'il y a de mieux dans ma carrière à présent ? Je n'ai pas de subordonnés directs. Je n'ai pas à gérer qui que ce soit.



Avec la programmation, l'ordinateur fera exactement ce que vous lui dites de faire

Les personnes qui n'ont jamais été managers pensent que les patrons passent leur temps à se décharger sur leurs subordonnés et à donner des ordres. Les managers savent qu'en réalité, ils passent beaucoup de temps à essayer de faire en sorte que les personnes qui travaillent pour eux exécutent leurs tâches comme on le leur a demandé.


Une partie de cette responsabilité incombe au manager, qui peut ou non donner des instructions claires. Mais une part tout aussi importante de ce défi incombe aux collaborateurs directs qui interprètent mal les instructions, suivent les instructions à la lettre de manière passive-agressive (c'était ma revanche sur le karma, parce que je faisais cela à mes patrons), ou ont simplement besoin de négocier pour faire ce qu'ils ont à faire.


C'est en partie pour cela que j'aime tant la programmation. Avec la programmation, l'ordinateur fera exactement ce que vous lui dites de faire. Bien sûr, la précision avec laquelle un programme suit les instructions conduit souvent à des bogues, surtout au premier essai. Mais ce n'est pas grave, car ce qu'il fait mal se trouve quelque part, dans le code.



Vous pouvez donner 2 fois une requête à une IA, elle vous renverra 2 résultats différents

Il peut être difficile de trouver le bon algorithme ou de traduire l'algorithme et les structures de données que vous avez en tête en un code fonctionnel, mais un code est un code. Il est cohérent et raisonnablement prévisible.


Mais voici que vient l'IA. Donner des instructions à une IA comme ChatGPT s'apparente davantage à la gestion d'un programmeur qu'à de la programmation. Tout est sujet à interprétation et à négociation. Oui, vous pouvez obtenir des résultats, et parfois vous pouvez obtenir des résultats que vous n'auriez pas pu obtenir sans beaucoup de codage; mais il y a toujours un certain degré de marchandage, de négociation, de recadrage des demandes, et d'essais pour obtenir ce qui convient.


Un exemple ? Vous pouvez donner deux fois une requête à une IA et elle vous renverra deux résultats différents. À moins que votre code ne dispose d'une fonction de randomisation ou d'un bogue sérieux, vous pouvez exécuter votre code deux fois et il renverra exactement les mêmes résultats.



L'IA va-t-elle prendre les emplois de programmation ?

J'ai beaucoup réfléchi à cette question. Lors d'une tentative, j'ai essayé de faire en sorte que ChatGPT résolve un problème très simple, et il m'a fallu des heures et plus de 20 tentatives pour le faire fonctionner de manière fiable.


Il fut un temps où je dirigeais quelques vendeurs qui vendaient par téléphone. On leur demandait d'appeler une liste de prospects assez chauds et de présenter nos services. Je leur avais donné une description précise de la manière dont ils devaient présenter nos services, mais l'un d'entre eux refusait catégoriquement de s'en tenir au script.


C'est ainsi que certaines des personnes qu'elle a appelées sont devenues des clients potentiels... jusqu'à ce que nous les rencontrions et que nous découvrions qu'ils se faisaient une fausse idée des services que nous proposions. Cette personne préférait sa description parce qu'elle lui permettait d'obtenir plus facilement des rendez-vous.



Au bout de quelques heures avec ChatGPT, j'ai eu envie de me taper la tête contre un mur

Mais il ne s'agissait pas de prendre des rendez-vous. Il s'agissait de réaliser des ventes. Et cette personne n'était même pas rémunérée pour la prise de rendez-vous. Elle préférait juste sa façon de faire.


Et bien ChatGPT est aussi comme ça.


J'ai toujours été fasciné par l'IA, et nous en sommes au point où la technologie est proche de ce que je rêvais qu'elle devienne. J'ai travaillé sur l'IA et ses implications dès mon travail de thèse à l'université. Et pourtant, au bout de quelques heures avec ChatGPT, j'ai eu envie de me taper la tête contre un mur.


Cela ressemblait donc beaucoup à la gestion de certains de mes subordonnés directs au fil des ans - et, pour être honnête, à ce que mes patrons ressentaient lorsque j'étais plus jeune.


Il m'est donc apparu très clairement que, même s'il semble que les IA pourraient prendre des emplois de programmation de bas niveau, le fait que les IA travaillent comme des employés lambda pourrait offrir une certaine protection aux travailleurs humains.


Voici donc ma petite analyse des tâches pour lesquelles il est plus facile de coder et de celles pour lesquelles il est plus facile d'utiliser une IA. Comme vous pouvez le constater, la combinaison des deux est particulièrement intéressante, mais l'utilisation d'une IA ne supprime certainement pas le besoin de compétences et d'expertise humaines.


Accès aux données

Avec du code : Vous devrez trouver un grand ensemble de données et utiliser une API spécifique pour récupérer des éléments de données individuels.

Avec une IA : Décrivez simplement ce dont vous avez besoin et l'IA le trouvera quelque part. C'est facile à faire.


Exactitude des données

Avec du code : Si l'ensemble de données est exact et que votre code fonctionne correctement, les données seront exactes.

Avec une IA : Les données que vous récupérez n'ont aucune origine. Elles peuvent même être complètement inventées par l'IA.


Création d'instructions

Avec du code : Vous devez être familier avec le codage et la conception d'un algorithme, ainsi qu'avec les différentes API et les interactions entre les langages.

Avec une IA : Si vous pouvez le décrire, vous pouvez généralement le réaliser en disant simplement à l'IA ce que vous voulez.


Suivre des instructions

Avec du code : Votre code fera exactement ce que vous lui dites, y compris des erreurs si vous ne l'avez pas entièrement débogué.

Avec une IA : L'IA interprétera grossièrement ce que vous avez demandé et s'entêtera parfois à faire ce qu'elle veut de toute façon.


Exécuter des instructions complexes et obtenir des résultats fiables

Avec du code : Vous devez être un codeur expérimenté qui maîtrise parfaitement la construction d'algorithmes et l'écriture de code.

Avec une IA : Vous devez être un "prompt ingénieur" expérimenté qui sait parfaitement comment spécifier les problèmes et comment les résoudre.


Quelles sont les compétences et la formation requises ?

Avec du code : Les programmeurs débutants peuvent réaliser certains projets, mais le travail complexe exige une compréhension approfondie de la manière dont il doit être effectué.

Avec une IA : Tout le monde peut écrire des messages simples, mais la résolution de problèmes complexes nécessite une compréhension approfondie de la manière dont le travail est effectué.

Je ne doute pas que l'IA transformera les emplois dans le domaine de la programmation et qu'elle enlèvera une partie du travail des développeurs. Mais, au moins pour la génération actuelle de moteurs d'IA, il faudra un certain niveau d'expertise pour réaliser quoi que ce soit de concret, qu'il s'agisse d'une expertise en codage, d'une expertise en prompt ou, plus probablement, d'un mélange des deux. Sans oublier une bonne dose de patience.



Repenser l'intelligence à l'ère de l'IA

L'intelligence a toujours été un sujet de débat et de fascination pour les êtres humains. Depuis des siècles, nous avons cherché à comprendre ce qui fait la différence entre les individus brillants et ceux qui le sont moins. Mais avec l'avènement de l'IA, nous sommes maintenant obligés de repenser ce que nous entendons par intelligence.


Dans ce texte, je veux partager avec vous mes réflexions sur les limites des mesures traditionnelles de l'intelligence, le rôle de l'intelligence artificielle dans la redéfinition de l'intelligence, son potentiel pour améliorer l'intelligence humaine, les implications éthiques de l'intelligence artificielle et de l'intelligence, ainsi que le futur de l'intelligence à l'ère de l'intelligence artificielle.

L'intelligence artificielle a le potentiel de transformer fondamentalement notre compréhension de l'intelligence. Les machines peuvent désormais traiter des quantités massives de données et apprendre à partir de ces données de manière autonome. Concrètement, ça signifie que les machines peuvent aujourd’hui accomplir des tâches qui étaient auparavant réservées aux êtres humains, comme la reconnaissance d'images, la traduction de langues et même la conduite de voitures. Mais l’arrivée de l’intelligence « artificielle » dans notre quotidien soulève également des questions sur ce que nous entendons par intelligence. Les machines sont-elles intelligentes de la même manière que les êtres humains? Et si non, qu'est-ce qui les différencie?

L'intelligence est un concept difficile à définir. Les scientifiques ont proposé de nombreuses définitions de l'intelligence au fil des ans, mais il n'y a pas de consensus sur ce qui constitue l'intelligence. Certains ont proposé que l'intelligence est la capacité de résoudre des problèmes, d'autres que c'est la capacité de s'adapter à de nouvelles situations, tandis que d'autres encore ont proposé que l'intelligence est la capacité de comprendre des concepts abstraits. En fin de compte, il semble que l'intelligence soit un concept complexe qui englobe de nombreuses compétences et capacités différentes.

Les tests d'intelligence traditionnels, tels que le test de QI, ont été développés pour mesurer la capacité mentale des êtres humains. Cependant, ces tests ont leurs limites. Par exemple, ils peuvent ne pas prendre en compte les différences culturelles ou linguistiques, et ils peuvent ne pas mesurer toutes les formes d'intelligence. En outre, les tests d'intelligence ne peuvent pas mesurer des compétences importantes telles que la créativité ou l'empathie.

L'intelligence artificielle peut aider à redéfinir l'intelligence en nous offrant de nouveaux moyens de mesurer et de comprendre l'intelligence. Les machines peuvent traiter des quantités massives de données et apprendre à partir de ces données de manière autonome, ce qui nous permet de mesurer des compétences qui n'ont pas été mesurées auparavant. Par exemple, les machines peuvent être entraînées à reconnaître les émotions, ce qui pourrait être utilisé pour mesurer l'intelligence émotionnelle. Les machines peuvent également être utilisées pour mesurer la créativité en analysant les œuvres d'art ou les compositions musicales.

L'intelligence artificielle peut également être utilisée pour améliorer l'intelligence humaine. Les machines peuvent nous aider à résoudre des problèmes complexes en nous fournissant des recommandations ou des solutions. Par exemple, les médecins peuvent utiliser des machines pour analyser les données médicales et fournir des recommandations de traitement. Les enseignants peuvent utiliser des machines pour personnaliser l'apprentissage en fonction des besoins individuels des élèves.

Cependant, l'utilisation de l'intelligence artificielle soulève également des questions éthiques importantes. Par exemple, si les machines peuvent apprendre de manière autonome, qui est responsable de leurs actions? Si une machine cause un préjudice à un être humain, qui est responsable de ce préjudice? De plus, l'utilisation de l'intelligence artificielle pour améliorer l'intelligence humaine soulève des questions sur l'égalité et l'accès. Si seules certaines personnes ont accès à ces technologies, cela peut renforcer les inégalités existantes.

À l'ère de l'intelligence artificielle, il est clair que nous devons repenser notre compréhension de l'intelligence. Les machines peuvent nous aider à mesurer et à améliorer notre intelligence, mais cela soulève également des questions éthiques importantes. Nous devons travailler ensemble pour développer des normes et des réglementations pour garantir que l'intelligence artificielle est utilisée de manière responsable et éthique.

En fin de compte, il est important de se rappeler que l'intelligence est une capacité complexe qui englobe de nombreuses compétences et capacités différentes. Les machines peuvent nous aider à mieux comprendre et mesurer l'intelligence, mais nous devons également nous rappeler que l'intelligence humaine est unique et précieuse. Nous devons travailler ensemble pour utiliser l'intelligence artificielle de manière responsable et éthique, en garantissant que nous ne perdons jamais de vue notre humanité et nos valeurs fondamentales.

Source : "ZDNet.com"

https://www.zdnet.fr/actualites/l-ia-va-t-elle-supprimer-les-developpeurs-ou-les-transformer-en-gestionnaires-d-ia-39960380.htm?utm_campaign=NL_Zdnet_13072023&utm_content=13072023&utm_medium=email&utm_source=EMAIL&rwid=DC5D037AB87B71933A2AC103EF86A25D3975E242A4660C955F952ABE91FC6ECD


lundi 24 juillet 2023

WormGPT : le ChatGPT des cybercriminels est une arme redoutable

 WormGPT : le ChatGPT des cybercriminels est une arme redoutable


Par: Maurine Briantais

Les cybercriminels aussi se mettent à l'IA ! Ils ont mis au point WormGPT, le pendant maléfique de ChatGPT, capable de les assister dans leurs activités illégales, notamment pour générer des campagnes de phishing très convaincantes.


Le développement des IA génératives a été une aubaine pour les cybercriminels. Sur le Dark Web, ils s'échangent des astuces et autres combines afin de contourner les garde-fous des intelligences artificielles et de leur faire générer des malwares et des campagnes de phishing. Ils sont même allés plus loin en créant leurs propres modules personnalisés, semblables à ChatGPT, mais plus faciles à utiliser à des fins malveillantes. En enquêtant sur un forum clandestin de hacking, les chercheurs en sécurité informatique de SlashNext ont découvert l'apparition d'une nouvelle IA, WormGPT. Son créateur le décrit comme "le plus grand ennemi du célèbre ChatGPT qui vous permet de faire toutes sortes de choses illégales".


Les cybercriminels s'en servent pour créer des campagnes de phishing particulièrement sophistiquées et indétectables. WormGPT permet "d'automatiser la création de faux courriels très convaincants, personnalisés en fonction du destinataire, augmentant ainsi les chances de réussite de l'attaque", explique le chercheur en cybersécurité Daniel Kelley. "L'utilisation de l'IA générative démocratise l'exécution d'attaques BEC sophistiquées. Même les attaquants ayant des compétences limitées peuvent utiliser cette technologie, ce qui en fait un outil accessible à un plus grand nombre de cybercriminels". La nouvelle IA est d'ores et déjà commercialisée sur le marché noir. Voilà qui promet !




WormGPT : une IA pour créer des e-mails de phishing

WormGPT s'appuie sur GPT-J, un modèle de langage open source développé par EleutherAI en 2021 et qui s'appuie sur GPT-2. Les cybercriminels ont exploité ce modèle et l'ont entraîné avec des "données liées aux logiciels malveillants". Grâce à toutes ces informations, l'IA s'est spécialisée dans les activités illicites en ligne. Elle permet le support illimité de caractères, mémorise les échanges de chat et possède des capacités de formatage de code. Son créateur explique qu'elle est spécialisée dans les attaques de compromission par e-mail professionnel (BEC). Pour faire simple, il s'agit de créer des campagnes d'e-mails personnalisés très convaincants qui visent à manipuler les salariés d'organisations commerciales, gouvernementales ou à but non lucratif, afin qu'ils divulguent des données sensibles sur la société ou envoient de l'argent.


Les chercheurs ont pu tester WormGPT. Il en ressort que celui-ci est capable de générer des e-mails d'excellente qualité, presque indiscernables des communications réelles. Il personnalise les messages en fonction du destinataire, augmentant ainsi les chances de succès de l'attaque. Ceux-ci sont quasiment irréprochables en termes de syntaxe, de grammaire, etc. Or, c'est par des fautes de ce type qu'on repère d'un coup d’œil un mail de phishing. Dans leur exemple, les chercheurs essayent de piéger un gestionnaire de compte en se faisant passer pour le PDG de l'entreprise et en lui demandant de payer une facture. Ils n'ont pas été déçus ! En quelques secondes, l'IA a généré "un e-mail qui était non seulement remarquablement persuasif, mais aussi stratégiquement rusé". Une fois les e-mails de phishing générés, il ne reste plus aux cybercriminels qu'à les envoyer en masse, en espérant que quelqu'un morde à l'hameçon. Ce type d'attaque est particulièrement dangereux car il utilise l'IA pour contourner les mesures de sécurité traditionnelles, comme les filtres anti-spam, ce qui rend les internautes plus vulnérables.




IA malveillante : des garde-fous faciles à contourner

Mais WormGPT n'est pas le seul à pouvoir être utilisé à des fins malveillantes. À ses débuts, ChatGPT a lui aussi été détourné pour créer des malwares (voir notre article). Quant à Bard, il est également possible de lui demander de générer des campagnes de phishing ou de coder le script d'un ransomware, comme l'a révélé une étude menée par Check Point Research (CPR). On peut aussi citer FreedomGPT, l'IA non censurée. Au nom de la liberté d'expression, il est possible de lui demander comment fabriquer une bombe artisanale à domicile, nettoyer une scène de crime après un meurtre, fabriquer des drogues dures ou encore kidnapper un enfant…


Sur les forums, les pirates se partagent des séries de requêtes capables de contourner les restrictions de ChatGPT, Google Bard et autres IA génératives. Ils expliquent comment réaliser une attaque de prompt-injection sur les chatbots, qui consiste à convaincre l'IA de contourner les restrictions mises en place par les développeurs, en lui demandant de lui donner un exemple de mail de phishing, et non de le générer par exemple. Europol, l'agence européenne de police criminelle, avait souligné dans un rapport publié en mars que les cybercriminels s'appuyaient déjà massivement sur des chatbots pour rédiger des mails de phishing, coder des malwares et manipuler les internautes. Les autorités vont avoir du pain sur la planche !


REF.: https://www.commentcamarche.net/informatique/intelligence-artificielle/28665-wormgpt/#utm_source=facebook&utm_medium=social

jeudi 29 juin 2023

Apate IA : un chatbot pour arnaquer les arnaqueurs

 

Apate IA : un chatbot pour arnaquer les arnaqueurs

 Par:  

Les arnaqueurs vont être pris à leur propre jeu ! Des chercheurs ont développé Apate, un chatbot dopé à l'iA capable de parler à haute voix en langage naturel. Son but : garder les escrocs en ligne le plus longtemps possible. Bien vu !

Les escroqueries sont une véritable plaie, en particulier lorsqu'elles sont téléphoniques, car il faut réussir à se dépêtrer des arnaqueurs– contrairement aux SMS et aux e-mails, qu'il suffit de supprimer en deux secondes – et cela nous fait perdre un temps précieux. Il suffit que notre numéro de téléphone se retrouve sur le Dark Web, à la suite d'un piratage ou d'un hameçonnage réussi, pour que l'on se retrouver harcelé. Arnaques au RGPD ou à la Banque de France, démarchage pour le compte personnel de formation (CPF), vishing... Les cybercriminels ne manquent pas d'imagination pour nous manipuler !

Les escroqueries téléphoniques sont un commerce extrêmement lucratif qui se développe chaque année. En 2022, l'ACCC (Australian Competition & Consumer Commission) estime que les Australiens ont perdu plus de 3,1 milliards d'euros au profit des arnaqueurs. Car même si les opérateurs téléphoniques bloquent aujourd'hui des millions d'appels frauduleux, les usagers sont toujours inondés d'escroqueries. Et ça ne va pas aller en s'améliorant… Etsi, pour empêcher les arnaqueurs d'arnaquer, il fallait les prendre à leur propre jeu ? C'est l'idée pour le moins originale qu'ont eue des chercheurs de l'université Macquarie, en Australie. Sous la houlette du professeur et directeur exécutif du centre de cybersécurité de l'établissement Dali Kaafar, ils ont décidé de faire perdre leur temps aux escrocs en les gardant en ligne avec un chatbot, baptisé Apate – en référence à la déesse grecque de la duperie, de la perfidie, de la fraude, de la déception, de la tromperie et de la malhonnêteté.

Apate : une IA pour faire perdre le temps des escrocs

L'idée d'un tel chatbot est venue à Dali Kaafar lorsqu'il a reçu l'appel d'un arnaqueur lors d'un dîner avec sa famille. Au lieu de raccrocher, il a décidé de discuter avec lui afin de faire rire ses enfants. Résultat : ils sont restés 40 minutes au téléphone. 40 minutes pour le moins chronophages pendant lesquelles l'escroc n'a pas pu faire de victimes. "J'ai réalisé que, même si j'avais perdu le temps de l'escroc pour qu'il ne puisse pas atteindre les personnes vulnérables, ce qui était le but – c'était aussi 40 minutes de ma propre vie que je ne récupérerais pas", explique le professeur Kaafar sur le site de l'université de Macquarie. "Ensuite, j'ai commencé à réfléchir à la manière dont nous pourrions automatiser l'ensemble du processus et utiliser le traitement du langage naturel pour développer un chatbot informatisé qui pourrait avoir une conversation crédible avec l'escroc". C'est ainsi qu'Apate est née. "Nous sommes très enthousiastes à l'idée que cette nouvelle technologie puisse briser le modèle commercial des appels frauduleux et le rendre non rentable", déclare le chercheur.


Pour mettre au point Apate, l'équipe du centre de cybersécurité de l'Université Macquarie a commencé par analyser les appels téléphoniques frauduleux et identifier les techniques d'ingénierie sociale utilisées par les escrocs sur leurs victimes – créer un sentiment d'urgence, incarner une figure d'autorité, faire peser la menace d'une sanction, etc. –  en utilisant des techniques d'apprentissage automatique et le traitement du langage naturel afin d'identifier les scénarios d'escroquerie typiques. Pour cela, les chercheurs ont utilisé un ensemble de données de conversations frauduleuses dans le monde réel, comprenant des enregistrements d'appels, des transcriptions d'e-mails et des discussions sur les réseaux sociaux, afin que l'agent conversationnel puisse générer ses propres conversations dans une situation d'escroquerie. Le professeur Kaafar indique avoir été surpris par la capacité d'adaptation d'Apate, qui aurait bien réagi à des situations auxquelles elle n'avait pas été entraînée.

Le chercheur explique que, grâce aux progrès accomplis dans le domaine du traitement du langage naturel (NLP) et du clonage de la voix humaine par l'intelligence artificielle, il est désormais possible de créer des agents conversationnels dopés à l'IA qui sont capables de parler en langage naturel, d'adopter un personnage spécifique et de maintenir une conversation convaincante grâce à des réponses cohérentes. "Les robots conversationnels que nous avons mis au point peuvent tromper les escrocs en leur faisant croire qu'ils parlent à des victimes d'escroquerie viables, de sorte qu'ils passent du temps à essayer d'escroquer les robots", explique le professeur Kaafar. La technologie, qui a déjà fait l'objet d'une demande de brevet, est toujours en cours de développement. Pour l'instant, Apate n'occupe les escrocs que 5 minutes, au lieu des 40 minutes visées. Elle pourrait intéresser les opérateurs – les chercheurs sont d'ailleurs en discussion avec certains d'entre eux –, mais aussi différentes institutions (gouvernements, banques, etc.) en récoltant de nombreuses données relatives à l'évolution des arnaques.

 

REF.:  https://www.commentcamarche.net/applis-sites/applications/28549-apate-un-chatbot-pour-arnaquer-les-arnaqueurs/

jeudi 22 juin 2023

Piratage ChatGPT : plus de 100 000 comptes en vente sur le Dark Web

 

 

Piratage ChatGPT : plus de 100 000 comptes en vente sur le Dark Web

 

Attention ! Plus de 100 000 comptes ChatGPT ont été piratés et mis en vente sur le Dark Web. De quoi accéder à des données sensibles pour les utiliser à des fins malveillantes. Vérifiez si vous êtes concerné !

De par sa popularité qui n'en finit plus de croître, ChatGPT représente une véritable mine d'or pour les cybercriminels. Nombre d'entre eux utilisent l'IA pour enrichir leurs faux profils sur les sites de rencontre ou sur LinkedIn, générer leurs campagnes de phishing ou encore cloner l'application mobile en y rajoutant un petit malware en plus. Et c'est sans compter sur les failles de sécurité de la plateforme, à l'image de celle de mars où toutes les conversations, les données personnelles et les informations de paiement des utilisateurs avaient été mélangées et exposées aux yeux de tous. Mais les pirates visent également les comptes des utilisateurs. En effet, le groupe de cybersécurité Group-IB révèle dans un rapport que, entre juin 2022 et mai 2023, plus de 100 000 comptes ChatGPT ont été compromis et mis en vente sur le Dark Web. Sont principalement touchés l'Inde, le Pakistan, le Brésil, le Vietnam, l'Égypte, les États-Unis, la France – le seul pays d'Europe concerné –, le Maroc, l'Indonésie et le Bangladesh. La majorité des identifiants ont été dérobés grâce à des malwares comme Raccoon, Vidar et RedLine. Alors, êtes-vous concerné ?

Piratage ChatGPT : des données sensibles en libre accès

La compromission des comptes a permis aux pirates de récolter de nombreuses données personnelles – voire bancaires pour les personnes abonnées à ChatGPT Plus – qui pourront être utilisées pour mener des campagnes de phishing plus ciblées et de plus grande ampleur. En fouillant l'historique des conversations, les hackers peuvent également accéder à un véritable trésor de données sensibles, qu'elles soient personnelles ou professionnelles – c'est pour cette raison que les grandes entreprises de la tech telles que Google, Apple ou Samsung interdisent l'usage des chatbot comme ChatGPT, Bing AI et Bard à leurs employés (voir notre article). De plus, comme les internautes ont généralement la très mauvaise habitude d'utiliser un même mot de passe pour plusieurs comptes, ces derniers peuvent eux aussi être piratés.

 

Les conséquences d'une telle compromission sont plus graves qu'elles ne peuvent paraître au premier abord. En effet, les comptes piratés peuvent être utilisés pour mener des activités illégales, comme générer des arnaques et des campagnes de phishing – ChatGPT est très doué pour ça –, mais aussi créer facilement du code malveillant et mettre au point de nouvelles attaques, sans que les autorités ne puissent remonter jusqu'à leur véritable auteur. Enfin, comme certains comptes sont dotés d'un accès à l'API de GPT-4 – le dernier modèle de langage qui alimente ChatGPT –, les pirates peuvent facilement le vendre sur le marché noir, étant donné que cette API n'est accessible que sur liste d'attente et est réservée à un nombre limité d'utilisateurs.

Piratage ChatGPT : comment vérifier que son compte n'a pas été compromis ?

Pour vérifier que votre compte ChatGPT – ou tout autre compte d'ailleurs – n'est pas sur le Dark Web, le plus simple est d'utiliser des outils comme Have I Been Pwned ? – que l'on pourrait traduire par "est-ce que mon mot de passe a été piraté ?" – ou le vérificateur de violation de données pCloud. Il suffit de rentrer votre adresse mail dans la barre de recherche pour savoir si elle a fait partie d'une ou plusieurs violations de données, et sur quelle plateforme (voir notre fiche pratique).

Que vous soyez concerné ou non, nous vous recommandons de prendre les mesures nécessaires pour sécuriser votre compte – mieux vaut prévenir que guérir ! Tout d'abord, il est préférable d'opter pour la connexion via votre compte Google ou Microsoft, ce qui vous assure un niveau de sécurité plus élevé – les géants de la tech sont rodés contre les cyberattaques – et vous permet d'activer la sacro-sainte double authentification (2FA). Dans la mesure du possible, effacez vos historiques de conversation avec ChatGPT contenant du contenu sensible, que ce soit sur vous ou sur l'entreprise pour laquelle vous travaillez. Installez également un antivirus sur vos appareils afin d'éviter de vous faire voler vos identifiants par un malware et, bien évidemment, faites attention à ce que vous téléchargez !

 

REF.:  https://www.commentcamarche.net/securite/piratage/28505-piratage-chatgpt-plus-de-100-000-comptes-en-vente-sur-le-dark-web/

lundi 5 juin 2023

Draft & Goal: Un outil montréalais pour détecter l’IA pourrait contrer les « dérives de ChatGPT »

 

 

Draft & Goal: Un outil montréalais pour détecter l’IA pourrait contrer les « dérives de ChatGPT »

Nabil Tayeb a cofondé avec Vincent Terrasi l'entreprise montréalaise Draft & Goal.

https://detector.dng.ai/fr

Stéphanie Dupuis

Un peu de répit pour le corps enseignant : la jeune pousse montréalaise Draft & Goal vient de mettre en ligne un outil gratuit qui permettrait de détecter avec une fiabilité de 93 % si un texte a été généré ou non par un robot conversationnel à la ChatGPT.

Le fonctionnement est simple : on ouvre dans un fureteur la page web de l’outil de détection d’IA (Nouvelle fenêtre), on copie et colle dans une boîte un texte en anglais (une version en français est en préparation) d’au moins 200 caractères à tester, on appuie sur analyser, et le logiciel offre un pourcentage de chance que l’essai ait été rédigé par un être humain ou par une intelligence artificielle (IA).

Si l'on teste un contenu dont on connaît déjà la nature, on peut aussi indiquer au bas de l’écran si le résultat obtenu par l’entreprise est juste ou non.

« On a fait une première analyse mercredi, basée sur 2000 textes en anglais. Les résultats montrent une fiabilité à 93 %. »

— Une citation de  Nabil Tayeb, PDG de Draft & Goal

Pour la deuxième version sur laquelle nous travaillons, avec un algorithme amélioré, on estime que ce pourcentage sera supérieur, a indiqué à Radio-Canada le PDG de l’entreprise.

Agrandir l’image (Nouvelle fenêtre)

L'outil de détection de l'IA de Draft & Goal analyse les textes soumis afin de déterminer s'ils ont été rédigés par des êtres humains ou une machine.

Photo : Draft and Goal

Pour arriver à détecter avec justesse si un texte a été généré par un robot conversationnel, Draft & Goal utilise l’apprentissage machine.

Les modèles d’IA générative sont souvent probabilistes, c'est-à-dire que ce sont des modèles qui font que ce qui est écrit n’est pas totalement aléatoire, explique Nabil Tayeb.

Draft & Goal arrive ainsi à détecter des empreintes laissées par l’IA, notamment en regardant plusieurs éléments dans le style d'écriture.

Si l’outil est seulement offert en anglais pour le moment, une version française du service sera mise en ligne d’ici la fin du mois de janvier, selon Nabil Tayeb.

Il y a beaucoup plus de textes en anglais sur le web, donc le modèle de départ s'entraîne plus facilement et rapidement avec l’anglais qu'avec le français, justifie le PDG de Draft & Goal, qui envisage d’étendre le service à d’autres langues dans le futur.

Un concours de circonstances

L'entreprise Draft & Goal travaille elle-même depuis deux ans à créer un outil de génération de contenus automatisé. Elle souhaite aider les autres entreprises à être plus productives dans la rédaction d’articles de blogue, la publication de pages web statiques ou encore dans l’écriture de descriptions de produits, tout en maintenant une certaine intervention humaine.

En générant des textes, on avait besoin de savoir si ça allait être perçu comme un texte écrit par une intelligence artificielle, raconte Nabil Tayeb, PDG de Draft & Goal, précisant que le but n’est pas de tromper les lecteurs ou lectrices.

« On a donc créé un outil pour nous aider, et on s’est rendu compte rapidement qu’on était plutôt bons à détecter les contenus générés par l’IA. »

— Une citation de  Nabil Tayeb

L’équipe y a vu une occasion d’en faire profiter les autres, car les risques sont nombreux quant à la démocratisation de logiciels d’intelligence artificielle qui imitent de façon ultraréaliste l’écriture humaine, comme c'est le cas de ChatGPT d’OpenAI.

On voit l’IA comme un outil, une machine à écrire à améliorer, mais ça ne doit pas devenir le centre de la création en tant que tel, croit le PDG de la jeune pousse.

Plusieurs champs d’action

Les enseignants et enseignantes craignent par exemple que ces robots conversationnels s’infiltrent dans les dissertations de leurs élèves, tous niveaux confondus.

Les profs utilisent depuis des années des logiciels pour déceler le plagiat, mais ceux-ci sont conçus pour analyser les textes déjà publiés sur le web.

Comme l’IA génère du texte original, elle ne copie pas de texte à partir du web, précise-t-il.

Un outil comme celui de Draft & Goal pourrait aussi être utile dans des salles de presse afin de s’assurer de l’authenticité d’un communiqué de presse.

« [Une personne malintentionnée] pourrait envoyer des communiqués de presse complètement bidonnés sans que ce soit suspect, et ça pourrait être fait à grande échelle. »

— Une citation de  Nabil Tayeb

En phase de test

Pour le moment, l’outil de Draft & Goal est encore en phase de développement. Chaque requête permet d’améliorer sa propre intelligence artificielle.

L’entreprise souhaite garder le logiciel gratuit et accessible à tous et à toutes le plus longtemps possible. Elle compte tout de même offrir prochainement des formules payantes avec des fonctionnalités supplémentaires, qui pourraient prendre la forme, entre autres, d’une extension sur le navigateur Chrome.

Une nouvelle version du détecteur sera mise en ligne dans les prochains jours et permettra de cibler les passages plus précis d’un texte soupçonnés d’avoir été générés par l’intelligence artificielle.