Merci de nous avoir envoyé vos commentaires client.
Merci d’avoir soumis votre avis sur Amazon. Après
l’avoir étudié attentivement, nous avons déterminé que votre avis ne
peut être publié sur le site. Nous vous remercions pour votre temps et
vos commentaires, mais les avis doivent respecter les lignes directrices
suivantes :
Règles de la communauté Amazon
de
Marc le 18 mai 2023
grafigner
vraiment déçu d un remboursement datant de 29 avril 2023
et pas encore rembourser du vendeur ou d amazon en date de mai 2023,du
vendeur roe dolh Jewelry ,acheter pas la cibole
(normalement c'est 5 jours)
Quelques problèmes fréquents à garder en tête :
Vos commentaires doivent porter sur des
fonctionnalités précises du produit et sur votre expérience relative à
ce dernier. Les commentaires relatifs au vendeur ou à l’expédition sont à
soumettre sur le site https://www.amazon.ca/hz/feedback.
Nous n’autorisons pas la publication de contenu
injurieux ou obscène. Cette règle s’applique également aux produits pour
adultes.
Les publicités, les documents promotionnels ou les
publications répétées qui véhiculent toujours le même message sont
considérés comme du courriel indésirable.
Veuillez ne pas inclure d’adresse URL externe dans
Amazon ni de contenu à caractère personnel identifiable dans vos
commentaires.
Toute tentative de manipulation du contenu ou des
fonctionnalités destinés aux membres de la Communauté, incluant la
publication de contenu erroné, trompeur ou inauthentique est strictement
interdite.
NOTA:Si jamais vous accepter un produit de qualité presque neuf, usager ou un peu magané, faîtes attention car le robot Amazon(les algorithmes) ils vous en refileront d'autres aussi mauvais, et que même si c'est un marchand associer a Amazon(genre la bibliothèque de Kamouraska au Québec qui a vendu ou donné ses livres dans un autre exemple vrai, ses livres a un vendeur associer Amazon, nommé BookExellence, vous le vendent sans même les réparer convenablement,sinon quelques fois, on arrive a une entente du vendeur BookExcellence qui dédommagé pour 20$ le prix de votre achat,car il en reste seulement une copie genre lol ), vous devrez le déclarer a Amazon comme ci-dessus,sinon dans un site de plainte tierce ou un Blog Cibole,......................ici je peut le dire Shibollle de colaille de punaises d'Hotel ;-)
Ensuite vous aller voir le prix du livre neuf ,il se vend 163,71$ d'occasion et si vous le voulez neuf sur un site de librairie il se vend neuf: $ 5,95$ mais en format pdf ,faut vraiment se faire voler solide par le vendeur d'Amazon en version papier lol !
ChatGPT, Bloom, LLaMA… L'IA débarque dans les services publics
L'intelligence
artificielle fait son entrée dans la fonction publique ! 200 agents de
maisons France Service vont expérimenter l'utilisation d'IA génératives
afin d'apporter de meilleures réponses aux usagers. Le service public de
l'avenir ?
La sortie de ChatGPT
a créé un raz-de-marée sur Internet, mais aussi au sein des entreprises
de la tech. Chacune a commencé à intégrer des IA génératives à ses
services et à ses produits, se lançant dans une véritable course pour
montrer qui a la plus grosse. Mais après avoir envahi le secteur privé,
la voici qui débarque aussi dans le secteur public. En effet, le
Gouvernement a annoncé – bien discrètement à la vingtième page du document conclusif du septième comité intergouvernemental de la transformation publique paru le 9 mai – que l'utilisation d'IA génératives serait testée dans les services publics, comme l'a remarqué BFMTV. Il autorise ainsi le "lancement
d'une expérimentation d'outils d'intelligence artificielle pour
produire des réponses aux usagers plus complètes tout en pesant moins
sur les agents sur la plateforme 'Services Publics +' et dans plusieurs
France services" afin d'assurer la "qualité de service" et la "satisfaction des usagers", tout en pesant moins sur les agents de la fonction publique.
Cette expérimentation débutera en septembre auprès d'un échantillon
de 200 agents de maisons France services – des guichets de proximités
implantés dans tout le pays qui rassemblent différents services de
l'État, comme Pôle emploi, La Poste
et les impôts – et durera six mois – il ne s'agit donc pas d'une mise
en place définitive. Ils pourront utiliser ChatGPT, mais aussi Bloom, un
modèle international open source développé par trois Français, et
LLaMA, le modèle d'IA développé par Meta.
IA : une plus grande qualité de service et des agents soulagés
Concrètement, si l'on désire obtenir des informations – sur la marche
à suivre pour toucher son indemnité chômage par exemple –, l'agent
soumettra notre question à l'IA afin d'obtenir rapidement une réponse
plus claire ou plus complète que celle qu'il aurait donné en temps
normal. Il devra ensuite évaluer la pertinence de cette réponse pour
mieux la corriger derrière, et ainsi nous apporter la réponse la plus
adaptée possible. Pour éviter toute collecte de données de la part des
entreprises et toute fuite éventuelle, les agents ne devront poser que
des questions générales sans jamais renseigner d'informations
personnelles ou confidentielles. Tout sera supervisé par l'Agence
nationale de la sécurité des systèmes d'information (ANSSI) et la Commission nationale de l'informatique et des libertés (CNIL).
Le Gouvernement se veut rassurant, promettant que l'IA ne va pas
remplacer les agents, qui devront toujours vérifier et adapter les
réponses fournies. Une crainte légitime étant donné que le développement
stupéfiant de cette technologie s'annonce comme une véritable
révolution pour le monde du travail et risque de rendre certains métiers
obsolètes, en particulier dans le tertiaire (voir notre article).
Le Japon entame d'ailleurs une démarche similaire puisque le pays, pour
pallier la pénurie de main d'œuvre dans ses administrations,
expérimente elle aussi l'IA générative à la mairie de Yokosuka, au sud
de Tokyo, pendant une durée de quatre semaines. L'objectif est de
déterminer si cela permet aux agents de gagner du temps en résumant des
réunions ou en corrigeant des communications, et ainsi leur permettre de
se consacrer à d'autres tâches.
Cette nouvelle intervient alors que les gouvernements, y compris en
France, affichent une certaine défiance envers l'IA, notamment dans la
collecte des données, qui pourrait entrainer de l'ingérence de la part
de pays étrangers. La mairie et la métropole de Montpellier ont par
exemple reçu l'ordre, en mars dernier, de ne plus utiliser ChatGPT "par précaution" et "à titre conservatoire" , comme le rapportait le Midi Libre.
Dans la même optique, les services de streaming et les jeux mobiles ont
été officiellement interdits sur les smartphones professionnels des
fonctionnaires français (voir notre article). La CNIL a d'ailleurs mis en place fin janvier un service de l'intelligence artificielle (SIA) destiné à encadrer l'utilisation de cette technologie et à répondre aux problèmes qu'elle soulève.
Tandis
que Google et Microsoft se livrent une guerre féroce pour régner sur le
secteur de l'intelligence artificielle, Amazon travaille à améliorer
Alexa, son assistant intelligent, à l'aide de ses propres modèles de
langage.
La sortie de l'intelligence artificielle
conversationnelle ChatGPT en novembre 2022 a créé l'effervescence sur
Internet, mais aussi au sein des secteurs du numérique et de la
technologie. La guerre sans merci engagée entre Microsoft
et Google s'est déjà étendue à d'autres entreprises, Opera et Baidu –
le "Google chinois" – ayant déjà entamé les hostilités – sans compter
les services comme Adobe
et Canva. Même Elon Musk, après avoir clamé haut et fort son inquiétude
à propos de cette technologie, a fini par s'y mettre (voir notre article)
! Par conséquent, certains craignaient qu'Amazon ne prenne du retard
dans ce domaine. Depuis, le géant du e-commerce a commencé à déployer de
façon progressive Bedrock, un ensemble d'IA génératives censé permettre
aux entreprises et aux professionnels de développer des services et des
outils à moindre coût (voir notre article).
Mais il ne compte pas s'arrêter là et attend miser sur Alexa pour
rivaliser avec les autres intelligences artificielles génératives, comme
le révèle Business Insider. De quoi rebooster la popularité de l'assistant vocal, alors que 100 millions de ses enceintes connectées ont adopté les protocoles Matter et Thread, deux nouveaux standards en domotique.
Amazon : une Alexa bientôt dopée à l'IA générative
Dans une interview accordée au Financial Times en février 2023, Andy Jassy, le PDG d'Amazon, assurait ne pas être inquiet à ce sujet et se montrait même plutôt confiant. "Je pense que c'est excitant, ce qui est possible avec l'IA générative", déclare-t-il avant d'ajouter que "la
plupart des grandes entreprises profondément techniques, comme la
nôtre, travaillent depuis longtemps sur ces très grands modèles d'IA
générative", sans toutefois donner plus de détails. L'entreprise
envisage de travailler davantage avec d'autres entreprises, plus
petites, dans le domaine de l'intelligence artificielle, comme c'est
déjà le cas avec Stability AI, un concurrent d'Open AI.
Il faut dire qu'Amazon dispose déjà depuis plusieurs années de
technologies d'intelligence artificielle et d'apprentissage automatique,
comme son assistant vocal Alexa et CodeWhisperer, un assistant en code
basé sur l'IA. Alexa est présente dans de nombreux foyers à travers des
appareils qui intègrent ses fonctions comme les enceintes Echo. Certains
utilisateurs y ont recours pour des tâches pratiques, telles que lancer
de la musique, régler l'éclairage et les alarmes ou encore gérer sa
consommation énergétique, mais d'autres aiment utiliser l'assistant à
des fins plus divertissantes, comme en lui demandant de partager des
blagues ou de raconter des histoires.
Mais aussi merveilleuse soit-elle, Alexa ne peut pas composer
elle-même de poèmes ou écrire des codes, contrairement à ChatGPT – même
si le résultat n'est pas toujours au rendez-vous. Elle a donc du retard
sur ce point-là. Amazon travaille actuellement à la rendre plus
"conversationnelle", étant donné qu'elle ne fait que répondre aux
questions de l'utilisateur. "Nous sommes engagés comme jamais dans Echo et Alexa et nous continuerons à investir fortement en eux", expliquait en novembre 2022 David Limp, le vice-président d'Amazon, à Business Insider. L'assistant vocal possède toutefois un gros avantage sur ChatGPT : sa capacité à offrir des services personnalisés.
Amazon Alexa : une IA plus personnalisée ?
En effet, il se souvient de choses comme la musique préférée de
l'utilisateur, son type de livre favori ou encore les nouvelles
susceptibles de l'intéresser le plus. Il peut également se souvenir des
échéances importantes et est parfaitement à l'aise avec les informations
en temps réel. Des atouts qui, couplés à une IA générative, pourraient
produire des résultats des plus intéressants. Selon les documents
internes consultés par Business Insider, Amazon travaillerait sur ses
propres modèles de langage depuis plusieurs années. Parmi eux, LLM
(Large Language Model) Alexa Teacher Model, déjà en partie exploité,
mais aussi "de nouveaux modèles beaucoup plus vastes, plus généralisés et plus performants" visant à rendre Alexa "plus proactive et conversationnelle", selon un porte-parole.
Pour le moment, Amazon se concentre sur les Alexa LLM Entertainment
Use Cases, c'est-à-dire les fonctions liées au divertissement. Parmi les
différentes utilisations possibles, l'entreprise mentionne qu'Alexa
serait capable d'inventer une histoire pour la raconter à un enfant.
Grâce à la caméra intégrée dans certaines enceintes Echo, comme l'Echo
Show, l'assistant vocal adapterait le récit en fonction de
l'environnement, pour inclure la peluche que le jeune utilisateur tient
dans les mains par exemple. Il pourrait également, via son écran,
projeter des illustrations que l'IA aura générées spécialement pour le
récit. Alexa pourrait également identifier une série à partir
d'informations parcellaires fournies par l'interlocuteur, ou tout du
moins effectuer des recommandations pertinentes, et proposer à
l'utilisateur de s'abonner à la plateforme de streaming diffusant le
programme. D'ailleurs, Amazon prévoit déjà des partenariats stratégiques
avec certaines entreprises comme Disney, Lego et HBO, ce qui
contribuerait à augmenter les revenus générés par Alexa.
L'assistant vocal serait également capable de faciliter la recherche
et la lecture d'actualités, en présentant un résumé personnalisé des
faits importants et en aidant les utilisateurs à approfondir des sujets
en récupérant des nouvelles et des informations connexes. Dans sa note
interne, Amazon estime que l'utilisateur doit avoir l'impression "qu'Alexa pense plutôt qu'elle ne récupère des informations dans une base de données".
Espérons toutefois que l'entreprise ne précipitera pas les choses,
car ce genre d'intelligence artificielle est aussi révolutionnaire que
destructeur. En effet, les IA ont tendance à "halluciner", c'est-à-dire
inventer et affirmer avec aplomb de fausses informations. Bard, celle de
Google, avait d'ailleurs fait une erreur pendant sa première
présentation, ce qui avait fait a fait perdre pas moins de 100 milliards
de dollars en bourse à l'entreprise (voir notre article).
Cela peut avoir des conséquences désastreuses, en particulier avec les
actions quotidiennes qu'effectuent les assistants vocaux.
Activons HTTPS (SSL/TLS) pour les sites Web, gratuitement
Let’s Encrypt est une
autorité de certification (AC ou CA pour Certificate Authority en
anglais) gratuite, automatisée et ouverte, exploitée pour le bénéfice du
public. C’est un service fourni par Internet Security Research Group (ISRG).
Nous donnons aux gens les certificats numériques dont ils ont besoin
pour activer HTTPS (SSL/TLS) pour les sites Web, gratuitement, de la
manière la plus intuitive possible. Nous faisons cela parce que nous
voulons créer un Web plus sûr et respectueux de la vie privée.
Pour en savoir plus sur notre dernière année en revue, téléchargez notre rapport annuel.
Les principes clés de Let’s Encrypt sont les suivants :
Gratuit: Toute personne possédant un nom de domaine peut utiliser Let’s Encrypt pour obtenir un certificat reconnu, à coût nul.
Automatique: Un logiciel fonctionnant sur un
serveur web peut interagir avec Let’s Encrypt pour obtenir sans peine un
certificat, le configurer en toute sécurité pour son utilisation et
s’occuper automatiquement de son renouvellement.
Securisé: Let’s Encrypt servira de plate-forme pour
faire progresser les meilleures pratiques de la sécurité TLS, tant du
côté de l’autorité de certification que pour aider les responsables de
site Web à sécuriser correctement leurs serveurs.
Transparent: Tous les certificats délivrés ou révoqués seront enregistrés publiquement et disponibles pour inspection par quiconque.
Ouvert: Le protocole de délivrance et de renouvellement automatique est publié comme une norme ouverte que d’autres pourront adopter.
Coopératif: Tout comme les protocoles Internet
sous-jacents eux-mêmes, Let’s Encrypt est un effort conjoint au profit
de la communauté, qui échappe au contrôle d’une seule organisation.
Mon Carnet - Et si ChatGPT changeait notre point de vue à notre insu
Dans
sa chronique de samedi dernier, le chroniqueur technologie du Wall
Street Journal, Christopher Mims, avait un texte fort intéressant qui
portait sur la capacité des intelligences artificielles comme ChatGPT ou
Bard, de faire changer notre point de vue sans que nous nous en
rendions compte. Je vous explique.
Les assistants d'intelligence artificielle (IA) comme ChatGPT d’Open
AI, Chat Bing de Microsoft ou Bard de Google peuvent changer notre façon
de penser sans que nous nous en rendions compte. Des études ont montré
que lorsqu'un individu utilise une IA pour écrire un essai, l'algorithme
peut l'inciter à prendre parti pour ou contre une opinion donnée en
fonction de son biais. Cette expérience peut influencer les opinions des
sujets sur le sujet traité. Ce phénomène appelé "persuasion latente"
est préoccupant, car l'IA aurait ainsi la possibilité d’altérer
subtilement et imprévisiblement nos opinions à mesure que nous en
devenons plus dépendants.
Pour écouter Radio Mon Carnet : www.RadioMonCarnet.com
Les
chercheurs de l’Université Cornell aux États-Unis qui ont découvert ce
phénomène estiment que la meilleure défense contre cette nouvelle forme
d'influence psychologique est de sensibiliser davantage les gens. À long
terme, d'autres défenses, telles que la transparence imposée par les
régulateurs sur le fonctionnement des algorithmes d'IA et les biais
humains qu'ils imitent, pourraient être utiles.
En fait, ça
pourrait même conduire à un avenir où les gens choisissent les IA qu'ils
utilisent - au travail, à la maison, au bureau et dans l'éducation de
leurs enfants - en fonction des valeurs humaines exprimées dans les
réponses fournies par l'IA. Certaines IA pourraient également avoir
différentes "personnalités", y compris des convictions politiques.
Déjà,
des outils permettent aux utilisateurs d'interagir avec l'IA pour
rédiger des courriers électroniques, du matériel marketing, de la
publicité, des présentations, des feuilles de calcul, etc. Et les
Microsoft, Google et de dizaines d’autres entreprises travaillent fort
dans le domaine. Encore la semaine dernière, Google a annoncé que son
dernier grand modèle de langage, PaLM 2, sera utilisé dans 25 produits
de l'entreprise.
Cependant, l'utilisation de l'IA pour influencer
les opinions soulève des inquiétudes quant aux possibles utilisations
négatives de cette technologie, notamment dans les gouvernements
autocratiques, les entreprises manipulatrices, les groupes de lobbys ou
les cybercriminels.
Les entreprises technologiques, telles que
Microsoft, Google et OpenAI, ont promis de travailler sur une IA
responsable, qui examine les dommages potentiels de l'IA et les aborde.
OpenAI a publié une partie de ses directives sur la manière dont ses
systèmes doivent traiter les sujets politiques et culturels. Chez
Google, l’incubateur Jigsaw, une unité qui conseille et construit des
outils pour les grands modèles de langage, est également impliqué dans
l'étude des effets de l'interaction avec l'IA sur les individus.
Chose
certaine, l'IA est un outil puissant qui peut aider l'humanité à
résoudre de nombreux problèmes, mais elle doit être utilisée de manière
responsable pour éviter toute influence indue sur les opinions des
individus. Les entreprises technologiques travaillent pour produire une
IA responsable, examinant les dommages potentiels et publiant des
directives pour le traitement des sujets politiques et culturels. Il est
important de comprendre que les IA ne sont pas des clones
algorithmiques des opinions et des valeurs de leurs créateurs, mais
qu'elles reflètent les opinions intégrées lors de leur entraînement.
Il
est difficile de supprimer complètement les opinions et la subjectivité
des IA sans compromettre leur utilité. Les modèles de langage utilisés
par les IA sont entraînés sur des données provenant de diverses sources,
ce qui entraîne inévitablement l'incorporation des opinions et des
biais contenus dans ces textes.
L'évaluation des opinions des IA
sera une tâche continue à mesure que les modèles seront mis à jour et de
nouveau seront développés. Les utilisateurs pourraient choisir les IA
en fonction de leurs propres valeurs et ainsi éviter toute influence
indésirable.
En les utilisant, en sachant que d’autres les
utilisent, gardons en tête que les agents conversationnels peuvent
influencer subtilement nos opinions sans que nous en soyons conscients.
Il est essentiel de sensibiliser davantage les utilisateurs à cette
influence et de favoriser la transparence dans le fonctionnement des
algorithmes d'IA.
Pour consulter la chronique de Christopher Mims, dans le Wall Street Journal, c’est par ici.
Et pour la recherche sur le sujet, c’est par ici pour une version PDF.