Powered By Blogger

Rechercher sur ce blogue

Aucun message portant le libellé Cloud computing. Afficher tous les messages
Aucun message portant le libellé Cloud computing. Afficher tous les messages

mercredi 30 mars 2011

Informatique dématérialisée: Amazon lance un service de stockage de vidéos ou de musique

Informatique dématérialisée - Amazon lance un service de stockage de vidéos ou de musique
Amazone prend de l'avance sur Apple et Google, qui travaillent également sur des offres d'informatique dématérialisée. 
© AFP/Karen Bleier

NEW YORK - Le distributeur en ligne américain Amazon a dévoilé mardi un service de stockage de vidéos ou de musique en ligne partiellement gratuit pour les particuliers et accessible depuis plusieurs appareils numériques.
Avec Cloud Drive et Cloud Player, les utilisateurs peuvent télécharger de la musique, des photos, des vidéos et toutes sortes de documents sur les serveurs d'Amazon et accéder à ces fichiers via un ordinateur, un téléphone intelligent ou une tablette informatique.
L'utilisateur de tels services crée ainsi des collections en ligne de musique ou de vidéos identiques à celles qu'il peut stocker sur son disque dur et auxquelles il peut accéder depuis n'importe quel autre ordinateur ou depuis un téléphone intelligent ou une tablette.
Amazon offre 5 gigabytes de stockage gratuit à ses utilisateurs. Pour augmenter l'espace de stockage, il faut acheter des albums sous forme de MP3 sur le site ou acheter directement plus d'espace.
Pour Bill Carr, un responsable d'Amazon chargé de la musique et des films, cette innovation constitue un «bond en avant dans l'expérience numérique» qui «élimine le besoin de logiciels mis à jour, de cartes mémoires ou de câbles pour écouter et gérer sa musique».
En dévoilant ce nouveau produit, le magasin en ligne prend de l'avance sur Apple et Google, qui travaillent également sur des offres similaires d'informatique dématérialisée(«cloud computing»).

REF.:

samedi 19 mars 2011

intel/McAfee , au-dela du Cloud ?

Intel avait annoncé en août 2009 qu'elle ferait l'acquisition de McAfee pour un montant de 7,68 milliards de dollars, un geste qui a surpris de nombreux analystes en raison de l'absence apparente de synergie. Mais le fondeur a déclaré qu'il voulait apporter des capacités de sécurité pour un certain nombre de ses produits, y compris les puces Atom de faible puissance, qui sont utilisés dans les ordinateurs portables et bientôt déclinées sur les smartphones et les tablettes. L'acquisition de McAfee a été finalisée il y a deux semaines. Intel a défini la sécurité comme le troisième pilier de son offre, en plus de la puissance et de la connectivité. La société a déjà intégré quelques fonctionnalités dans ses puces pour renforcer la sécurité des PC, comme VT qui est une technologie basée sur le matériel pour sécuriser et gérer les environnements virtualisés. Le fondeur de Santa Clara va progressivement faire « évoluer » les capacités du silicium pour que des logiciels et des services spécialisés apportent plus de protection à une large variété d'appareils, a annoncé Renée James.


Intel pourrait utiliser un modèle d'abonnement cloud pour générer des revenus autour de la sécurité, a déclaré Dave DeWalt, président de McAfee, qui fait maintenant partie du fondeur. Une gestion à distance de la plateforme pourrait devenir un point de référence sur la sécurité non seulement pour les terminaux mobiles, mais aussi les imprimantes, les distributeurs automatiques de billets, les points de vente ou tous périphériques connectés au sein d'un réseau «intelligent», affirme le responsable.  Il ajoute que les malwares sont généralement stockés dans le logiciel; car il est difficile pour les pirates informatiques d'aller sous le niveau de l'OS, l'aspect sécurité doit donc être intégrée à l'intérieur du matériel. Il existe aujourd'hui 48 millions types de logiciels malveillants dans la nature. Renée James  s'interroge lui pour savoir « si les gens paieraient pour un tel matériel » et de se rassurer « nous l'espérons ». Eric Domage, consultant sécurité chez IDC, qualifie ce rachat de très belle opportunité. « Intel vient de s'offrir des chromosomes de sécurité qu'il pourra directement injecter dans son ADN. La baisse du cours de l'action lui donnait la possibilité de s'offrir McAfee à un prix très raisonnable. » Pour lui, Intel chercherait, par exemple, à renforcer son image en termes de sécurité, notamment face à son concurrent AMD. Mais il va un peu plus loin : « On peut tout à fait imaginer qu'Intel tente à moyen terme de coiffer au poteau un acteur comme Blackberry en servant une téléphonie mobile sécurisée de l'intérieur. » McAfee a en effet, ces cinq dernières années, fait l'acquisition de plusieurs sociétés spécialisées dans la sécurisation mobile, telles que Safeboot, éditeur de solutions de chiffrement, mais aussi Wireless Security Corp et Trust Digital.


La plupart des smartphones et des tablettes utilisent des processeurs ARM et plusieurs OS comme Android ou iOS. Intel continue à balbutier sur ce marché et la domination d'ARM pourrait être un obstacle. Renée James a déclaré que, d'un point de vue logiciel Intel restera une société multi-plateforme. La fragmentation OS n'est pas un problème pour l'entreprise car les puces x86 peuvent exécuter la plupart des systèmes d'exploitation mobiles [NDLR Windows et Linux seulement pour l'instant].


Au-dela du Cloud ?

« Nous savons depuis des années qu’un marché noir existe sur Internet et que les spécialistes du cybercrime sont en relation, commente Bernard Ourghanlian, Directeur technique et Sécurité Microsoft France. L’étude menée dans le rapport SIR montre que, dans beaucoup de cas, certaines catégories de logiciels malveillants sont utilisées avec des botnets spécifiques pour propager différentes formes de cybercrime. »Si les botnets ne cessent de progresser, le nombre des nouvelles vulnérabilité tend à décroitre, selon le rapport SIR, qui cite la National Vulnerability Database du gouvernement américain. Un recul de 7,3 % au cours du premier semestre 2010, certes sensible, mais qui paraît bien faible. D’autant qu’il faut rappeler que si le volume des attaques diminue, elles sont de plus en plus ciblées.
Intel complète ces conseils par l’usage de sa technologie Intel vPro de pilotage du PC à distance, qui permet par exemple d’assurer les mises à jour des postes de travail et de leurs outils de sécurité en dehors des horaires de travail, donc sans intervention de l’utilisateur et sans risque de saturer le réseau. Ainsi que par sa nouvelle technologie antivol Intel AT (anti theft) destinée aux employés nomades de l’entreprise, qui sont toujours plus nombreux. Intel AT (Anti Theft). Elle se traduit par l’association d’un ordinateur portable et d’une verrouillage, ainsi que de chiffrement.
Et surtout ,le fait que dans les nouvelles sur internet,McAfee est a l'avant plan ,car intel avec sa Technologie: Technology Enabling Platform (TEP) qui dès 2006 implémenté dans certains BIOS incluaient déja le technologie TXT d'intel . Par la suite , la technologie vPro datant de 2007(qui est une technologie parallèle au TXT) et bien sûre le  VT-d et TXT  ,(datant de 2008-2009,qui préserve l'intégrité des Data et des périphériques ,comme la protection contre les Keyloggers,....)pouvaient  identifier les machines infectées ,et les hackers plus facilement !
La condition est d'avoir des processeurs intel (donc un Mac de Apple,un PC clône avec windows,les nouvelles cartes mères avec TPM compatible intel TXT,(le rôle du  TPM est d'entreposer l'information crypté,et communique avec le cpu TXT d'intel sans être exécuté sur la plateforme logiciel du OS de Windows)les processeurs intel contenant la techno TXT,et bientôt les smarthphones etc....)donc presque tout les botnets sont identifiables ,c'est pour cela que Microsoft en a déja détruits deux déja,dont Rustock !Pourquoi ,la technologie TXT est supérieur ? C'est parce que les composants sont matériels et non logiciels(contrairement aux DRM et le WGA de Microsoft genuine qui existent depuis 2006) inscrits avec informations cryptés sur le processeur intel.Alors le risque d'une mauvaise identification de la machine est presque nul,comparé a une Mac adresse de carte réseau qui est dans la fente PCI de la carte maîtresse,ou du module TPM qui est ajouté aussi sur la carte maîtresse,et qui peuvent donc être enlevés facilement,mais pas le processeur de la carte maîtresse qui lui est vital pour le fonctionnement.Ces technologies protégeant les data de l'usager,empêche les hackers de détruire les machines infectées et élimine tout droit de regarde de la communauté OpenSource. Et donc ,repérable en tout temps par intel ou McAfee,sauf qu'il y aura toujours un délais d'avoir un "PC zombie" pour un certain temps,le temps que les correctifs ou patchs soient distribuées par Microsoft ou tout autres distributeurs de logiciels. Le botnet Rustock a vécu 5 ans,et est né en 2006,ça vous donne une idée ! Les technologies TXT,vPro,TPM,ont créées des Pc Zombies,mais les botnets seront de plus en plus détectés et démantelés de plus en plus rapidement.
Intel estime avoir plus de 10 billion d'appareils fonctionnant avec ces technologies, d'ici 2015.

Si ces technologies font en sorte que votre PC est sous contrôle de Microsoft et de intel(pour droits d'auteur),c'est un peu la même chose ,en P2P,lorsque le logiciel de musique "KaZaa" jadis,était conçu de telle sorte que le partenaire de Kazaa pouvait louer l'utilisation de votre ordinateur(bande passante) à ses clients.Et encore aujourd'hui,les sites web de partage ainsi que les liens uploadés(a la mode genre mégaloUpload machin truc ) de partage font la même chose a votre insus!

REF.:
pro.01net.com,

intel/McAfee dans les nuages

Intel compte intégrer les technologies de McAfee directement dans les puces embarqués dans les terminaux mobiles afin de pousser des services de sécurité orientés cloud.
Deux semaines après la finalisation de l’acquisition de McAfee, Intel commence à délier sa langue pour préciser la stratégie qui a conduit à ce rapprochement important (une opération de croissance externe à 7,7 milliards de dollars).
Renee James, en qualité de senior Vice-Président senior et Directeur Général en charge de la division « Software and Services », et Dave DeWalt, qui a pris les fonctions de Président de la nouvelle filiale d’Intel, ont abordé la manière dont les produits et systèmes McAfee vont protéger les terminaux mobiles et les applications embarquées destinées à contrer les cyber-attaques.
« Les malwares prennent une dimension hallucinante », constate Dave DeWalt. « Je n’ai jamais vu cela auparavant. Et, pour couronner le tout, le nombre de terminaux est en train d’exploser. »
Intel veut développer des fonctionnalités de gestion de sécurité directement dans le hardware qui permettrait aux terminaux mobiles et autres appareils de type  « endpoints » (grosso modo, tous les terminaux d’accès au Web du PC fixe et PC portable en passant par le smartphone) de communiquer en temps réel. Tout en exploitant le potentiel du cloud.
Selon Renee James, cette combinaison fournira une mise à jour sécurité réactualisée en permanence : détection et mise en quarantaine des malwares, authentification des utilisateurs et vérification des adresses IP et sites Web.
Intel aurait pu acheter une firme de sécurité IT de taille plus modeste à un coût d’acquisition moins onéreux.
Mais la firme de Paul Otellini a considéré qu’elle avait besoin rapidement de logiciels et d’une plate-forme complètes de services dans ce domaine.
Renee James compte sur McAfee qui exploite un service cloud de sécurité qui fonctionne depuis cinq ans, parallèlement à l’exploitation de ses logiciels.

McAfee va se rapprocher de Wind River, une autre filiale d’Intel
La mission de McAfee consistera à étendre les fonctions de sécurité sur les terminaux mobiles ou nomades (PC portables, smartphones, tablettes…). Tout en facilitant la configuration des paramètres dédiés par l’utilisateur final.
Il ne fait aucun doute à Renee James qu’Intel est capable de développer des systèmes pour les imprimantes, les télévisions, et les automobiles tout en y intégrant la dimension de la sécurité.
McAfee va entamer une collaboration étroite avec Wind River, une autre filiale d’Intel, qui développe des logiciels embarqués et mobiles (plates-formes Asynchronous Transfert Mode ou ATM, passerelles réseaux…), selon Dave DeWalt.
Ainsi, une version McAfee pour Wind River devrait être dévoilée d’ici fin mars. « Nous sommes en mesure d’intégrer la sécurité directement dans l’OS en liaison directe avec les fabricants », assure-t-il.
C’est le principe de la synergie: fournir davantage de fonctions sécurité McAfee dans les futures puces Intel, tout en exploitant leur performance pour accélérer la vitesse de traitement.
Au lieu d’installer une couche de sécurité au-dessus de l’OS, l’objectif est de la placer plus près.
Intel exploite déjà des technologies de virtualisation dans ce sens. « Plus vous orientez la sécurité vers le noyau, plus vous obtenez de visibilité pour l’architecture », considère Dave DeWalt .
En étendant le framework McAfee’s ePolicy Orchestrator, les entreprises pourront gérer à distance les ordinateurs portables et autres terminaux « endpoint » avec les technologies Intel vPro : droit d’accès au terminal, chiffrement, déchiffrement, patches d’application…
Positionné historiquement comme un fournisseur d’outils anti-virus, McAfee s’est étendu à d’autres solutions de sécurité IT : pares-feux, solutions de prévention d’intrusion, sécurité sur les terminaux mobiles…
Intel plus tôt cette année a fait l'acquisition de Nordic Edge, une entreprise de sécurité suédoise connue pour ses produits de gestion de sécurité et de renseignement sur les menaces.

Un modèle d'abonnement cloud

Intel pourrait utiliser un modèle d'abonnement cloud pour générer des revenus autour de la sécurité, a déclaré Dave DeWalt, président de McAfee, qui fait maintenant partie du fondeur. Une gestion à distance de la plateforme pourrait devenir un point de référence sur la sécurité non seulement pour les terminaux mobiles, mais aussi les imprimantes, les distributeurs automatiques de billets, les points de vente ou tous périphériques connectés au sein d'un réseau «intelligent», affirme le responsable.  Il ajoute que les malwares sont généralement stockés dans le logiciel; car il est difficile pour les pirates informatiques d'aller sous le niveau de l'OS, l'aspect sécurité doit donc être intégrée à l'intérieur du matériel. Il existe aujourd'hui 48 millions types de logiciels malveillants dans la nature. Renée James  s'interroge lui pour savoir « si les gens paieraient pour un tel matériel » et de se rassurer « nous l'espérons ».

La plupart des smartphones et des tablettes utilisent des processeurs ARM et plusieurs OS comme Android ou iOS. Intel continue à balbutier sur ce marché et la domination d'ARM pourrait être un obstacle. Renée James a déclaré que, d'un point de vue logiciel Intel restera une société multi-plateforme. La fragmentation OS n'est pas un problème pour l'entreprise car les puces x86 peuvent exécuter la plupart des systèmes d'exploitation mobiles [NDLR Windows et Linux seulement pour l'instant].





REF.:

samedi 29 janvier 2011

La «cloud music» (littérallement «musique dans un nuage») permet de stocker et écouter en streaming votre musique

Bibliothèque musicale - «Cloud music»: une tendance aux retombées économiques incertaines
La «cloud music» (littérallement «musique dans un nuage») permet de stocker la musique sur un serveur internet et de l'écouter en streaming quel que soit le support.
© AFP

Permettre à l'auditeur d'écouter sa musique quand et où il le souhaite quel que soit le support est le nouvel eldorado de la filière musicale, qui multiplie les partenariats à cet effet avec l'industrie des télécoms, sans être encore sûre des retombées économiques.

Entre chaînes-hifi, ordinateurs, autoradios, baladeurs numériques, téléphones intelligents, consoles de jeu, lecteurs DVD, tablettes numériques... les moyens d'écouter de la musique se sont multipliés au cours des dernières décennies.

À LIRE ÉGALEMENT:

Pandora, la radio internet sur mesure

Selon les chiffres de la Fédération internationale de l'industrie phonographique (IFPI), 79% des gens écoutent de la musique dans leur salon, 76% dans leur voiture, 46% sur leur ordinateur, 39% sur leur baladeur et 20% sur leur téléphone portable.

Problème: les moyens de faire le lien entre ses différents supports sont encore peu nombreux. S'il veut pouvoir écouter sa musique ailleurs que sur son ordinateur, l'amateur des Beatles ou de Lady Gaga doit encore transférer manuellement les morceaux sur sa chaîne-hifi ou son baladeur numérique.

Cloud music

La «cloud music» (littérallement «musique dans un nuage») permet de stocker la musique sur un serveur internet et de l'écouter en streaming quel que soit le support. L'utilisation est double.

Certaines sociétés proposent aux particuliers d'y stocker leur bibliothèque musicale. Des acteurs de l'industrie musicale s'allient à des opérateurs télécoms ou des équipementiers pour proposer l'accès à de très larges catalogues via des abonnements.

Au Midem, la grand-messe annuelle de l'industrie musicale qui se tient jusqu'à mercredi à Cannes dans le sud-est de la France, le géant japonais Sony a annoncé le lancement d'un service de ce type en France, Allemagne, Espagne et Italie. Déjà disponible au Royaume-Uni et aux États-Unis, il permet d'avoir accès à des radios personnalisables sur toute une gamme de produits Sony, grâce à un abonnement.

En France, le service de streaming Deezer s'est associé avec Orange. Principal intérêt: l'abonné peut accéder au site et aux listes de lecture qu'il y a créés depuis son téléphone portable et hors connexion internet.

Alors que jusque là l'offre payante de Deezer avait eu du mal à décoller, le service a séduit 500 000 clients en moins de six mois, bien au delà de l'objectif de 200 000 initialement fixé.

Aux États-Unis, le site de streaming Pandora s'est, lui, allié avec les constructeurs automobiles Mercedes-Benz et Ford pour que son service soit intégré dans leurs nouveaux modèles.

Pour le secteur, la question est de savoir si ces services vont générer de nouveaux revenus, alors que les modèles économiques de l'ère numérique sont encore vacillants.

Certains observateurs y voient même un nouveau danger pour l'industrie du disque, la cloud music permettant aussi bien de stocker du matériel légal qu'illégal.

À Cannes, l'Américain mSpot, qui propose aux particuliers ce type de stockage, a ainsi reconnu n'essayer que depuis très récemment de passer des accords avec les majors du disque.


REF.:

mercredi 21 avril 2010

La musique dite «en nuage»

La musique diffusée en continu fera oublier le CD

Le moment où les consommateurs n'auront plus jamais besoin de posséder de la musique pour en écouter à volonté pourrait arriver plus tôt qu'on ne le croyait.

On pourra alors dire adieu aux piles de CD et au téléchargement de musique sur des ordinateurs ou des appareils mobiles. Toute la musique sera alors disponible en continu, en tout temps, pour le prix d'un abonnement.

Les services rendant possible un tel scénario n'obtiennent pas encore une grande popularité et peu d'entre eux sont disponibles au Canada. Mais une baisse de prix et les avancées technologiques ont commencé à faire accepter l'idée de la musique «en nuage» par le grand public dans certaines parties du monde.

La musique dite «en nuage» est gardée sur des serveurs et est écoutée en continu («streaming») par l'utilisateur sur son ordinateur ou un appareil mobile.

Le service suédois Spotify a déjà pris d'assaut certaines parties de l'Europe, et des Nord-Américains attendent avec impatience son lancement de leur côté de l'Atlantique.

Aux États-Unis, Rhapsody International et Thumbplay offrent maintenant la possibilité de choisir n'importe quel album ou morceau et de le faire jouer instantanément sur un appareil mobile connecté à Internet par réseau cellulaire. Ces services coûtent 10$US par mois.

Justin Darcy, un directeur des ventes de 32 ans établi à San Francisco, affirme qu'il consomme tellement de musique qu'il devrait débourser 10 000$ par année s'il n'avait pas un abonnement à Rhapsody.

Compte tenu des avantages évidents liés à la possibilité d'écouter des millions de chansons comme si elles se trouvaient dans l'ordinateur, on peut se demander pourquoi de tels services ne sont pas plus populaires.

Pour les Canadiens, des problèmes de licences ont compliqué le lancement de services au pays, bien qu'il en existe quelques-uns offrant une sélection limitée.

Aux Etats-Unis, la faible popularité de ces services s'explique surtout par un faible effort de marketing et par le fait que les gens sont habitués à se procurer des CD ou à télécharger leur musique sur iTunes. Par ailleurs, des gens qui dépensent moins de 120$ par année en musique ne verront pas le service d'abonnement comme étant une bonne affaire.

Les fournisseurs de musique espèrent attirer plus de consommateurs en rendant les services plus conviviaux, profitant de la plus grande robustesse des réseaux cellulaires pour diffuser la musique. Sans compter qu'en général, les consommateurs sont de plus en plus à l'aise avec l'utilisation de services basés sur des fichiers accessibles à distance, un concept baptisé «informatique en nuage».




vendredi 30 octobre 2009

Après le FLQ,le FLD...............front de libération des données


"Rendez-nous nos données !". Tel pourrait être le crédo du Front de Libération des Données, un projet dirigé par une équipe d'ingénieurs de Google. Derrière un titre pour le moins révolutionnaire, l'objectif de l'entreprise américaine est de faciliter le rapatriement et l'envoi de données avec un service Google. Ainsi, pour prendre l'exemple de Gmail, le "Data Liberation Front" devrait permettre à un utilisateur de transférer la totalité de son compte vers un autre compte Gmail ou vers une solution concurrente. Et tout cela gratuitement.

"Nous sommes une petite équipe d'ingénieurs chez Google qui souhaite rendre plus facile le transfert des données personnelles de nos utilisateurs dans et en-dehors des services de Google, en développant des fonctions d'import et d'export simples". À terme, tous les services Google devraient être concernés par le Front de Libération des Données, afin que "les utilisateurs aient toujours le choix".

"Les utilisateurs sont les propriétaires des données qu'ils stockent dans n'importe quel service Google. Le but de notre équipe est de donner aux utilisateurs un plus grand contrôle en rendant plus simple le déplacement de données". Toutefois, il convient de noter que la manipulation des données vers un autre service ou en local n'efface pas pour autant les informations présentes sur un serveur Google. La suppression se fait en dehors de ce projet.

L'entreprise américaine devrait fournir dans les jours qui suivent, et de façon régulière, des guides et des modes d'emploi pour importer et exporter facilement des données. Pour l'heure, une vingtaine de produits Google disposent déjà d'informations sur le sujet. Citons AdWords, Analytics,Gmail, Maps, Picasa ou encore YouTube.



Le Cloud computing suscite de nombreuses craintes, aussi bien des particuliers que des entreprises. Les dangers du modèle, quant à la maîtrise de nos données hébergées dans le nuage, commencent à rencontrer un certain écho. Google a besoin de rassurer sur ce point, pour convaincre les utilisateurs de leur confier leurs données. Et comme souvent, don't be evil oblige, il répond en se plaçant sur le plan de l'ouverture, via un Front de Libération des données.

La firme a constitué une équipe autour de Brian Fitzpatrick chargée d'améliorer les fonctionnalités d'import-exports de ses différents produits, et vient d'ouvrir un site, The Data Liberation Front[1] pour centraliser les informations sur le sujet. Le but est de permettre aux utilisateurs de récupérer leurs données pour pouvoir s'ils le désirent changer de fournisseur. Cela n'a rien de suicidaire. Si hier, le modèle était à l'assujettissement des utilisateurs entre autre via des formats propriétaires et fermés - certains ont bâti un empire là dessus - le futur est à l'ouverture et à ceux qui l'auront compris. Et savoir qu'on peut partir est souvent suffisant pour convaincre de rester.

Le site est donc en ligne et propose de courtes documentations sur les méthodes d'export, mais aussi d'import, d'une vingtaine de services maison (Blogger, Calendar, Gmail, YouTube...) Il y a encore quelques couacs, par exemple la page concernant YouTube indique qu'on peut télécharger ses propres vidéos en MP4 depuis l'interface d'administration, mais la documentation du service en lien précise que cette fonctionnalité est limitée à 2 vidéos par heure.

Ce premier pas, quelles qu'en soient les motivations, est louable, car non seulement il va dans le sens d'une plus grande ouverture, mais il va obliger les autres acteurs à s'aligner. Et en offrant des cas concrets, il soulève de nouvelles question, permet de pousser plus loin la réflexion sur la gestion de nos données.

La question la plus évidente est celle du format de sauvegarde, comme le reconnaît Brian Fitzpatrick dans un entretien sur le site du Guardian. Certaines données peuvent facilement être exportées dans des formats standards, ODF par exemple pour Google Doc, ICS pour Calendar, etc. Mais pour d'autres il n'existe pas encore de format. Comment enregistrer localement une "Wave", comment la réutiliser ?

De son côté, Ragavan Srinivasan, un ingénieur des Laboratoires Mozilla qui travaille sur le projet Weave soulève plusieurs points intéressants :

  • pouvoir exporter ses données pour changer de prestataire est très bien. Mais est-il possible d'effacer nos données des serveurs de Google, et surtour comment avoir la certitude qu'elles l'ont bien été ?
  • quid des méta-données, des informations dont on a enrichi nos données. Par exemple, si on peut récupérer toutes les vidéos mises en ligne sur YouTube, il ne semble pas encore possible de sauvegarder également les mots clés qu'on leur a associés;
  • quid des données implicites ? c'est à dire des données que nous créons dans toutes nos intéractions avec Google ? Nos historiques de recherche par exemple. Sera-t-il possible de les exporter ?

Et cela m'amène à me poser d'autres question, en particuliers sur la propriété de certaines données. Si celles que nous créons explicitement nous appartiennent, qui est propriétaire des fameuses données implicites du Web² ? A qui appartiennent toutes les informations collectées par Google sur moi ? En suis-je l'auteur ? ou est-ce Google qui les crée en formalisant mes mouvements sous forme de données ? Qu'en est-il encore des données créées collectivement, un wiki, une discussion, etc. Sur Blogger, on peut exporter ses propres billets avec leurs commentaires, mais en tant que commentateur est-ce que je peux sauvegarder l'ensemble de mes commentaires ? Est-ce que cela a un sens de les enregistrer sans leur contexte ? Brad arrivera-t-il à reconquérir Cindy ou lui préférera-t-elle Paf la girafe ?




REF.:

mardi 21 octobre 2008

Windows Cloud : un nouvel OS pour les applications en ligne

D’ici un mois, Microsoft présentera un système d’exploitation inédit. Provisoirement baptisé Windows Cloud il se destine aux développeurs qui conçoivent des applications Internet.
C'est Steve Ballmer, pdg de Microsoft, qui a lui-même fait l'annonce hier à Londres. Lors de sa prochaine conférence pour les développeurs professionnels prévue fin octobre, Microsoft présentera un nouveau système d'exploitation, destiné justement aux professionnels créant des applications pour Internet. Le nom de code de cet OS est Windows Cloud, en référence au Cloud Computing.
Ce concept repose sur une infrastructure de serveurs, connectés entre eux par une bande passante très puissante sur lesquels les applications et les données des utilisateurs sont stockées. Cette installation est totalement transparente pour l'utilisateur final qui n'a besoin que d'un navigateur Internet pour accéder à ses applications les plus courantes.
L'illustration la plus parlante est celle de Google avec sa suite bureautique en ligne qui propose un traitement de texte, un tableur et un éditeur de présentation accessibles à tout moment depuis n'importe quel ordinateur connecté. Steve Ballmer n'a d'ailleurs pas manqué l'occasion d'égratigner Google en assurant que ses applications en ligne avaient un « usage relativement faible » et que les utilisateurs attendent plus. « Nous voulons des logiciels plus puissants que des logiciels qui fonctionnent avec un navigateur Internet », a-t-il conclu. Microsoft est un peu à la traîne sur ce sujet car son service Office Live Workspace permet de stocker et de visualiser des documents issus de sa suite Office mais pas encore de les retravailler en ligne. (EP)

mercredi 8 octobre 2008

Cloud computing : Microsoft prépare un "Windows Cloud"

Une nouvelle plate-forme permettant de créer et mettre en ligne clés en main des applications web, est en préparation. Portant le nom provisoire de Windows Cloud, il sera présenté d'ici un mois, a annoncé Steve Ballmer à Londres.
Après sa venue à Paris pour annoncer la création de pôles de recherche européens, Steve Ballmer s'est rendu à Londres pour évoquer un gros chantier en cours, autour du Cloud computing : rien moins qu'un système d'exploitation. Avec l'idée de permettre aux développeurs d'« écrire une application et de la mettre en ligne simplement sur le cloud »...« Chaque fois qu'une grande tendance, une grande opportunité émerge, nous créons un nouveau système d'exploitation », a déclaré le patron de Microsoft lors d'une conférence. « C'est ce que nous sommes en train de faire. N'ayant pas encore trouvé de meilleur nom, et avant de faire une annonce à son sujet dans quatre semaines, je vais pour l'instant l'appeler "Windows Cloud". » Des descriptions qui font écho au projet Midori, déjà cité par ZDNet.fr au début août.Le concept de Cloud computing, très en vogue, fait référence à des applications sur serveurs web, auxquelles on accède via des connexions internet, au lieu d'être installées sur des postes clients. Un nouveau type d'offres est né, assorties d'un nouveau modèle économique, avec des abonnements. Le libellé plus générique est « Software as a service » (SaaS), mais chez Microsoft, on parle de « software plus services ».
Seules des compétences de développement requises« Cela reste difficile d'écrire des applications pour le Cloud », poursuit Steve Ballmer. « Il faut louer un [service d'hébergement ou] disposer de ses propres serveurs ; il faut un peu savoir comment on veut bâtir son application et gérer ses serveurs. Même si une tierce partie gère physiquement les serveurs, c'est un processus très lourd. Alors qu'en fait, seules des compétences de développeur devraient être requises. » Une fois l'application finalisée, elle serait mise sur le Cloud et, c'est le service qui gérerait tout, poursuit-il.
Les développeurs, suggère ainsi Steve Ballmer, auront besoin du seul Framework .NET pour créer des applications, le serveur, le navigateur et le client. Microsoft veut que Windows Cloud permette de proposer des logiciels sur le mode « Cliquez et exécutez » plus efficacement que ce qui était possible avec « la plupart des logiciels d'autrefois ».
« Nous ne voulons pas que tout soit réduit au plus petit dénominateur commun qu'est le navigateur, mais l'idée est qu'il n'y ait rien d'autre à faire que de cliquer pour lancer une application », explique le dirigeant. « Alors il nous faut faire évoluer Windows vers le modèle .NET. Vous gardez tous les avantages des OS pour PC. Avec des interfaces riches et l'interaction avec l'utilisateur (...). »
Des offres pour le grand public assez rapidement« Les OS actuels pour PC permettent de mélanger et gérer vos propres applications. Cela doit rester possible, même si l'application est accessible depuis le Cloud. Il va se passer beaucoup de choses au niveau de la plate-forme sous-jacente - dans la façon d'écrire et de gérer des applications - au fur et à mesure que le monde passe aux logiciels couplés aux services. »Des nouveautés qui n'arriveront pas seules, puisqu'elles seront accompagnées de « nouveaux modèles économiques », annonce déjà Steve Ballmer. « Une partie des offres reposera sur la vente, d'autres sur des abonnements, tandis que certaines seront financées par la publicité. »
Quand ces offres verront-elles le jour ? « Sur le marché grand public, une partie d'entre elles va arriver rapidement. Pour les entreprises, cela mettra peut-être trois, quatre, sept ans ou plus pour vraiment transpirer.

Nota:
Symantec, spécialiste des logiciels antivirus, adopte le principe du Cloud computing pour la plupart de ses logiciels de sécurité, sauvegarde et archivage. A partir de mars 2009, il les proposera progressivement sous la forme de « Software-as-a-Service » (SaaS) accessibles via le web, en étant hébergés sur ses serveurs.
Symantec succombe ainsi à la tendance du Cloud computing, après IBM, Google et Amazon notamment, et bientôt Microsoft. Un engouement décrié dernièrement par deux leaders charismatiques du monde IT : Larry Ellison d'Oracle et Richard Stallman, le créateur de la licence GPL.



REF.:

dimanche 8 juin 2008

Le Cloud computing (littéralement : l'informatique dans les nuages)

La virtualisation et l’émergence de nouvelles plates-formes ouvrent la voie à une dématérialisation de la salle informatique. Malgré le battage marketing, ce concept de Cloud computing va bien au-delà des services d’externalisation ou du mode SaaS. Explications.


c'est la possibilité de disperser un système d'information sur des infrastructures prises en charge par un ou plusieurs prestataires. La localisation géographique de ces ressources virtuellement illimitées n'importe plus. Ce concept était déjà ébauché par les services d'hébergement, le mode SaaS (Software as a Service) ou la location de puissance de calcul. « Ces modèles existent depuis des années, mais n'ont jamais donné leur pleine mesure. Aujourd'hui, la technologie rend leur généralisation réaliste », estime Bruno Hourdel, directeur marketing chez Sun Microsystems.
La donne a changé sous l'impulsion de la virtualisation et de plates-formes conçues d'emblée pour être mutualisées au travers de vastes grilles de serveurs. Ce qui faisait peur se transforme même en avantage : associée à la redondance et à la dispersion géographique, cette mutualisation devient synonyme de montée en charge aisée, de haute disponibilité et de plan de reprise d'activité (PRA) à moindre coût.


La location de serveurs virtuels nus adaptée à la reprise de l'existant

Depuis début 2008, les grands de l'informatique lancent des services réellement nouveaux et affichent leurs ambitions. « Notre objectif est de donner aux entreprise les moyens d'externaliser entièrement leur salle informatique », affirme ainsi Bruno Hourdel. Ces offres prennent d'abord la forme de serveurs virtuels hébergés. La virtualisation apporte un premier plus : en cas de panne, un serveur virtuel peut être déplacé presque instantanément. Des prestataires comme Prosodie ou InternetFR intègrent ce type de services à leurs offres d'hébergement classique. Mais les machines virtuelles ne tournent alors sur un matériel mutualisé qu'en phase de développement, ou en cas d'incident ou sinistre.
Dans le cadre du cloud computing, qui sous-tend au contraire une mutualisation en production, la virtualisation présente un avantage supplémentaire : la dématérialisation des serveurs permet, par exemple en cas de dégradation des temps de réponse, de passer dynamiquement sur une machine physique plus puissante, voire même de confier ces serveurs à un autre prestataire ou de les internaliser de nouveau. Telehouse fait un petit pas dans cette direction. « Nous commençons à louer des serveurs virtuels en tant que tels, ce qui permet à la fois de profiter des fonctionnalités de haute disponibilité et de réduire l'encombrement et la consommation électrique de chaque serveur », explique Gilles Pecqueron, responsable du développement des produits chez Telehouse.
Mais la grande nouveauté de ces derniers mois, c'est que des acteurs majeurs cherchent à généraliser cette idée. HP lance ainsi son offre New Generation Data Center (NGDC) qui sous-tend la location de machines virtuelles sous HP-UX, Linux ou Windows. Sun lui emboîte le pas avec son projet Hydrazine qui ajoute Solaris à Linux et Windows. De son côté, Amazon avait démarré par S3, un simple service de fourniture de ressources de stockage récemment complété par EC2 (Elastic Computer Cloud), qui inclut la fourniture de serveurs virtuels x86.



Des environnements complets ciblant les nouvelles applications

L'hébergement de serveurs virtuels nus est adapté à la reprise de l'existant. Mais les entreprises ne vont pas massivement transférer leurs anciennes applications. Les prestataires ciblent donc plutôt les nouvelles, ce qui les amène à couvrir toutes les phases qui vont du développement à la production, en passant par le test et le déploiement. Ces services sont délivrés par des plates-formes sur lesquelles la virtualisation est masquée. « Par exemple, des serveurs virtuels seront gérés par des intégrateurs ou éditeurs qui eux-mêmes proposeront des environnements applicatifs », note Bruno Hourdel.
Sur ce principe, deux stratégies se côtoient. Les constructeurs comme IBM (offre baptisée Blue Cloud), Sun (encore Hydrazine) et HP (avec l'un des volets de NGDC) louent des environnements logiciels basés sur des briques traditionnelles - moteur SQL, plate-forme J2EE, serveur Web, moteur de messagerie, ESB (Enterprise Service Bus) ou même ERP. De leur côté, Google (avec App Engine) et Salesforce (Platform as a Service) optent pour des briques spécifiques.
Ces modèles pourraient converger puisque IBM et Google ont signé un accord visant à mettre en commun leurs ressources de cloud computing. Un autre accord liant Google et Salesforce vise à connecter les applications bureautiques de Google aux environnements de Salesforce. « Cette possibilité d'agréger des capacités de traitement disparates représente, avec la virtualisation, la principale nouveauté apportée par les tenants du cloud computing », considère Thibault Desnoix, responsable marketing infogérance chez Prosodie.



Amazon Web Services/Amazon:
Location de ressources serveurs (Elastic Computer Cloud ou EC2), de stockage (Simple Storage Service ou S3), de bases de données (SimpleDB) et de services Web.



App Engine/Google:
Plate-forme de développement et de déploiement d'applications, avec notamment un service de base de données.



Blue Cloud/IBM:
Location d'environnements applicatifs dont les composants sont puisés dans un catalogue (SAP, DB2, WebSphere, Apache...).



New Generation Data Center/HP:
Location de machines virtuelles sous HP-UX, Linux ou Windows. Location d'environnement applicatifs prêts à l'emploi (comme SAP ou Exchange).



Platform as a service/Salesforce:
Plate-forme comprenant une base de données, des moteurs de workflow et d'intégration, un environnement de développement et un outil de conception d'interface utilisateur.



Projet Hydrazine/Sun:
Location de conteneurs extensibles sous Solaris (apparentés à des machines virtuelles) ou de machines virtuelles sous Windows ou Linux. Location d'environnements applicatifs.



Note: « informatique dans le nuage », « informatique en nuage », « informatique dématérialisée », ou infonuagique
Ref.: ZdNet-fr.