vendredi 30 octobre 2009
Kill Switch ,pas juste dans windows,mais dans les Cell
La sortie de la plateforme Android de Google pour les téléphones portables est un petit évènement qui va très certainement créer son propre sillage dans le monde de la téléphonie. Trop de constructeurs attendent une occasion réelle de contrer l’iPhone, et on ne peut pas dire que la technologie présentée par Windows Mobile soit au goût du jour. Certains choix faits par Google restent tout de même sujets à critiques.
Il y a quelque temps, on apprenait l’existence d’un « Kill switch » dans l’iPhone, qui avait ensuite été confirmé officiellement par Steve Jobs dans une interview au Wall Street Journal. Un kill switch est une sorte de détonateur à distance qui permet en l’occurrence à Apple de tuer une application ciblée sur les iPhone. Il s’agit d’un moyen pratique pour la firme de Cupertino pour se débarrasser en urgence d’un code quelconque qui serait jugé inapproprié.
Cette notion « d’inapproprié » est d’ailleurs assez floue, mais les explications officielles se comprennent aisément : il faut pouvoir s’occuper d’une situation urgente comme la dissémination d’un code malveillant. Et il est maintenant certain que Google a préparé exactement la même possibilité sur Android pour les applications qui seront distribuées sur l’Android MarketPlace.
Dans le G1, disponible actuellement aux États-Unis, dans l’à-propos de l’appareil, on trouve le texte suivant : « Google may discover a product that violates the developer distribution agreement ... in such an instance, Google retains the right to remotely remove those applications from your device at its sole discretion ».
Pour ceux qui ne parlent pas anglais, la traduction est simple : Google se réserve le droit de supprimer tout produit sur le téléphone qui violerait les conditions de distribution des applications pour les développeurs. Il y a donc un corollaire que l’on devine sans peine : le mode de distribution fait référence à l’Android Market Place. Google parle donc très probablement de l’obtention d’applications par d’autres moyens.
REF.:
Le WeB Libre ,Vivre le WEbec Libre :O)
Le projet Drumbeat que j'évoquais récemment vise à mobiliser autour de la notion de Web ouvert et libre les internautes bien au delà des milieux technophiles. Encore faut-il préciser ces notions et expliquer leur importance. Je vais tenter de résumer ici mes récentes lectures sur le sujet.
S'il est important aujourd'hui de s'intéresser au Web, c'est que de simple outil à usage essentiellement de loisir, il est en passe de devenir une véritable plate-forme qui va probablement prendre une place conséquente dans la vie d'un portion croissante de la population.
Le Web comme une plate-forme ?
C'est un mantra que l'on entend souvent et qui désigne la prochaine étape du flux et du reflux entre le terminal et les serveurs. Du temps de nos grands-parent, dans les années 70, les terminaux étaient passifs, de simples Minitels connectés à des serveurs qui stockaient les données et les traitaient. Nos parents ont connu l'avènement du PC dans les années 80/90: le terminal devenait un ordinateur à part entière sur lequel s'exécutaient des applications et où on rangeait nos données. Aujourd'hui on assiste à un reflux : les données et les applications sont en train de repartir sur le réseau. Ou plutôt dans un sous-ensemble du réseau: le Web. Celui-ci devient la plate-forme sur laquelle se bâtissent les nouvelles applications, et qui pourrait bien remplacer le PC. C'est à dire que nos terminaux, netbooks, téléphones, etc, retournent vers un statut d'objets "passifs", servant juste de support au programme qui nous connecte au Web : le navigateur. Au fur et à mesure que de plus en plus d'applications vont migrer vers le Web, leur installation locale va devenir inutile. Pour prendre une métaphore automobile, le Web est un châssis sur lequel chacun va pouvoir créer sa voiture. Une voiture dont le moteur sera les applications en ligne, et le carburant nos données.
On voit là le danger : il y a un risque de perte de contrôle. Nous contrôlions (relativement) ce qui se passait sur nos PC. Nos données étaient sur nos disques, à priori uniquement accessibles de nous-mêmes. Nous pouvions choisir nos logiciels. Si l'on était habitué à une version d'un traitement de texte et ne voulions pas passer à la suivante, rien ne nous y obligeait. Avec l'avènement de l'informatique dans les nuages (le cloud computing), nous sommes en train de perdre le contrôle. Nos données sont dispersées sur des serveurs, il est difficile de savoir qui y a réellement accès, il n'est pas toujours possible de les récupérer sous leur format brut pour en faire ce qu'on veut, on n'est pas vraiment sûr que ce que nous effaçons le soit réellement... De leur côté, les serveurs collectent toujours plus d'informations sur nous, qui nous échappent totalement. Peu à peu, nous sommes dépossédés. Quand aux applications en ligne, une fois qu'on en a choisi une, on y est souvent lié: pas moyen par exemple de refuser les évolutions du service, à moins d'aller voir ailleurs, si c'est possible. On ne pourra jamais les personnaliser à notre goût (par exemple par l'ajout d'extensions) autant qu'on le faisait avec les logiciels installés localement. Le caractère très pratique du nuage masque pour l'instant souvent la perte de contrôle.
Il faut donc faire attention à ne pas perdre les libertés que nous avions acquises au temps du PC. C'est un des enjeux du combat pour le Web libre.
Le Web libre, kesako ?
Il n'existe aucune définition de l'Open Web[1], et de billet en billet chacun y va de sa contribution. Pour essayer de résumer en une seule phrase, le Web libre est une plate-forme qui permet réellement à chacun et chacune de consulter, créer et diffuser librement de l'information. (je m'inspire d'une tentative de Brad Neuberg qui a publié une série sur le sujet).
Cette phrase est très incomplète, voici quelques uns des concepts qui reviennent le plus souvent pour décrire le Web ouvert :
Le Web devrait rester décentralisé. Encore une fois, il s'agit de savoir qui contrôle nos données et ce qui se passe sur la toile. Pour éviter que ce contrôle soit l'œuvre d'une seule entité qui déciderait à notre place, il est important que le Web garde son caractère décentralisé (la décentralisation est une des caractéristique fondamentale de l'architecture technique d'Internet). Aujourd'hui, à de rares exception près (DNS, points de peering), l'architecture du réseau fait qu'il est très compliqué de le contrôler. Chacun peut facilement créer un site et le connecter à la toile sans demander la permission à personne. Intercepter ou bloquer des communications est techniquement complexe. Évidemment la tentation est grande, pour des raisons pratiques ou politique, d'essayer de re-centraliser. Google peut-être vu comme un point de passage quasi-obligé, certains réseaux sociaux comme Facebook aussi. Mais il faut lutter contre cette tentation, car tout point de passage obligé nous fragilise, nous fait perdre en autonomie. Si tous les mails sont centralisés sur deux ou trois serveurs, va-t-on arrêter de communiquer le jour où un de ces serveurs tombera en panne ?
La transparence est évidemment importante. Pour que chacun puisse comprendre le réseau et contrôler son activité en ligne, il faut que le fonctionnement de la toile soit le plus transparent possible. Aussi bien techniquement, j'y reviendrai en parlant des standards, qu'au niveau des décisions plus "politiques". Par exemple la gestion des noms de domaine, l'attribution des adresses IP... Ce sont des domaines qui peuvent paraître complexes, et il est important de rendre ces questions plus accessible et de faire en sorte que les processus soient publics et démocratiques.
Digression sur les standards
L'informatique, comme la plupart des industries, s'appuie sur des standards, des normes. Ces standards définissent entre autre des protocoles, des formats, des langages. Prenons l'exemple de la consultation d'un site Web. Il faut d'abord que le client, votre navigateur, et le serveur, arrivent à communiquer. Ils utilisent pour cela un protocole, HTTP, qui formalise leurs échanges. donne-moi la page X
, la voici, c'est du HTML/une image/etc
. Une fois qu'ils ont établi la communication, ils vont échanger des informations que le navigateur va afficher. Ces informations sont représentées, traduites, par divers formats : HTML, CSS... Si la page contient des éléments dynamiques, elle exécutera un langage de programmation, JavaScript. Pour que tout cela fonctionne, il est indispensable que tout le monde parle la même langue, le navigateur et le serveur, mais aussi que la page et ses parties dynamiques soient écrites dans des langues que le navigateur comprenne et soit capable d'interpréter avec un maximum de fidélité. Cela repose sur l'utilisation de normes communes, les Standards Du Web.
Mais pour que ces standards concourent à augmenter l'ouverture et la liberté, encore faut-il qu'ils présentent certains caractéristiques, comme l'a par exemple expliqué Brendan Eich de Mozilla dans une présentation.
- les standards du Web doivent être librement consultables et utilisables par tout le monde. Librement signifie sans devoir demander la permission, signer un contrat, payer une licence, ou être menacé de poursuite, par exemple à cause de brevets. Idéalement, il devrait exister des implémentations complètes de ces standards avec des logiciels libres, afin que chacun puisse les utiliser, mais aussi bâtir de nouvelles applications qui se basent dessus;
- ces standards doivent évidemment être le plus universels possibles, donc ne pas se limiter à une plate-forme;
- la gestion de leurs évolutions doit être confiée à une entité impliquant les plus largement possible tous les acteurs. Pour favoriser le Web libre, les standards ne doivent pas être la propriété d'une seule entité (cf par exemple Flash: même si Adobe a ouvert les spécifications du format et que tout le monde peut théoriquement l'utiliser, Adobe en reste propriétaire et peut décider à sa guise des évolutions. Flash n'est donc pas un composant du Web libre);
- seuls les standards largement répandus participent vraiment à l'ouverture de la toile. Il existe de nombreuses normes répondant aux caractéristiques précédentes, mais trop complexes pour être largement adoptées. Les standards ouverts devraient encourager l'innovation;
Pour être libre, le Web a besoin de reposer sur des standards qui remplissent ces conditions. C'est partiellement le cas aujourd'hui (avec par exemple la grosse exception de la vidéo largement phagocytée par une seule entreprise, Adobe), et il est important de veiller à ce que ça le soit de plus en plus.
Un Web libre, pour quoi faire ?
D'abord pour permettre à chacun, de quitter le statut de simple spectateur, de consommateur passif, pour devenir acteur, pour participer, pour créer collectivement. Si la toile est ouverte, chacun pourra l'utiliser à sa guise pour lire et écrire, c'est à dire consulter et créer des contenus, utiliser et développer des applications.
La notion de bidouillabilité (proposition de traduction des néologismes hackability
et generativity
) est aussi essentielle. C'est à la fois un pré-requis et une conséquence de l'ouverture de la toile. Pour être libre, le Web doit pouvoir être bidouillé; s'il est ouvert, il permet de bidouiller. La bidouillabilité, c'est la possibilité de pouvoir facilement modifier, adapter la plate forme pour en faire ce qu'on veut, c'est la possibilité de s'en servir pour aller plus loin, pour créer de nouvelles choses à partir d'elle. Pour reprendre un exemple de PierreM dans un billet consacré à l'ouvrage de référence The Future of the Internet and How to Stop It
de Jonathan Zittrain, le papier et le crayon sont des technologies bidouillables. Le grille-pain beaucoup moins.
Firefox fournit un excellent exemple d'applications de la bidouillabilité, et c'est une des raisons pour lesquelles je l'aime. Il fournit de nombreux outils pour hacker la toile. Ca a par exemple commencé il y a quelques années avec des extensions qui permettaient de modifier l'affichage d'une page automatiquement, que ce soit en modifiant la taille des polices ou les couleurs, en la ré-arrangeant, en supprimant des blocs qui gênent la lecture. Ensuite il y a eu Greasemonkey, aujourd'hui Ubiquity, demain Jetpack. Toutes permettent d'étendre le Web, de modifier à notre guise notre navigation.
Bidouiller le Web, ce sont aussi tous les mashups, qui agrègent les données de plusieurs services, et tous les petits scripts qui améliorent des applications existantes. On peut par exemple rajouter automatiquement à une page de résultat de recherche des liens pour traduire les résultats, rechercher de plus anciennes versions dans les archives, ajouter à chaque nom de lieu un lien vers une carte, sous des vidéos des liens pour les télécharger. Bref, modeler le Web à sa guise. L'ouverture permet tout cela très simplement.
Outre l'aspect pratique, bidouiller a une fonction très importante : cela permet de vaincre sa peur et de s'approprier l'outil. C'est en expérimentant qu'on apprend. Comme l'enfant qui s'initie à la mécanique en démontant des réveils[2], ou à l'informatique en modifiant avec un éditeur hexa le nombre maximal de vies dans un jeu. La bidouille est pour moi le point d'accès pour donner l'envie et le courage d'aller plus loin. On commence par bidouiller et peu à peu on prend conscience de ses capacités, on commence à créer de petites applications. Le but n'est évidemment pas que tout le monde devienne développeur, mais en sache suffisamment pour se débrouiller, créer ses outils, être autonome. Imaginons par exemple que je n'arrive pas à consulter les présentations sur un célèbre site parce que leur interface ne fonctionne pas avec mon équipement. Il suffit d'un peu de bidouille, mi questions en ligne mi écriture de code à partir d'exemples, pour remplacer le dit lecteur par un autre, compatible avec ma configuration. Ca ne va pas très loin mais c'est suffisant pour me faciliter la vie tous les jours.
En introduction d'une présentation, Designing for Hackability
, Brian Oberkirch titre If you can't open it, you don't own it
(si vous ne pouvez pas l'ouvrir, ça ne vous appartient pas). C'est évident pour bon nombre d'objet (qui imaginerait ne pas pouvoir ouvrir le capot d'une voiture ?), mais ça l'est aussi pour les logiciels (si vous n'avez pas le code source et l'autorisation de le modifier, il ne vous appartient pas vraiment) et pour le Web. Le Web est notre bien commun, il est essentiel de se l'approprier, et pour cela il faut pouvoir le bidouiller.
Negras tormentas agitan los aires
Si Drumbeat invite à prendre soin du Web libre, c'est que des menaces pèsent sur lui. Outre les problèmes déjà évoqués de maîtrise de nos données à l'heure du cloud computing, il y a également par exemple une bataille permanente entre les formats ouverts et les formats propriétaires. Pas forcément fermés, les spécifications peuvent être ouvertes, mais propriété d'une seule entité qui a donc la haute main dessus. Par exemple Adobe, Microsoft (Silverlight, .Net), ou Apple (spécialiste de l'asservissement de ses utilisateurs).
Les technologies les plus anciennes réussissent à rester globalement ouvertes. Difficile aujourd'hui pour quelqu'un d'essayer de s'approprier HTML ou les CSS. Leurs chantiers avancent donc en restant ouvert, même si c'est horriblement lentement (CSS3) ou avec de nombreux psychodrames ((X)HTML). Par contre, la guerre fait rage sur les nouvelles technologies, par exemple dans
- la vidéo, actuellement dominée par Adobe. La prochaine version de HTML commence à proposer une alternative ouverte à l'utilisation de Flash pour diffuser de la vidéo. Malheureusement le terrain est miné: la plupart des techniques offrant une qualité correcte sont bardées de brevets et soumis à licences. Trouver un chemin pour proposer de la vidéo sur le Web ouvert est donc ardu;
- les langages de script : EcmaScript (le standard) contre ActionScript (dans Flash). Un accord à été trouvé l'an dernier qui ménage les différents acteurs (Adobe d'un côté, plutôt en avance et Microsoft de l'autre, très en retard, pour changer), mais cet accord était surtout "politique", pour éviter une scission, et Adobe comme Microsoft continuent à développer des langages spécifiques à leurs logiciels respectifs;
- la 3D et, aux confins de la 3D et de la vidéo, la réalité augmentée. La guerre est déclarée depuis longtemps, et s'annonce féroce. Chacun y va de sa solution, en essayant éventuellement de la faire standardiser à postériori. Pour l'instant les perspectives ne sont guère optimistes, puisque jamais un éditeur n'acceptera que la technologie développée par son concurrent soit standardisée au détriment de la sienne. Pourtant, sous la pression des jeux et des univers virtuels, ce sont des technologies qui vont de plus en plus débarquer dans les navigateurs. Espérons qu'une solution ouverte saura tirer son épingle du jeu[3];
- les terminaux mobiles actuels ont engagé une énorme régression. Apple et son Apple Store en sont l'exemple le plus marquant, mais le modèle fait hélas tâche d'huile. L'iPhone et la plupart des smartphones sont les plate-forme les plus verrouillées qu'on ait vues depuis longtemps. Vous ne pouvez installer sur votre téléphone que des applications téléchargées depuis le site d'Apple. Et Apple a le contrôle total sur les programmes disponibles. Les exemples d'applications refusées sont légions, que ce soit pour des raisons morales (cachez ce sein qui risquerait de choquer) ou commerciale (tout programme risquant de concurrencer ses intérêts financiers). Pire, le vendeur peut intervenir à sa guise sur votre terminal (on l'a vu récemment avec Amazon qui a supprimé à distance des livres du lecteur électronique de ses clients, mais Apple et Google ont également admis avoir la possibilité de le faire sur les iPhone et les téléphones Android).[4] Est-ce que vous imagineriez ne pouvoir installer sur votre ordinateur que des applications autorisées par son fabriquant ? Est-ce que vous imagineriez que Microsoft interdise l'installation de toute application qu'elle n'a pas explicitement autorisé[5] ? Si c'était le cas, je doute que vous ayez jamais pu installer le merveilleux Firefox avec lequel vous être en train de lire ces lignes, ou votre mule, le lecteur VLC, etc. C'est particulièrement préoccupant car il est possible que l'accès à Internet passe de plus en plus par ce type de terminaux, au détriment des PC classiques. Alors, est-ce que d'ici quelques années nous aurons complètement perdu le contrôle de nos terminaux, simplement parce que l'iPhone est trop hype et agréable à utiliser ? C'est toujours la même question : ce que l'on gagne en simplicité d'utilisation vaut-il le prix qu'on le paie en perte de liberté ?
- l'accès Internet mobile. Au delà des terminaux, l'Internet mobile est également victime d'une très mauvaise qualité de connexion, car la norme est aux contrats complètement bridés. On revient au modèle antique d'AOL, où les utilisateurs n'accèdent pas à la toile, mais à une toute petite partie sous le contrôle pointilleux des opérateurs. Je vous ai déjà signalé les prêches du Président Benjamin sur le sujet.
Toutes ces questions, si elles peuvent sembler très techniques, relèvent surtout de débats de société sur ce que sera le Web demain, et c'est pour cela que l'idée derrière Drumbeat est pertinente. L'avenir de la toile ne doit pas être l'affaire des seuls geeks et des sociétés pour lesquelles elle n'est qu'un marché. Tous les internautes présents et futurs devraient se sentir concernés et peser sur ces questions. Quand à nous, geeks "prescripteurs" comme on dit, notre responsabilité est lourde. Nous sommes régulièrement sollicités par nos connaissances pour leur donner des conseils. Ca serait bien de ne pas trop nous laisser aveugler par le caractère profondément bandant de toutes les nouvelles technos et des derniers gadgets, et de réfléchir aux implications de nos choix sur le long terme (enfin pour ceux qui croient en l'existence d'un futur).
La liberté au delà du Web
Au delà du Web, il faudrait aussi se pencher sur l'infrastructure de bas niveau sur laquelle il s'appuie, le réseau. Et à des question comme la neutralité de celui-ci. Pour reprendre la métaphore automobile, le réseau est la route sous les roues de la voiture. Pour l'instant le réseau est neutre. La route ne sait pas grand chose de la voiture, peut-être son poids, son modèle, mais rien de l'identité de son conducteur ni de son trajet. La route transporte donc indifféremment tous les véhicules, du combi VW en route pour Katmandou à la bétaillère menant les brebis à l'abattoir. Depuis quelques années, de pressions de plus en plus fortes visent à en finir avec cette neutralité, soit en introduisant du contrôle au niveau du réseau, soit en essayant de prioriser certains flux au détriment d'autres, comme si la route pouvait se transformer dynamiquement en autoroute pour les 4x4 et en chemin de terre pour les 2x2ches[6].
La neutralité du réseau fait-elle partie de l'Open Web ? Pour moi, l'un ne va pas sans l'autre, la liberté globale d'un système ne dépassera jamais celle du moins libre de ses composants. On ne pourra être libre et autonomes dans nos vies numériques que si tous les composants le sont : le réseau, y compris son infrastructure matérielle, les logiciels pour y accéder, les matériels qui font tourner ces logiciels, et tous les composants du nuage.
Bien sûr, c'est encore loin d'être le cas, mais c'est l'Utopie vers laquelle il faut tendre. Le logiciel libre et le Web libre ne sont que deux pièces du puzzle. On peut choisir pour des raisons pratiques de se concentrer sur un aspect seulement, le logiciel, la plate-forme, le réseau, mais il faut bien être conscient que ce ne sont que des facettes d'un joyau à gagner, la liberté numérique. Je n'oublie pas par ailleurs que cette liberté numérique elle-même n'est rien sans liberté des individus analogiques, c'est à dire si les créatures de chair n'ont pas les moyens concrets politiques, économiques, intellectuels, d'exercer leur liberté numérique.
Conclusion pessimiste
Pour conclure et en revenir à Drumbeat, j'avoue être assez pessimiste. La volonté de Mozilla d'inciter les gens à se mobiliser pour le Web ouvert n'est pas nouvelle, et je n'ai pas l'impression qu'elle ait jusqu'à présent rencontré beaucoup d'écho. La situation de l'humanité est catastrophique de longue date, alors que l'on aurait depuis longtemps les moyens de l'améliorer, mais on ne fait rien. Aujourd'hui, il ne fait plus guère de doute que la poursuite dans la même direction est suicidaire pour notre environnement, et donc pour nous, et malgré tout nous sommes incapables de prendre des mesures à la hauteur du péril. Alors la défense du Web Libre... Le seul espoir de ce côté est peut-être que c'est un combat qui demande bien moins de changements de nos habitudes que les deux précédents, donc pour lequel il sera peut-être plus simple de trouver des bonnes volontés. En matière d'écologie, les petits gestes ne suffisent pas. Nos actions quotidiennes seront dérisoires tant que les fondements de la société ne changeront pas. Pour ce qui est du Web, les petits gestes peuvent réellement avoir un impact. Ils demandent un effort, mais pas forcément une révolution effrayante. Donc peut-être... J'en doute, menfin, on peut toujours essayer, et j'espère que cette modeste contribution pourra être utile pour expliquer l'importance du Web libre et de le défendre. RMS m'entende.
Licence
Ajout du 14.09.2009 : ce billet commençant à avoir un peu de publicité (qui me fait regretter de ne pas l'avoir travaillé quelques jours de plus), pour encourager sa diffusion je le place sous licence CC-BY :
Du Web Libre by Clochix est mis à disposition selon les termes de la licence Creative Commons Paternité 2.0 France.
Basé(e) sur une oeuvre à www.clochix.net.
Notes
[1] qu'après moult hésitations, je traduirai alternativement par libre et ouvert, la distinction entre les deux termes en matière de logiciels ne me semblant pas pertinente ici, pour l'instant;
[2] pardon, je précise, dans le temps les réveils étaient mécaniques, si si;
[3] je n'avais pas vu passer début Août cette annonce sur WebGL qui indique que ce projet visant à créer un standard ouvert pour la 3D dans le navigateur a reçu quelques soutiens de poids. Et techniquement, l'implémentation dans Gecko a également commencée en Août. Le tableau est peut-être moins sombre que je ne le pensais;
[4] et ne me parlez pas des solutions de déverrouillage, qui ne seront jamais utilisées que par un infime pourcentage d'utilisateurs. Ces terminaux sont défectueux dans leur conception même, defective by design et dans leur philosophie;
[5] oui je sais il y a eu des tentatives dans ce sens, notamment dans Vista;
[6] pour en savoir plus sur le sujet, outre Benjamin Bayard, Jean-Michel Planche en parle aussi très bien;
Firefox 3.7 sera en 3D en 2010, et le jeux "Second Life" s'exécutera dans le navigateur
Je citais récemment de WebGL comme une des technologies du Web Libre. Quelques semaines après Webkit, une implémentation de cette spécification ouverte permettant de faire de la 3D dans un navigateur vient de faire son arrivée dans les versions de développement de Firefox, dans la branche qui devrait donner Firefox 3.7 au premier semestre 2010. Les principaux navigateurs modernes (Firefox, Chrome, Safari) devraient donc d'ici quelques mois permettre d'utiliser de la 3D nativement, sans avoir besoin d'installer un logiciel externe. Après la vidéo, c'est une nouvelle fonctionnalité qui se libère. Rapide lexique pour s'y retrouver dans ce nouveau monde.
WebGL est une implémentation d'OpenGL ES 2.0 utilisant JavaScript et Canvas. Les navigateurs peuvent ainsi afficher des contenus en 3D en profitant directement des mécanismes d'accélération matérielle des cartes vidéos. WebGL est une spécification en cours de création au sein du groupe Khronos.
Le groupe Khronos est un consortium réunissant de nombreuses entreprises dans le but de créer des standards ouverts dans le domaine du graphisme et du multimédia. Ces standards sont conçus en commun par les membres du groupe qui peuvent les implémenter sans devoir payer de licence. Le groupe compte aujourd'hui plus d'une centaine de membres, fabriquant de composants, de terminaux ou de logiciels. Il gère de nombreux standards comme OpenGL, OpenCL, et le récent WebGL.
OpenGL est une spécification définissant une API pour dessiner en 2D et 3D. C'est probablement la spécification la plus utilisée dans ce domaine. Elle est concurrencée par DirectX, technologie propriétaire développée par Microsoft. Le projet MESA fournit une implémentation libre d'OpenGL, qui peut fonctionner même si aucune accélération matérielle n'est disponible.
OpenGL ES est une déclinaison simplifiée d'OpenGL pour les systèmes embarqués (ES = embedded systems) comme les téléphones portables.
WebGL a été lancé en Mars 2009 par le groupe Khronos à l'initiative de Mozilla, afin de définir un standard pour utiliser de la 3D dans un navigateur. Cette initiative est probablement destinée à contrer le risque de voir chaque éditeur développer sa propre norme (par exemple Google propose O3D, Adobe a développé de nombreuses fonctions facilitant l'usage de la 3D dans Flash 10, etc). Un deuxième communiqué en Août précisait la direction prise : exposer les fonctions de l'API OpenGL ES 2.0 à JavaScript et utiliser la balise Canvas pour l'affichage. Une première version de la spécification devrait être disponible début 2010. Les membres du groupe de travail ont commencé à implémenter les brouillons afin d'aider à la finalisation. WebGL fonctionnera sur toutes les plate-forme disposant de pilotes supportant OpenGL et OpenGL ES. L'utilisation native de l'accélération matérielle des cartes graphiques combinée aux rapides progrès des performances des moteurs JavaScript devrait permettre d'obtenir dans les navigateurs un affichage proche des applications clientes classiques.
Canvas est une balise standardisée dans HTML 5. C'est une zone rectangulaire dans laquelle on peut dessiner au moyen de fonctions JavaScript. La balise a été initialement créée par Apple, mais est aujourd'hui disponible dans la plupart des navigateurs, soit nativement, soit en utilisant des bibliothèques qui l'émulent pour les navigateurs archaïques comme ceux de Microsoft[1]. J'avoue regretter que Canvas soit en train de prendre le pas sur SVG pour dessiner à l'intérieur du navigateur. Certes SVG est une norme particulièrement complexe, mais elle me paraissait plus prometteuse que Canvas (SVG est un dialecte XML, donc on peut facilement le parcourir, lui appliquer des modifications, etc. Pour ce qui est de Canvas, il est difficile de savoir ce qui est dessiné à l'intérieur).
Les utilisateurs de compilations nocturnes de Webkit pourront trouver quelques exemples d'utilisation de WebGL ici. Vous pouvez essayer de les faire fonctionner dans Firefox en remplaçant dans le code canvas.getContext("webkit-3d")
par canvas.getContext("moz-webgl")
. Pour connaître les fonctions disponibles, le mieux pour l'instant est de consulter la documentation ultime, le code source. La spécification étant encore à l'état de brouillon, des divergences entre les différentes implémentations existent qui devraient être corriger dans les prochains mois. Pour suivre l'avancée du chantier dans Firefox, je vous conseille les blogs de Vladimir Vukićević, qui expérimente depuis plusieurs années l'utilisation de 3D avec Canvas, et de Mark Steele qui travaille sur WebGL.
Les domaines d'application sont très nombreux : les jeux en ligne et les univers virtuels, bien sûr (on pourra bientôt avoir des "Second Life" qui s'exécuteront directement dans le navigateur, sans nécessiter l'installation de logiciels spécifiques), mais aussi sans doute les applications de réalité augmentée (car WebGL va apporter la 3D dans les terminaux mobiles).
Au final, voilà une belle avancée a qui un arrière goût de sur-place. Sur-place parce que je faisais déjà tourner des cubes en 3D sur mon premier micro-ordinateur il y a plus de 25 ans, et en 1996 BeOS projetait déjà des films sur des théière en 3D. WebGL n'est donc qu'une n+1ième implémentation de technologies depuis longtemps éprouvées. La réelle avancée est que cela se passe à présent à l'intérieur du navigateur, qui gagne de plus en plus ses galons de système d'exploitation à part entière. Et le tout en JavaScript, donc facilement bidouillable.
Après le FLQ,le FLD...............front de libération des données
"Rendez-nous nos données !". Tel pourrait être le crédo du Front de Libération des Données, un projet dirigé par une équipe d'ingénieurs de Google. Derrière un titre pour le moins révolutionnaire, l'objectif de l'entreprise américaine est de faciliter le rapatriement et l'envoi de données avec un service Google. Ainsi, pour prendre l'exemple de Gmail, le "Data Liberation Front" devrait permettre à un utilisateur de transférer la totalité de son compte vers un autre compte Gmail ou vers une solution concurrente. Et tout cela gratuitement.
"Nous sommes une petite équipe d'ingénieurs chez Google qui souhaite rendre plus facile le transfert des données personnelles de nos utilisateurs dans et en-dehors des services de Google, en développant des fonctions d'import et d'export simples". À terme, tous les services Google devraient être concernés par le Front de Libération des Données, afin que "les utilisateurs aient toujours le choix".
"Les utilisateurs sont les propriétaires des données qu'ils stockent dans n'importe quel service Google. Le but de notre équipe est de donner aux utilisateurs un plus grand contrôle en rendant plus simple le déplacement de données". Toutefois, il convient de noter que la manipulation des données vers un autre service ou en local n'efface pas pour autant les informations présentes sur un serveur Google. La suppression se fait en dehors de ce projet.
L'entreprise américaine devrait fournir dans les jours qui suivent, et de façon régulière, des guides et des modes d'emploi pour importer et exporter facilement des données. Pour l'heure, une vingtaine de produits Google disposent déjà d'informations sur le sujet. Citons AdWords, Analytics,Gmail, Maps, Picasa ou encore YouTube.
Le Cloud computing suscite de nombreuses craintes, aussi bien des particuliers que des entreprises. Les dangers du modèle, quant à la maîtrise de nos données hébergées dans le nuage, commencent à rencontrer un certain écho. Google a besoin de rassurer sur ce point, pour convaincre les utilisateurs de leur confier leurs données. Et comme souvent, don't be evil
oblige, il répond en se plaçant sur le plan de l'ouverture, via un Front de Libération des données.
La firme a constitué une équipe autour de Brian Fitzpatrick chargée d'améliorer les fonctionnalités d'import-exports de ses différents produits, et vient d'ouvrir un site, The Data Liberation Front[1] pour centraliser les informations sur le sujet. Le but est de permettre aux utilisateurs de récupérer leurs données pour pouvoir s'ils le désirent changer de fournisseur. Cela n'a rien de suicidaire. Si hier, le modèle était à l'assujettissement des utilisateurs entre autre via des formats propriétaires et fermés - certains ont bâti un empire là dessus - le futur est à l'ouverture et à ceux qui l'auront compris. Et savoir qu'on peut partir est souvent suffisant pour convaincre de rester.
Le site est donc en ligne et propose de courtes documentations sur les méthodes d'export, mais aussi d'import, d'une vingtaine de services maison (Blogger, Calendar, Gmail, YouTube...) Il y a encore quelques couacs, par exemple la page concernant YouTube indique qu'on peut télécharger ses propres vidéos en MP4 depuis l'interface d'administration, mais la documentation du service en lien précise que cette fonctionnalité est limitée à 2 vidéos par heure.
Ce premier pas, quelles qu'en soient les motivations, est louable, car non seulement il va dans le sens d'une plus grande ouverture, mais il va obliger les autres acteurs à s'aligner. Et en offrant des cas concrets, il soulève de nouvelles question, permet de pousser plus loin la réflexion sur la gestion de nos données.
La question la plus évidente est celle du format de sauvegarde, comme le reconnaît Brian Fitzpatrick dans un entretien sur le site du Guardian. Certaines données peuvent facilement être exportées dans des formats standards, ODF par exemple pour Google Doc, ICS pour Calendar, etc. Mais pour d'autres il n'existe pas encore de format. Comment enregistrer localement une "Wave", comment la réutiliser ?
De son côté, Ragavan Srinivasan, un ingénieur des Laboratoires Mozilla qui travaille sur le projet Weave soulève plusieurs points intéressants :
- pouvoir exporter ses données pour changer de prestataire est très bien. Mais est-il possible d'effacer nos données des serveurs de Google, et surtour comment avoir la certitude qu'elles l'ont bien été ?
- quid des méta-données, des informations dont on a enrichi nos données. Par exemple, si on peut récupérer toutes les vidéos mises en ligne sur YouTube, il ne semble pas encore possible de sauvegarder également les mots clés qu'on leur a associés;
- quid des données implicites ? c'est à dire des données que nous créons dans toutes nos intéractions avec Google ? Nos historiques de recherche par exemple. Sera-t-il possible de les exporter ?
Et cela m'amène à me poser d'autres question, en particuliers sur la propriété de certaines données. Si celles que nous créons explicitement nous appartiennent, qui est propriétaire des fameuses données implicites du Web² ? A qui appartiennent toutes les informations collectées par Google sur moi ? En suis-je l'auteur ? ou est-ce Google qui les crée en formalisant mes mouvements sous forme de données ? Qu'en est-il encore des données créées collectivement, un wiki, une discussion, etc. Sur Blogger, on peut exporter ses propres billets avec leurs commentaires, mais en tant que commentateur est-ce que je peux sauvegarder l'ensemble de mes commentaires ? Est-ce que cela a un sens de les enregistrer sans leur contexte ? Brad arrivera-t-il à reconquérir Cindy ou lui préférera-t-elle Paf la girafe ?
jeudi 29 octobre 2009
La Nintendo DSi XL (LL) ,en Europe et au Japon.
La Nintendo DSi LL sortira au Japon le 21 novembre prochain alors qu’il faudra attendre le premier trimestre 2010 pour voir atterrir la DSi XL en Europe. Au Japon, elle sera vendue à 20.000 yens, soit un peu moins de 150€.
REF.: