Powered By Blogger

Rechercher sur ce blogue

jeudi 10 octobre 2013

intel : Processeur Haswell en 2013

IDF 2012 : Intel Haswell, des puces pour ultrabook en 2013

A l'occasion de l'IDF 2012 de San Francisco, Intel a présenté sa prochaine génération de processeurs x86, appelée Haswell. Sa disponibilité est annoncée pour le milieu de l'année 2013.

La quatrième génération de processeurs Core d’Intel (nom de code Haswell) utilise le procédé de gravure 22 nm inauguré par les puces Ivy Bridge. Selon la dénomination utilisée par Intel, les processeurs Haswell correspondent à un « Tock » (un changement d'architecture) alors qu’Ivy Bridge n'était qu'un « Tick » (une évolution d'une architecture existante).
Les puces Haswell introduiront donc une nouvelle architecture et de nouvelles fonctions, tout en s’appuyant, quand même, sur les spécificités mises au point pour les processeurs Sandy et Ivy Bridge.

Haswell, une forte empreinte de Sandy Bridge

© Intel
Comme un air de Sandy Bridge...
agrandir la photo
Toujours multicœur, avec prise en charge de l'hyperthreading, cette nouvelle famille de processeurs est clairement destinée aux ultrabooks et autres machines ultramobiles. Des versions pour PC de bureau et portables « classiques » seront bien entendu disponibles au lancement, mais aucune information n'a filtré à ce propos.
Les diagrammes que nous avons pu voir montrent clairement l'empreinte de Sandy Bridge dans les Haswell. L'organisation des cœurs, du cache, de l'agent système et de la puce graphique sont identiques et tous restent servis par un « anneau » faisant le lien entre toutes les parties de la puce. Toutefois, la façon dont les cœurs des processeurs Haswell traitent l’information est améliorée. La gestion en simultané ou en parallèle de plusieurs informations devrait être encore plus rapide. Cela est rendu possible, entre autres, par l’augmentation de la bande passante et une latence diminuée entre plusieurs parties du processeur (la quantité de cache L1 et L2 reste identique à Sandy/Ivy Bridge).
© Intel
La bande passante des caches L1 et L2 améliorée.
agrandir la photo
Parmi les technologies/particularités présentes dans les Haswell, on retrouve le Turbo Boost, qui permet, rappelons-le, d'augmenter la fréquence des cœurs dynamiquement en fonction de leur charge de travail, l’intégration du contrôleur mémoire DDR3 et des lignes PCI-Express (pour les cartes graphiques). Le contrôleur graphique est également intégré dans la puce, de même que le jeu d’instructions AVX, pour les applications et développeurs, qui passe ici en version 2.
Les composants de la gestion de l'alimentation (VR) intégrés dans le circuit de la puce semblent également au rendez-vous, tout comme l'intégration, sur certaines références, du dernier élément du chipset qui gère les interfaces d'entrée/sortie (USB, PCI-Express, Sata, etc.).

Des nouveaux processeurs toujours sur la brèche ?

© Intel
Un nouvel état de consommation intermédiaire pour les processeurs Intel Haswell.
agrandir la photo
Intel affirme avoir encore peaufiné sa « sauce secrète » pour réguler à la fois la consommation des cœurs du processeur et leur entrée « en hibernation ». Les futures puces seraient en effet capables de s'activer/désactiver plus rapidement en fonction des besoins des applications et d'adapter encore plus finement la puissance requise.

Enfin, l’ensemble de la puce bénéficie bien d’un nouvel état de fonctionnement « l'Active Idle » (S0ix). Ce mode de consommation permettrait à la puce de pouvoir rester sur le qui-vive en cas de sollicitation brutale, tout en consommant une quantité infime de courant. A grand renfort de graphiques, Intel nous a expliqué que cette fonction trouverait tout son sens sous Windows 8, car elle serait en adéquation parfaite avec la gestion de l'énergie et les routines d'usage du nouveau système de Microsoft.

Trois parties graphiques intégrées possibles

© Intel
Intel multiplie les contrôleurs graphiques.
agrandir la photo
Pour cette nouvelle génération de processeurs, Intel élargit sa famille de contrôleurs graphiques intégrés. Il y en a dorénavant trois déclinaisons et non plus deux comme sur Sandy et Ivy Bridge. Pour le moment, ils se nomment GT1, GT2 et GT3. Ils sont compatibles DirectX 11.1 (version de DX de Windows 8) et partagent un tronc d'éléments fonctionnels commun.
© Intel
L'architecture graphique des processeurs Intel évolue avec Haswell.
agrandir la photo
Plus spécifiquement, GT1 et GT2 sont, a priori, identiques. Ils ont recours à la même quantité d'unités/moteurs de traitement de données graphiques. Le GT3, quant à lui, constitue le haut de gamme et embarque le plus grand nombre de moteurs graphiques gérant les pixels et les textures. A l'heure actuelle, Intel n’a fourni aucune information détaillée sur les fréquences ou encore la quantité de mémoire allouée aux parties graphiques. Nous en saurons plus dès que le fondeur dévoilera – définitivement et dans le détail – sa gamme de processeurs mobiles et de bureau courant de l'année prochaine.


REF.:

mardi 8 octobre 2013

DRM: en bonne voie d’être intégrés dans les standards du W3C ?

Web : les DRM en bonne voie d’être intégrés dans les standards du W3C


Après presque six mois de réflexion, le W3C, par la voix de son directeur, Tim Berners-Lee, vient de donner son feu vert à l’intégration de verrous numériques dans les standards Web. Une décision qui inquiète les défenseurs des libertés en ligne.

Ne pas laisser la main…

« Ce serait une terrible erreur pour la communauté du Web de laisser la porte ouverte à l’infection des standards du W3C par la gangrène culturelle anti technologique d’Hollywood », déclare l’EFF. « Cela saperait la raison même de l’existence du HTML5. […] Le HTML5 était censé être meilleur que Flash, et exclure les DRM est exactement ce qui le rendrait meilleur ».
En partenariat avec la Free Software Foundation, qui défend, entre autres, l’intérêt des logiciels libres et ouverts, l’EFF a ouvert une pétition pour que les Internautes puissent d se déclarer contre l’introduction des DRM dans le HTML. L’objectif est d’atteindre les 50 000 signataires d’ici le 3 mai 2013, date de la prochaine Journée internationale contre les DRM. Il n’est pas question ici d’être du côté des pirates ou des ayants-droits, mais simplement du côté de la liberté. « C'est ici le combat du jour et de la nuit »Je pense que la question de DRM sur le net ou non ne se pose pas. Avec la mort programmée de flash, les industriels vont pousser à l'apparition de DRM dans les navigateurs afin de contrôler la diffusion de contenu.
Donc quitte à avoir des DRM sur le Web, je préfère que ce soit un système de DRM standardisé sous l'égide du W3C, plutôt qu'une guerre qui laisserait les indépendants comme Mozilla sur le carreau au profit d'IE et Chrome.
En toute discrétion, le W3C vient de franchir une nouvelle étape qui pourrait mener à l’intégration à courte échéance des DRM dans le standard HTML 5.1. Tim Berners-Lee a en effet déterminé que « la lecture de contenu protégé » ou verrouillé par des DRM entrait dans le champ de compétences du groupe de travail consacré au HTML au sein du consortium Web.
Autrement dit, la controversée EME, pour Encrypted Media Extension, dont nous vous parlions en mars dernier, pourrait effectivement se trouver standardisée, pour la plus grande satisfaction de Microsoft, Google et d’autres acteurs du Net.

Web ouvert contre DRM

L’Electronic Frontier Foundation, qui s’était inquiétée dès les premiers temps de cette évolution, se dit « profondément déçue » car le W3C cède ainsi le contrôle du navigateur à une tierce partie, le distributeur de contenu. Le W3C qui est perçu comme « un gardien du Web ouvert » semble ainsi abandonner le contrôle de nos machines et de notre expérience Web à des sociétés aux intérêts commerciaux avérés.
L’EFF s’inquiète également des dégâts que cela pourrait causer au W3C lui-même. Car, les« DRM sont difficiles à concevoir, font peu pour éviter le piratage, et, par nature, ne facilitent pas le vie de l’utilisateur ».
Au sein du W3C, certains ont déclaré que la standardisation des DRM ne pourrait être pire que la multitude de formats actuels, comme Silverlight et Flash. Une position pragmatique que Tim Berners-Lee lui-même a d’ailleurs défendue à plusieurs reprises.

Le poids des lobbies

Mais, comme le souligne l’EFF, ouvrir la porte à l’EME, c’est donner satisfaction à la seule industrie américaine du cinéma et à ses défenseurs en ligne, comme Netflix. D’autres intérêts et défenseurs de propriétés intellectuelles se manifesteront ensuite, ce qui pourrait, dans un scénario catastrophe pas si improbable, aboutir à verrouiller peu à peu les contenus présents sur le Web : la vidéo, l’audio, la photo et puis le texte.

Vers encore plus de fermeture ?

D’ailleurs, le danger d’érosion, de démantèlement de l’esprit d’ouverture qui anime le Web, n’est pas juste une fiction. Un groupe de travail s’est créé au sein du W3C, avec pour objectif de protéger le code source des applications Web qui vont se multiplier avec la montée en puissance du HTML 5. Or, cette ouverture du code n’est pas du goût de tous. Pour protéger« les intérêts des développeurs Web », ce groupe veut trouver des mécanismes de protection du code, car « la publicité des codes source devient un problème. Parce que les développeurs Web ne souhaitent pas que les applications Web soient facilement copiables par les autres »lit-on sur la page d’accueil de ce groupe de travail. Au temps pour l’ouverture du Web.

Reste comme espoir que la communauté du Web refuse cette solution et trouve un moyen de l’éviter. Le W3C aurait alors la possibilité de faire machine arrière. On a pourtant peine à croire que Tim Berners-Lee, défenseur du Web et des intérêts et libertés des Internautes, fasse ce choix, celui d’un verrou posé sur une porte jusque-là grande ouverte…

A lire aussi :
Le CERN lance un émulateur pour découvrir le Web d’il y a vingt ans
 – 02/10/2013
DRM et Blu-ray : la Hadopi consulte à la demande de l’éditeur de VLC
 – 08/02/2013
WWW 2012 : Tim Berners-Lee défend le Web à cœur ouvert
 – 23/04/2013

REF.: , Sources :
Electronic Frontier Foundation

Page d’accueil du groupe de protection du code des appli Web



Geek: Akihabara,la cité de l'électronique au Japon

Tokyo Akihabara : temple des geeks


Aujourd'hui, nous vous emmenons au paradis des geeks : le quartier d'Akihabara à Tokyo au Japon.

Aujourd'hui, nous vous emmenons au paradis des geeks : le quartier d'Akihabara à Tokyo au Japon. Pour la Chaîne techno, Patrick-Pierre Garcia est allé prendre la température dans les boutiques d'accessoires et de produits high-tech en tout genre. Alors que se tient actuellement le salon spécialisé Ceatec, Akihabara vibre à 1 000 megahertz !


Le dimanche les rues devienne piétonne.Les magasins devienne des marchés aux puces dans la rue ,et l'ont retrouve encore des VHS et lecteur dvd que les geeks s'échange entre-eux.

REF.: