Après l'assaut d'AMD sur le segment des
processeurs très haut de gamme, Intel n'a eu d'autre choix que de
débrayer totalement le compteur de ses puces, qui atteignent désormais
un maximum de 18 cœurs. L'objectif est assez simple : reprendre la main
sur les performances.
CARACTÉRISTIQUES
Socket2066
Nombre de coeurs18
Fréquence2.6 GHz
Cache24.75 Mo
Thermal Design Power165 W
Gravure14 nm
PRÉSENTATION
Nous avons publié un article complet dédié aux processeurs Intel Skylake-X et Kaby Lake-X.
Nous vous renvoyons donc vers cet article pour en apprendre davantage
et nous contentons de résumer ici les points forts et points faibles du
Core i9-7980XE. Ce modèle compte 18 cœurs et dispose de
l'Hyper-threading ; il peut donc afficher 36 threads à son
compteur. L'Hyper-threading d'Intel permet d'optimiser les performances
dans certains types d'applications (audio/vidéo/rendu, notamment). La
fréquence de base est de 2,6 GHz et il est possible d'atteindre 4,4 GHz
sur deux cœurs dans certains cas de figure.
Encodage x265
Repos
Efficacité énergétique
Résultats exprimés en watts. Valeur pour l'ensemble de la machine de test. Efficacité énergétique : plus la valeur est élevée, meilleur est le résultat.
POINTS FORTS
Performances en rendu 3D.
Performances en encodage vidéo.
Performances élevées du fait de la présence de 18 cœurs.
POINTS FAIBLES
Performances dans les jeux.
Performances
légèrement en retrait sur les applications peu threadées du fait de la
fréquence de fonctionnement, inférieure au reste de la gamme.
L'apprentissage profond1 (en anglais deep learning, deep structured learning, hierarchical learning) est un ensemble de méthodes d'apprentissage automatique
tentant de modéliser avec un haut niveau d’abstraction des données
grâce à des architectures articulées de différentes transformations non
linéaires[réf. souhaitée].
Ces techniques ont permis des progrès importants et rapides dans les
domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage.
Dans les années 2000, ces progrès ont suscité des investissements
privés, universitaires et publics importants, notamment de la part du
GAFA (Google, Apple, Facebook, Amazon)2.
Le « deep learning » fait partie d’une famille de méthodes d'apprentissage automatique
fondées sur l’apprentissage de modèles de données. Une observation
(comme une image) peut être représentée de différentes façons par un vecteur de données en fonction de :
l’intensité des pixels dont elle est constituée ;
ses différentes arêtes ;
les différentes régions de forme particulière ;
etc.
Certaines représentations et une bonne capacité d'analyse automatique des différenciations5 rendent la tâche d’apprentissage plus efficace.
Une des perspectives des techniques de l'apprentissage profond est le
remplacement de travaux qui aujourd’hui sont encore relativement
laborieux par des modèles algorithmiques d’apprentissage supervisé, non supervisé
(c’est-à-dire ne nécessitant pas de connaissances spécifiques du
problème étudié) ou encore par des techniques d’extraction hiérarchique
des caractéristiques.
Les recherches dans ce domaine s’efforcent de construire de
meilleures représentations du réel et de créer des modèles capables
d’apprendre ces représentations à partir de données non labellisées à
grande échelle. Certaines de ces représentations s’inspirent des
dernières avancées en neuroscience qui sont grosso modo des
interprétations du traitement de l’information et des modèles de
communication du système nerveux, de la même façon que le système
nerveux tente d’établir des connexions en fonction des messages reçus,
de la réponse neuronale consécutive et du poids des connexions entre les
neurones du cerveau.
Les différentes architectures de « deep learning » telles que
les « deep neural networks », les « convolutional deep neural
networks », et les « deep belief network » ont des champs d’application
tels que la vision par ordinateur, la reconnaissance automatique de la parole, le traitement automatique du langage naturel, la reconnaissance audio et la bioinformatique6,7 où elles ont démontré qu’elles étaient capables de produire d’excellents résultats pour différentes problématiques.
Processeur DLU : Fujitsu promet 10 fois plus d'efficacité pour l'intelligence artificielle
Après le CPU et le GPU, voici le DLU.
Fujitsu a récemment annoncé avoir travaillé sur un processeur dédié à l’apprentissage automatique depuis 2015.
Répondant au nom de DLU (Deep Learning Unit), il optimise la gestion
des données en FP32, FP16, INT16 et INT8, la firme ayant déjà démontré
que ce type de calculs offrait d’excellents résultats, malgré une
précision moins importante. Le japonais affirme que la puce offre un
rapport performances/Watt dix fois supérieur à la concurrence.
Nouvelle architecture
L’architecture
est bâtie autour de coeurs nommés DPU (Deep Learning Processing Unit).
Le nombre exact de DPU est inconnu, mais on sait que chacun d’entre eux
intègre 16 DPE (Deep Learning Processing Element), et chaque DPE
offre huit unités d’exécution SIMD (Single Instruction Multiple Data),
ainsi qu'un grand banc de registre au lieu d’une mémoire cache L1
traditionnelle. L’avantage de cette structure est que le banc
est complètement programmable pour plus de flexibilité. Enfin, le
package utilise une mémoire HBM2 partagée comme cache centralisé.
Les premiers DLU devraient sortir des chaînes de production l’année prochaine.
Ils serviront de coprocesseur aux CPU SPARC déjà installés dans les
supercalculateurs de Fujitsu. La firme devra aussi développer des
applications tirant parti de sa nouvelle architecture.
La huitième génération de processeurs Intel Core,
nom de code du Coffee Lake, sera lancée dans la deuxième moitié de 2017.
Plus tôt que prévu, mais avec une gravure en 14nm.
Plus tôt ce mois-ci, Intel a levé quelques interrogations pendant une
conférence dédiée aux investisseurs : la huitième génération d’Intel
Core, qui répond au doux nom de Coffee Lake, prendra le relais du Kaby
Lake dès le second semestre 2017. Intel aurait donc accéléré la
commercialisation de sa solution, et promet une amélioration des
performances d’environ 15 % par rapport à la génération précédente. Par
contre, la conséquence de ce changement de feuille de route est visible :
la gravure sera en 14nm. Ce sont des puces que l’on pourrait retrouver à
termes sur quelques netbooks et Chromebooks haut de gamme sous Android
ou Chrome OS. Il faudra encore patienter jusqu’à 2018 pour les gravures plus fines,
avec du 10nm en 2018. A priori, le 10nm sera donc réservé à Cannon
Lake, une solution très attendue, surtout face à son principal
concurrent : AMD. En effet, AMD va lever les voiles sur Ryzen en mars prochain. Ryzen
mettra en vedette huit cœurs et 16 threads dans sa partie haut de gamme,
avec des versions à six et quatre cœurs sur le reste de la gamme. AMD
pourrait se refaire une santé, avec une solution aussi puissante que
l’Intel Core i7 6900K, mais avec un TDP plus faible et des prix plus
bas. Le tout avec une gravure de 14nm. Du côté des puces ARM, Qualcomm, Samsung et Apple préparent l’arrivée des premières puces gravées en 10nm.Le Qualcomm Snapdragon 835 sera d’ailleurs la première puce commercialisée avec cette finesse de gravure. REF.:
La
prochaine version de la microarchitecture de processeur d'Intel
s'appelle Kaby Lake, qui forme le successeur de Skylake et les puces qui
l'utilisent commencent tout juste à apparaître. Kaby Lake est un processeur 14nm avec très peu de changements à l'architecture CPU par rapport à Skylake. Il est préférable de le considérer comme un raffinement, promettant
une vitesse d'horloge du processeur plus rapide, des fréquences Turbo
plus élevées et une nouvelle architecture graphique permettant de
meilleures performances 3D et 4K. Une
petite amélioration de la performance dans l'ensemble peut ne pas être
suffisante pour tenter une mise à niveau des pilotes Skylake déjà en
cours d'exécution. Cependant, le lac Kaby semble avoir un as dans sa manche: c'est idéal pour l'overclocking. Le processeur le plus performant du lac Kaby Intel prévoit actuellement d'offrir le Core i7-7700K. Il fonctionne à une vitesse d'horloge de 4,2 GHz, avec Turbo augmentant à 4,5 GHz. C'est impressionnant, mais comme HotHardware rapports, site russe
OCLab (traduit) a réussi à se procurer un 7700K et a décidé de voir ce
qu'il pouvait vraiment faire. Core i7 7700K overclock En
utilisant le refroidissement à l'azote liquide, ils ont placé la puce
du lac Kaby dans une carte mère Z170 et ont commencé à accélérer la
vitesse. Quand ils ont été faits, la puce était en cours d'exécution à 7022.96MHz, donc 7GHz! Typiquement
avec ces overclock massifs, à moins que vous soyez disposé à avoir une
provision abondante de l'azote liquide sur la main vous ne les
atteindrez jamais pour votre PC de bureau. Ils
exigent également que tous les noyaux de la puce soient supprimés, à
l'exception d'un seul, ce qui rend le noyau unique de la CPU. Cependant, là encore, la puce Kaby Lake impressionné que cette vitesse
7GHz a été atteint avec deux cœurs encore en cours d'exécution.en relation
Nouveau Dell XPS 15 fuites avec Quad Core Kaby Lake, GTX 1050 GPU Nouveau Dell XPS 15 fuites avec Quad Core Kaby Lake, GTX 1050 GPU Il reste encore de la marge pour augmenter la vitesse de l'overclock. J'ai mentionné la carte mère Z170 ci-dessus car c'est un conseil plus vieux. Kaby Lake obtient sa propre ligne de cartes mères construites
spécifiquement pour le soutenir, ce qui signifie qu'il est possible
d'aller encore plus vite quand ils sont disponibles. Donc,
si vous aimez overclocking votre PC de jeu, et surtout si vous utilisez
le refroidissement liquide, un processeur Kaby Lake devrait
certainement être sur votre liste d'achat. Tandis que vous ne frappez pas 7GHz, plus de 5GHz devrait être
facilement réalisable, et avec quelques ajustements, je devine 6GHz
pourrait être atteignable sans éteindre l'un des cœurs. Je
soupçonne que nous allons obtenir un certain nombre de ces tests
d'overclocking que plus de processeurs Intel 7ème génération sont
expédiés. Espérons
qu'ils prouvent qu'OCLab n'était pas chanceux avec le processeur qu'il a
obtenu et les jetons de lac de Kaby sont fantastiques pour overclocking
à travers le conseil.
La
division Qualcomm pour les produits de centre de données a démontré sa
plateforme serveur Centriq 2400 conforme au protocole ARMv8 basée sur le
processus de fabrication de 10nm. Le serveur SOC 48-core est disponible pour l'échantillonnage et il est
attendu pour frapper les marchés au second semestre de 2017.Qualcomm Datacenter Technologies, Inc. - une partie de Qualcomm - a
commencé l'échantillonnage commercial du Qualcomm Centriq 2400, un
processeur de serveur basé sur ARMv8 qui utilise un processus de
fabrication de 10nm. La
semaine dernière, la société a publié le premier membre de la famille
Qualcomm Centriq comme une tentative d'incursion dans le marché des
centres de données avec leurs processeurs ARMv8 basés sur
l'architecture. La société a également démontré un Qualcomm Centriq 2400 exécutant Apache Spark et Hadoop sur Linux et Java. Qualcomm fait remarquer que les technologies utilisées dans les
serveurs et les centres de données sont principalement influencées par
la philosophie open source, ce qui facilite l'utilisation de produits
efficaces par des entreprises comme Qualcomm.Qualcomm-cnetriq-2400-1Image: Qualcomm En outre, il ya eu un changement opérationnel dans la façon dont les
entreprises utilisent des serveurs, la plupart d'entre eux se dirigeant
vers le modèle basé sur le nuage, contribuant ainsi à la création de
méga centres de données qui à leur tour source de serveurs plates-formes
directement à partir ODMs. Qualcomm Centriq 2400 dispose de 48 cœurs de processeurs Falkor capables de gérer des charges de travail de classe serveur. En outre, tout logiciel conçu pour d'autres plates-formes de serveur ARMv8 peut fonctionner sur le Qualcomm Centriq 2400. Qualcomm
s'attend à ce que la plate-forme serveur conforme à ARMv8 -
actuellement disponible pour un échantillonnage limité - atteigne les
marchés au cours de la deuxième moitié de 2017.
De
plus en plus d’experts critiquent ouvertement le composant Management
Engine qu’Intel embarque dans tous ses chipsets récents. C’est un
ordinateur dans l’ordinateur, doté d’énormes privilèges d’accès et dont
le code est complètement opaque.
La communauté du logiciel libre tire la sonnette
d’alarme. Selon elle, la sécurité de la plupart de nos équipements
informatiques est compromise, et les coupables sont tout désignés : les
puces Intel de dernière génération. Plusieurs porte-paroles de la
communauté libre ont récemment publié des notes de blog au vitriol sur
un composant bien étrange qui se trouve désormais intégré dans les CPU
d’Intel : le « Management Engine » (ME).
Pour les partisans du libre, cette petite entité – qui est censée
fournir tout une ensemble de services de sécurité (Trusted Platform
Module) et d’administration à distance (Active Management Technology) –
est le diable en silicium. C’est un véritable ordinateur à l’intérieur
de l’ordinateur. Il dispose de son propre système d’exploitation
(propriétaire) et de ses propres interfaces réseaux (adresse MAC). Il a
un accès direct à la mémoire du PC et peut prendre son contrôle à
n’importe quel moment. Et, bien sûr, il ne peut jamais être désactivé.
Bref, c’est le mouchard idéal. « Il peut allumer ou éteindre le
PC, ouvrir tous les fichiers, examiner toutes les applications lancées,
connaître les mouvements de la souris et l’enfoncement des touches de
clavier, et même capturer ou insérer des images sur l’écran », explique Leah Woods, développeuse en chef de Libreboot, dans une note de blog de la Free Software Foundation. Libreboot est un BIOS libre que Leah Woods et ses amis installent sur des PC Linux que l’on peut acheter sur Minifree.org.
Un code impossible à remplacer
La deuxième salve anti-Intel est venue de Damien Zammit, qui
participe également au projet Libreboot. Pour ce développeur, ME est une
dangereuse boîte noire qui, si elle est compromise par un attaquant,
permet d’installer des portes dérobées (rootkit) « quasi indétectables et imparables »,
explique-t-il sur le site boingboing.net. Dans l’idéal, Damien Zammit
aimerait bien sûr se débarrasser du code propriétaire d’Intel et
installer son propre système sur le ME. Malheureusement, c’est
impossible car le firmware du ME est vérifié par une ROM secrète
intégrée dans le chipset, au travers d’un algorithme de signature
électronique basé sur RSA 2048 bits. « Toutefois, il y a peut-être un bug que l’on peut exploiter dans cette ROM », espère Damien Zammit.
Si les développeurs de Libreboot sont tellement vent debout contre
ME, c’est parce que cette technologie annihile tous leurs efforts. Leur
but est de créer des ordinateurs où toutes les couches informatiques
sont libres et open source : le matériel, le BIOS, le système
d’exploitation, les applications. Le ME représente, de ce point de vue,
un obstacle incontournable.
Tous des PC zombies
Des chercheurs en sécurité ont également planché sur ce problème.
C'est notamment le cas de Joanna Rutkowska. En décembre dernier, à
l’occasion de la conférence 32C3,
cette chercheuse d'Invisible Things Labs a détaillé le fonctionnement
du Management Engine d'Intel et listé ses différentes voies d’accès dans
le PC. On voit bien que le ME dispose de privilèges hors du commun,
alors que « personne ne sait ce qu’il y a dedans ».
Pour Joanna Rutkowska, le ME « n’est pas seulement un
redoutable vecteur d’attaque, il transforme également tous nos PC en PC
zombies ». Selon elle, le but d’Intel est d’inverser le modèle
d’implémentation actuel, où le système d’exploitation et les
applications prennent en charge les traitements de données sensibles,
comme le chiffrement ou la génération de nombres aléatoires.
Ces traitements seraient alors progressivement transvasés vers le
matériel et, notamment, le ME. « Le code du ME n’est pas forcément
malveillant, mais peut-être qu’il contient des erreurs, peut-être que
l’implémentation n’a pas été faite de manière correcte. Intel,
évidemment, pense que tout ce qu’il fait est forcément sécurisé… »,
souligne-t-elle.
Pour sa part, Joanna Rutkowska a proposé un modèle
d’implémentation matérielle alternatif orienté vers une sécurité
maximale. Son PC idéal est celui qui ne garde aucune donnée de manière
persistante (« stateless hardware »). Les données persistantes sont
stockées sur des « clés USB de confiance » (« trusted sticks »).
En définitive, cette puce omnipotente et totalement opaque, la
Management Engine, s'avère inquiétante. On comprend assez facilement
pourquoi Damien Zimmer la surnomme la Damagement Engine. Un processeur
qui, au-delà de son but premier, menace et fragilise votre sécurité et
celle de votre machine... Sources.: Boingboing, FSF
Joanna Rutkowska: article sur la technologie Intel, article sur l’architecture PC non persistante
Un accord de licence entre AMD et une
nouvelle entreprise chinoise laisse entrevoir la possibilité de
l'arrivée de nouveaux concurrents sur le marché du x86.
Voilà de quoi relancer la guerre du x86 : AMD annonce la mise au
point d'un accord de licence avec une toute nouvelle entreprise
chinoise, THATIC (Tianjin Haiguang Advanced Technology Investment Co.
Ltd.), concernant le design de ses processeurs pour serveurs. L'accord
consiste à fournir toute la technologie nécessaire (CPU, interconnexions
et contrôleurs) à THATIC afin de leur permettre de concevoir des
variantes de puces x86 destinées aux serveurs. Par cette session, AMD va
entrer au capital de THATIC, qui est un consortium de plusieurs
entreprises.
Expansion pour AMD, concurrence pour Intel
Ce type d'accord pourrait permettre à AMD d'étendre sa présence
technologique, tout en gagnant de l'argent grâce à ses propriétés
intellectuelles et industrielles. Certains analystes pensent qu'AMD
pourrait donc multiplier ce type de licence, pour finalement faire de
même avec ses processeurs grand public pour PC, et même avec ses
architectures GPU !
Licence sur l'architecture Zen ?
Les analystes pensent aussi que les accords de licence portent sur la
nouvelle architecture Zen d'AMD, qui s'annonce être la plus performante
du fabricant depuis plus d'une dizaine d'années. Plus important encore,
les mêmes experts pensent que cet accord de licence va donner un accès
au gouvernement chinois sur le x86. Source.:
Intel annonce, via son rapport annuel, la fin de son modèle de développement bien connu, le tick-tock model.
Traditionnellement, et depuis plusieurs années déjà, Intel développe ses microprocesseurs selon un modèle connu sous le nom de tick-tock
ou tic-tac en français dans le texte. L'idée est simple : les
processeurs en tick bénéficient d'une finesse de gravure supérieure
quand les processeurs en tock restent sur le même processus de
fabrication mais étrennent une nouvelle micro-architecture.
Ce cadencement permettait d'étrenner les nouveaux process
industriels sur une architecture connue et maîtrisée et de dissocier
architecture et finesse de gravure histoire d'éviter certains errements
comme au temps du Pentium 4. Seulement voilà si le tick-tock model
a tenu de longues années, il faut bien reconnaître qu'il était battu en
brêche avec Broadwell et Skylake dont les retards furent notables.
D'autant qu'Intel se rapproche inexorablement des limites des lois
actuelles de la physique où l'amélioration d'un process se fera de plus en plus difficile.
Aussi, sans tambour ni trompette, Intel annonce la fin du tick-tock model
chantre de la loi de Moore qui veut que la densité de transistor double
tous les 18 mois. Dans son rapport annuel transmis aux autorités
boursières américaines, Intel explique discrètement que le tick-tock model appartient au passé. Le fondeur explique ainsi : « Nous
prévoyons de lancer de nouvelles microarchitectures de processeurs
selon une cadence régulière. Nous nous attendons à allonger la durée
d'utilisation de notre processus 14nm et de notre prochaine génération
de technologies 10nm, optimisant ainsi nos produits et processus
technologiques en répondant à la demande annuelle de lancement produit
du marché ».
Pour accompagner cette explication, Intel présente son nouveau
cadencement : Processus, Architecture et Optimisation. Et la suite,
après les processeurs Core de sixième génération a un nom : Kaby Lake.
Une génération de processeurs qui sera toujours en 14nm avec, selon
Intel : « des améliorations clés en termes de performance face à la famille de processeurs Core de sixième génération
». En clair, Kaby Lake sera la génération de processeurs correspondant à
l'optimisation. C'est Canon Lake, attendu pour le second semestre 2017,
qui devrait répondre à la partie processus de ce nouveau modèle de
développement.
Sur le plus long terme, Intel reste un acteur clé de l'industrie du
semi-conducteur avec une capacité industrielle certaine. L'américain
possède en effet ses propres usines ou fabs dans le jargon. Intel
précise dans son rapport qu'il dispose toujours d'un avantage
concurrentiel décisif en fabriquant ses puces dans ses usines. Intel
note toutefois que « le coût de la construction d'usines à la pointe
de la technologie va augmenter, ce qui fait que moins de compagnies de
semiconducteurs pourront s'appuyer à la fois sur le design et la
fabrication ».
N'en demeure pas moins donc que le 10nm n'est pas tout à fait à l'heure
chez Intel, alors que la concurrence, TSMC en tête, planche déjà sur le
7nm. Tandis que le process 10nm d'Intel et le 7nm de TSMC devraient tous
deux offrir la même densité de transistors, il faudra s'intéresser aux
performances desdits transistors.
Wafer de puces Intel Skylake, des processeurs Core de sixième génération
Si vous espériez pouvoir profiter d'un matériel très récent pour votre PC tout en restant sur votre ancienne version préférée de Windows (XP, 7, 8 ?), il vous faudra peut-être revoir vos plans. En effet, les récents processeurs AMD, Intel et Qualcomm nécessiteront la version actuelle de Windows (10, donc) pour profiter du support aux entreprises...
Si Microsoft vient de publier une liste de processeurs Skylake qui
seront supportés avec Windows 7 et Windows 8.1, ce programme cessera le
17 Juillet 2017. Après cela, il faudra migrer vers Windows 10, si tant
est que vous souhaitiez bénéficier de ce genre de support, bien entendu.
Cette nouvelle politique devrait permettre à Microsoft de pousser
plus loin encore l’intégration entre Windows et le hardware. Et cela
permettra aussi à la firme de Redmond de résoudre, ou d’atténuer à tout
le moins, l’un de ses plus gros problèmes : le manque de mise à jour de
Windows en entreprise. Nombreuses sont en effet les sociétés à rester
sur de vieilles versions le plus longtemps possible, à tel point que
certains revendeurs – Dell par exemple – proposent des machines avec ces
vieilles versions préinstallées.
La fondation Raspberry Pi crée la surprise en lançant ce matin le Raspberry Pi 2, la nouvelle génération de son célèbre single-board computer, alors qu'elle n'était pas attendue avant un ou deux ans.
Le Raspberry Pi 2 démultiplie les performances au point de devenir « un ordinateur utilisable », et plus seulement « un bon ordinateur pour son prix
», selon le fondateur de la fondation, Eben Upton. Le nouvel ordinateur
monocarte adopte un nouveau jeu d'instructions et s'ouvre ainsi à des
systèmes d'exploitation comme Ubuntu ou même… Windows 10 ! La fondation précise que Microsoft détaillera cet aspect les prochains mois, mais on sait déjà qu'il sera gratuit.
Eben Upton, qui est aussi ingénieur pour Broadcom, affirme que le
Raspberry Pi 2 est 6 fois plus performant que les Pi 1 Model B en
multithread, et 3 fois plus en monothread. Le nouveau modèle adopte donc
un nouveau jeu d'instructions, et il passe au multi-cœurs. Il passe
plus précisément d'une puce Broadcom BCM2835 à un seul cœur ARMv6 ARM11 à
700 MHz à une nouvelle BCM2836, développée spécifiquement elle aussi,
comportant quatre cœurs ARMv7 Cortex-A7 à 900 MHz. La quantité de
mémoire vive LPDDR2 est quant à elle doublée et passe à 1 Go. On
retrouve en revanche strictement le même GPU double cœur VideoCore IV, «
le seul GPU ouvert pour puce ARM ».
La seconde génération maintient ainsi la compatibilité avec la
quasi-totalité des solutions conçues pour la première, y compris sur le
plan matériel, puisqu'elle reprend la disposition et la connectique du Pi 1 Model B+
lancé il y a six mois. La fondation prépare néanmoins de nouvelles
versions de NOOBS et de Raspbian incluant à la fois le noyau ARMv6
existant ainsi qu'un nouveau noyau ARMv7. La compatibilité ascendante ne
sera en revanche plus garantie : on risque fort de voir apparaitre des
solutions tirant profit de la puissance de calcul du Pi 2 et compatibles
exclusivement avec celui-ci. Jusqu'à présent, la quasi-totalité des
logiciels pour Raspberry Pi étaient compatibles avec tous les modèles.
Il y a toutefois un dernier aspect important que la fondation est
parvenue à maintenir, c'est le prix de 35 dollars. Et le Raspberry Pi 2
est disponible dès à présent auprès des revendeurs habituels. Le premier
lot compte 100 000 unités, et les usines produisent quotidiennement des
milliers d'exemplaires supplémentaires. Les Pi 1 Model B+ et A+ sont maintenus. La fondation estime enfin qu'il y a un créneau pour un Pi 2 Model A, mais elle ne livre encore rien de concret.
Qualcomm vient de dévoiler en vidéo
quatre nouvelles gammes de SoC dont la sortie sera échelonnée de la fin
de l’année 2014 au début de l’année 2015. Quatre gammes visant à étoffer
les séries de Snapdragon 400, 600 et 800, de quoi donc contenter aussi
bien le milieu que le haut de gamme. Une potentielle réponse à Mediatek après la révélation hier de la sortie pour la fin de l’année du MT6795, premier processeur octocore 64 bits qui équipera les smartphones haut de gamme?
Snapdragon 410, le 64 bits de milieu de gamme
Le
plus modeste du lot, le Qualcomm Snapdragon 410 sera l’évolution du 400
qui équipe encore actuellement le Moto G ou le Galaxy S4 Mini.
Contrairement à ce dernier, le 410 sera un quadricoeur qui introduira qui plus est une architecture 64 bits-ready
sur des processeurs non haut de gamme. Constitué de quatre Cortex A53
cadencés à 1,4 GHz, il sera équipé d’origine d’un GPU Adreno 306 et
supportera des capteurs photo jusqu’à 13,5 megapixels.
Snapdragon 610/615, H.265 et 4K au programme
La gamme 600 sera quant à elle complétée par deux nouveaux processeurs : le 610 et le 615, qui avaient déjà fait parler d’eux au Mobile World Congress au mois de février.
Ce dernier est un octocoeur construit sur l’alternance de quatre Cortex
A53 cadencés à 1,7 GHz et de quatre autres à 1 GHz, tandis que le
premier ne sera qu’un quadricoeur.
Au-delà de cette différenciation, tous deux supporteront le 64 bits et seront équipés d’un GPU Adreno 405 et pourront lire les fichers encodés en H.265. Ils assureront également l’affichage en 4K sur les téléviseurs équipés.
Snapdragon 805, l’accent sur les performances graphiques
Le
Snapdragon 805, qui équipe déjà le Galaxy S5 LTE-A en Corée, s’inscrit
dans la continuité du 801 en misant avant tout sur des performances
graphiques maximisées. Équipé du nouveau GPU Adreno 420 à 600 MHz, il
sera capable d’assurer l’enregistrement et la lecture de vidéos 4K sur le terminal, gérera des capteurs photo jusqu’à 55 mégapixels et décodera lui aussi le nouveau standard H.265.
Snapdragon 808/810, le très haut de gamme Qualcomm
Le sommet du haut de gamme de Qualcomm sera occupé par les Snapdragon 808 et 810, ce dernier ayant déjà lui aussi fait forte impression lors de son annonce
au mois de janvier dernier. Si ces derniers ne seront pas disponibles
avant début 2015, leurs spécifications semblent bien alléchantes. Le 810
sera ainsi constitué de quatre Cortex A57 64 bits et quatre Cortex A53.
Son GPU, l’Adreno 430, sera 30% plus rapide et 20% moins énergivore que
son prédécesseur, le 420.
Moins
puissant, le Snapdragon reste tout de même très intéressant dans ses
caractéristiques puisque cet hexacoeur composé de deux Cortex A57 64
bits et quatre Cortex A53 supportera l’affichage en WQXGA (2560 x 1600
pixels) et disposera lui aussi de la mémoire LPDDR3.
Une photo du
planning des sorties des nouveautés Mediatek a révélé la sortie dans les
prochains mois d’une nouveau processeur, le MT6795, qui devrait
succéder au MT6595, lui-même encore en phase de déploiement, et ainsi
équiper les futurs smartphones de haut de gamme. Ils succèdent eux-même
au MT6592, premier vrai SoC à huit coeurs.
Contrairement à son prédécesseurs, le MT6795 embarquera huit coeurs 64 bits au lieu de 32
pour une cadence maximale de 2.2 GHz. On ne sait pas encore avec
exactitude quel sera la nature de ces huit coeurs, mais il semblerait
que l’architecture du processeur soit construite autour de Cortex A53,
dont on ne sait pas encore s’ils alterneront avec un autre modèle. Pour
information, le MT6595 est quand à lui composé de quatre Cortex A-7 et
de quatre Cortex A-17, ce qui laisse à croire à l’hypothèse d’une
architecture big.LITTLE dans le cas du MT6795.
Il
sera par ailleurs capable de gérer des capteurs photo de 20 mégapixels
et de filmer en Ultra HD tout supportant le codec 4K H.265, deux fois
plus léger que le H.264 (ce qui signifie pour une qualité identiques, un
fichier codé en H.265 sera deux fois plus léger) auquel il devrait à
terme succéder. Il permettra également l’affichage de la définition
WQXGA dont la résolution maximale sera de 2560 x 1600 pixels.
On s’étonnera cependant qu’au niveau des caractéristiques réseau, le processeur ne puisse supporter que la 4G
(avec une vitesse de download maximal de 150 Mbps et d’upload de
50Mbps), alors que la 4G+ commence à faire son apparition et devrait se
démocratiser assez rapidement dans les grandes villes.
Comme le laisse suggérer le planning de Mediatek, le MT6795 devrait faire son apparition dans les premiers smartphones à la fin de l’année 2014,
même si on peut s’attendre à le voir faire son apparition au début de
l’année 2015. Et pourquoi pas notamment sur la prochaine gamme de Nexus,
au vu de la bonne entente entre Mediatek et Google?
IDF 2012 : Intel Haswell, des puces pour ultrabook en 2013
A l'occasion de l'IDF 2012 de San Francisco, Intel a présenté sa prochaine génération de processeurs x86, appelée Haswell. Sa disponibilité est annoncée pour le milieu de l'année 2013.
La quatrième génération de processeurs Core d’Intel (nom de code Haswell) utilise le procédé de gravure 22 nm inauguré par les puces Ivy Bridge. Selon la dénomination utilisée par Intel, les processeurs Haswell correspondent à un « Tock » (un changement d'architecture) alors qu’Ivy Bridge n'était qu'un « Tick » (une évolution d'une architecture existante).
Les puces Haswell introduiront donc une nouvelle architecture et de nouvelles fonctions, tout en s’appuyant, quand même, sur les spécificités mises au point pour les processeurs Sandy et Ivy Bridge.
Toujours multicœur, avec prise en charge de l'hyperthreading, cette nouvelle famille de processeurs est clairement destinée aux ultrabooks et autres machines ultramobiles. Des versions pour PC de bureau et portables « classiques » seront bien entendu disponibles au lancement, mais aucune information n'a filtré à ce propos.
Les diagrammes que nous avons pu voir montrent clairement l'empreinte de Sandy Bridge dans les Haswell. L'organisation des cœurs, du cache, de l'agent système et de la puce graphique sont identiques et tous restent servis par un « anneau » faisant le lien entre toutes les parties de la puce. Toutefois, la façon dont les cœurs des processeurs Haswell traitent l’information est améliorée. La gestion en simultané ou en parallèle de plusieurs informations devrait être encore plus rapide. Cela est rendu possible, entre autres, par l’augmentation de la bande passante et une latence diminuée entre plusieurs parties du processeur (la quantité de cache L1 et L2 reste identique à Sandy/Ivy Bridge).
Parmi les technologies/particularités présentes dans les Haswell, on retrouve le Turbo Boost, qui permet, rappelons-le, d'augmenter la fréquence des cœurs dynamiquement en fonction de leur charge de travail, l’intégration du contrôleur mémoire DDR3 et des lignes PCI-Express (pour les cartes graphiques). Le contrôleur graphique est également intégré dans la puce, de même que le jeu d’instructions AVX, pour les applications et développeurs, qui passe ici en version 2.
Les composants de la gestion de l'alimentation (VR) intégrés dans le circuit de la puce semblent également au rendez-vous, tout comme l'intégration, sur certaines références, du dernier élément du chipset qui gère les interfaces d'entrée/sortie (USB, PCI-Express, Sata, etc.).
Intel affirme avoir encore peaufiné sa « sauce secrète » pour réguler à la fois la consommation des cœurs du processeur et leur entrée « en hibernation ». Les futures puces seraient en effet capables de s'activer/désactiver plus rapidement en fonction des besoins des applications et d'adapter encore plus finement la puissance requise.
Enfin, l’ensemble de la puce bénéficie bien d’un nouvel état de fonctionnement « l'Active Idle » (S0ix). Ce mode de consommation permettrait à la puce de pouvoir rester sur le qui-vive en cas de sollicitation brutale, tout en consommant une quantité infime de courant. A grand renfort de graphiques, Intel nous a expliqué que cette fonction trouverait tout son sens sous Windows 8, car elle serait en adéquation parfaite avec la gestion de l'énergie et les routines d'usage du nouveau système de Microsoft.
Pour cette nouvelle génération de processeurs, Intel élargit sa famille de contrôleurs graphiques intégrés. Il y en a dorénavant trois déclinaisons et non plus deux comme sur Sandy et Ivy Bridge. Pour le moment, ils se nomment GT1, GT2 et GT3. Ils sont compatibles DirectX 11.1 (version de DX de Windows 8) et partagent un tronc d'éléments fonctionnels commun.
Plus spécifiquement, GT1 et GT2 sont, a priori, identiques. Ils ont recours à la même quantité d'unités/moteurs de traitement de données graphiques. Le GT3, quant à lui, constitue le haut de gamme et embarque le plus grand nombre de moteurs graphiques gérant les pixels et les textures. A l'heure actuelle, Intel n’a fourni aucune information détaillée sur les fréquences ou encore la quantité de mémoire allouée aux parties graphiques. Nous en saurons plus dès que le fondeur dévoilera – définitivement et dans le détail – sa gamme de processeurs mobiles et de bureau courant de l'année prochaine.