Powered By Blogger

Rechercher sur ce blogue

Aucun message portant le libellé cpu. Afficher tous les messages
Aucun message portant le libellé cpu. Afficher tous les messages

jeudi 12 octobre 2017

Intel Core i9-7980XE : le processeur puissance 18


Après l'assaut d'AMD sur le segment des processeurs très haut de gamme, Intel n'a eu d'autre choix que de débrayer totalement le compteur de ses puces, qui atteignent désormais un maximum de 18 cœurs. L'objectif est assez simple : reprendre la main sur les performances.

CARACTÉRISTIQUES

  • Socket 2066
  • Nombre de coeurs 18
  • Fréquence 2.6 GHz
  • Cache 24.75 Mo
  • Thermal Design Power 165 W
  • Gravure 14 nm

PRÉSENTATION

Nous avons publié un article complet dédié aux processeurs Intel Skylake-X et Kaby Lake-X. Nous vous renvoyons donc vers cet article pour en apprendre davantage et nous contentons de résumer ici les points forts et points faibles du Core i9-7980XE. Ce modèle compte 18 cœurs et dispose de l'Hyper-threading ; il peut donc afficher 36 threads à son compteur. L'Hyper-threading d'Intel permet d'optimiser les performances dans certains types d'applications (audio/vidéo/rendu, notamment). La fréquence de base est de 2,6 GHz et il est possible d'atteindre 4,4 GHz sur deux cœurs dans certains cas de figure.


Encodage x265
Repos
Efficacité énergétique






Intel Core i9-7980XEIntel Core i9-7900XIntel Core i7-7740XIntel Core i7-7700KIntel Core i5-7600KIntel Core i5-7500Intel Core i3-7350KIntel Core i3-7300Intel Core i3-7100Intel Pentium G4600Intel Pentium G4560Intel Celeron G3930Intel Core i7-6900KIntel Core i7-6800KIntel Core i7-6700KIntel Core i5-6600KIntel Core i5-6500Intel Core i3-6100Intel Core i5-5675CIntel Core i7-4770KIntel Core i5-4690KIntel Core i3-4430Intel Core i3-4370RyzenThreadripper 1950XRyzen Threadripper 1920XAMD Ryzen 7 1800XAMD Ryzen 7 1700XAMD Ryzen 7 1700AMD Ryzen 5 1600XAMD Ryzen 5 1600AMD Ryzen 5 1500XAMD Ryzen 5 1400AMD Ryzen 3 1300XAMD Ryzen 3 1200AMD FX-8370AMD FX-6300AMD FX-4300AMD A10-7850KAMD A8-7670KAMD A8-7650K0204060801001201401601802002202402602802562101371229786888781677157143131133989376961149887872702691721531351431251069710379190189171136126138
Résultats exprimés en watts. Valeur pour l'ensemble de la machine de test.
Efficacité énergétique : plus la valeur est élevée, meilleur est le résultat.

POINTS FORTS

  • Performances en rendu 3D.
  • Performances en encodage vidéo.
  • Performances élevées du fait de la présence de 18 cœurs.

POINTS FAIBLES

  • Performances dans les jeux.
  • Performances légèrement en retrait sur les applications peu threadées du fait de la fréquence de fonctionnement, inférieure au reste de la gamme.
  • Prix démesuré.
 
 

jeudi 20 juillet 2017

Après le CPU et le GPU, voici le DLU (Deep Learning Unit)

L'apprentissage profond1 (en anglais deep learning, deep structured learning, hierarchical learning) est un ensemble de méthodes d'apprentissage automatique tentant de modéliser avec un haut niveau d’abstraction des données grâce à des architectures articulées de différentes transformations non linéaires[réf. souhaitée]. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage. Dans les années 2000, ces progrès ont suscité des investissements privés, universitaires et publics importants, notamment de la part du GAFA (Google, Apple, Facebook, Amazon)2.


Le « deep learning » fait partie d’une famille de méthodes d'apprentissage automatique fondées sur l’apprentissage de modèles de données. Une observation (comme une image) peut être représentée de différentes façons par un vecteur de données en fonction de :
  • l’intensité des pixels dont elle est constituée ;
  • ses différentes arêtes ;
  • les différentes régions de forme particulière ;
  • etc.
Certaines représentations et une bonne capacité d'analyse automatique des différenciations5 rendent la tâche d’apprentissage plus efficace.
Une des perspectives des techniques de l'apprentissage profond est le remplacement de travaux qui aujourd’hui sont encore relativement laborieux par des modèles algorithmiques d’apprentissage supervisé, non supervisé (c’est-à-dire ne nécessitant pas de connaissances spécifiques du problème étudié) ou encore par des techniques d’extraction hiérarchique des caractéristiques.
Les recherches dans ce domaine s’efforcent de construire de meilleures représentations du réel et de créer des modèles capables d’apprendre ces représentations à partir de données non labellisées à grande échelle. Certaines de ces représentations s’inspirent des dernières avancées en neuroscience qui sont grosso modo des interprétations du traitement de l’information et des modèles de communication du système nerveux, de la même façon que le système nerveux tente d’établir des connexions en fonction des messages reçus, de la réponse neuronale consécutive et du poids des connexions entre les neurones du cerveau.
Les différentes architectures de « deep learning » telles que les « deep neural networks », les « convolutional deep neural networks », et les « deep belief network » ont des champs d’application tels que la vision par ordinateur, la reconnaissance automatique de la parole, le traitement automatique du langage naturel, la reconnaissance audio et la bioinformatique6,7 où elles ont démontré qu’elles étaient capables de produire d’excellents résultats pour différentes problématiques.


Processeur DLU : Fujitsu promet 10 fois plus d'efficacité pour l'intelligence artificielle

jeudi 22 juin 2017

Intel Coffee Lake : une huitième génération de Core toujours en 14nm





La huitième génération de processeurs Intel Core, nom de code du Coffee Lake, sera lancée dans la deuxième moitié de 2017. Plus tôt que prévu, mais avec une gravure en 14nm.

Plus tôt ce mois-ci, Intel a levé quelques interrogations pendant une conférence dédiée aux investisseurs : la huitième génération d’Intel Core, qui répond au doux nom de Coffee Lake, prendra le relais du Kaby Lake dès le second semestre 2017. Intel aurait donc accéléré la commercialisation de sa solution, et promet une amélioration des performances d’environ 15 % par rapport à la génération précédente. Par contre, la conséquence de ce changement de feuille de route est visible : la gravure sera en 14nm. Ce sont des puces que l’on pourrait retrouver à termes sur quelques netbooks et Chromebooks haut de gamme sous Android ou Chrome OS.

Il faudra encore patienter jusqu’à 2018 pour les gravures plus fines, avec du 10nm en 2018. A priori, le 10nm sera donc réservé à Cannon Lake, une solution très attendue, surtout face à son principal concurrent : AMD.
En effet, AMD va lever les voiles sur Ryzen en mars prochain. Ryzen mettra en vedette huit cœurs et 16 threads dans sa partie haut de gamme, avec des versions à six et quatre cœurs sur le reste de la gamme. AMD pourrait se refaire une santé, avec une solution aussi puissante que l’Intel Core i7 6900K, mais avec un TDP plus faible et des prix plus bas. Le tout avec une gravure de 14nm.

Du côté des puces ARM, Qualcomm, Samsung et Apple préparent l’arrivée des premières puces gravées en 10nm. Le Qualcomm Snapdragon 835 sera d’ailleurs la première puce commercialisée avec cette finesse de gravure.

REF.:

jeudi 19 janvier 2017

Processeur Intel Core i7-7700K Kaby Lake Overclocked à 7GHz




La prochaine version de la microarchitecture de processeur d'Intel s'appelle Kaby Lake, qui forme le successeur de Skylake et les puces qui l'utilisent commencent tout juste à apparaître. Kaby Lake est un processeur 14nm avec très peu de changements à l'architecture CPU par rapport à Skylake. Il est préférable de le considérer comme un raffinement, promettant une vitesse d'horloge du processeur plus rapide, des fréquences Turbo plus élevées et une nouvelle architecture graphique permettant de meilleures performances 3D et 4K.
Une petite amélioration de la performance dans l'ensemble peut ne pas être suffisante pour tenter une mise à niveau des pilotes Skylake déjà en cours d'exécution. Cependant, le lac Kaby semble avoir un as dans sa manche: c'est idéal pour l'overclocking.
Le processeur le plus performant du lac Kaby Intel prévoit actuellement d'offrir le Core i7-7700K. Il fonctionne à une vitesse d'horloge de 4,2 GHz, avec Turbo augmentant à 4,5 GHz. C'est impressionnant, mais comme HotHardware rapports, site russe OCLab (traduit) a réussi à se procurer un 7700K et a décidé de voir ce qu'il pouvait vraiment faire.
Core i7 7700K overclock
En utilisant le refroidissement à l'azote liquide, ils ont placé la puce du lac Kaby dans une carte mère Z170 et ont commencé à accélérer la vitesse. Quand ils ont été faits, la puce était en cours d'exécution à 7022.96MHz, donc 7GHz!
Typiquement avec ces overclock massifs, à moins que vous soyez disposé à avoir une provision abondante de l'azote liquide sur la main vous ne les atteindrez jamais pour votre PC de bureau. Ils exigent également que tous les noyaux de la puce soient supprimés, à l'exception d'un seul, ce qui rend le noyau unique de la CPU. Cependant, là encore, la puce Kaby Lake impressionné que cette vitesse 7GHz a été atteint avec deux cœurs encore en cours d'exécution.en relation

    
Nouveau Dell XPS 15 fuites avec Quad Core Kaby Lake, GTX 1050 GPU
    
Nouveau Dell XPS 15 fuites avec Quad Core Kaby Lake, GTX 1050 GPU
Il reste encore de la marge pour augmenter la vitesse de l'overclock. J'ai mentionné la carte mère Z170 ci-dessus car c'est un conseil plus vieux. Kaby Lake obtient sa propre ligne de cartes mères construites spécifiquement pour le soutenir, ce qui signifie qu'il est possible d'aller encore plus vite quand ils sont disponibles.
Donc, si vous aimez overclocking votre PC de jeu, et surtout si vous utilisez le refroidissement liquide, un processeur Kaby Lake devrait certainement être sur votre liste d'achat. Tandis que vous ne frappez pas 7GHz, plus de 5GHz devrait être facilement réalisable, et avec quelques ajustements, je devine 6GHz pourrait être atteignable sans éteindre l'un des cœurs.
Je soupçonne que nous allons obtenir un certain nombre de ces tests d'overclocking que plus de processeurs Intel 7ème génération sont expédiés. Espérons qu'ils prouvent qu'OCLab n'était pas chanceux avec le processeur qu'il a obtenu et les jetons de lac de Kaby sont fantastiques pour overclocking à travers le conseil.


Source.:

Qualcomm apporte la première puce de 48 bits de 10nm au monde pour serveurs



 La division Qualcomm pour les produits de centre de données a démontré sa plateforme serveur Centriq 2400 conforme au protocole ARMv8 basée sur le processus de fabrication de 10nm. Le serveur SOC 48-core est disponible pour l'échantillonnage et il est attendu pour frapper les marchés au second semestre de 2017.Qualcomm Datacenter Technologies, Inc. - une partie de Qualcomm - a commencé l'échantillonnage commercial du Qualcomm Centriq 2400, un processeur de serveur basé sur ARMv8 qui utilise un processus de fabrication de 10nm.
La semaine dernière, la société a publié le premier membre de la famille Qualcomm Centriq comme une tentative d'incursion dans le marché des centres de données avec leurs processeurs ARMv8 basés sur l'architecture. La société a également démontré un Qualcomm Centriq 2400 exécutant Apache Spark et Hadoop sur Linux et Java.
Qualcomm fait remarquer que les technologies utilisées dans les serveurs et les centres de données sont principalement influencées par la philosophie open source, ce qui facilite l'utilisation de produits efficaces par des entreprises comme Qualcomm.Qualcomm-cnetriq-2400-1Image: Qualcomm
En outre, il ya eu un changement opérationnel dans la façon dont les entreprises utilisent des serveurs, la plupart d'entre eux se dirigeant vers le modèle basé sur le nuage, contribuant ainsi à la création de méga centres de données qui à leur tour source de serveurs plates-formes directement à partir ODMs.
Qualcomm Centriq 2400 dispose de 48 cœurs de processeurs Falkor capables de gérer des charges de travail de classe serveur. En outre, tout logiciel conçu pour d'autres plates-formes de serveur ARMv8 peut fonctionner sur le Qualcomm Centriq 2400.
Qualcomm s'attend à ce que la plate-forme serveur conforme à ARMv8 - actuellement disponible pour un échantillonnage limité - atteigne les marchés au cours de la deuxième moitié de 2017.


Source.:

mercredi 29 juin 2016

Intel embarque-t-il une porte dérobée dans toutes ses puces ? La Management Engine ou la Damagement Engine ?



Intel chipset
 
Julianprescott2604juuly (Creative Commons)

De plus en plus d’experts critiquent ouvertement le composant Management Engine qu’Intel embarque dans tous ses chipsets récents. C’est un ordinateur dans l’ordinateur, doté d’énormes privilèges d’accès et dont le code est complètement opaque.

La communauté du logiciel libre tire la sonnette d’alarme. Selon elle, la sécurité de la plupart de nos équipements informatiques est compromise, et les coupables sont tout désignés : les puces Intel de dernière génération. Plusieurs porte-paroles de la communauté libre ont récemment publié des notes de blog au vitriol sur un composant bien étrange qui se trouve désormais intégré dans les CPU d’Intel : le « Management Engine » (ME).
Pour les partisans du libre, cette petite entité – qui est censée fournir tout une ensemble de services de sécurité (Trusted Platform Module) et d’administration à distance (Active Management Technology) – est le diable en silicium. C’est un véritable ordinateur à l’intérieur de l’ordinateur. Il dispose de son propre système d’exploitation (propriétaire) et de ses propres interfaces réseaux (adresse MAC). Il a un accès direct à la mémoire du PC et peut prendre son contrôle à n’importe quel moment. Et, bien sûr, il ne peut jamais être désactivé.
Bref, c’est le mouchard idéal. « Il peut allumer ou éteindre le PC, ouvrir tous les fichiers, examiner toutes les applications lancées, connaître les mouvements de la souris et l’enfoncement des touches de clavier, et même capturer ou insérer des images sur l’écran », explique Leah Woods, développeuse en chef de Libreboot, dans une note de blog de la Free Software Foundation. Libreboot est un BIOS libre que Leah Woods et ses amis installent sur des PC Linux que l’on peut acheter sur Minifree.org.

Un code impossible à remplacer

La deuxième salve anti-Intel est venue de Damien Zammit, qui participe également au projet Libreboot. Pour ce développeur, ME est une dangereuse boîte noire qui, si elle est compromise par un attaquant, permet d’installer des portes dérobées (rootkit) « quasi indétectables et imparables », explique-t-il sur le site boingboing.net. Dans l’idéal, Damien Zammit aimerait bien sûr se débarrasser du code propriétaire d’Intel et installer son propre système sur le ME. Malheureusement, c’est impossible car le firmware du ME est vérifié par une ROM secrète intégrée dans le chipset, au travers d’un algorithme de signature électronique basé sur RSA 2048 bits. « Toutefois, il y a peut-être un bug que l’on peut exploiter dans cette ROM », espère Damien Zammit.
Si les développeurs de Libreboot sont tellement vent debout contre ME, c’est parce que cette technologie annihile tous leurs efforts. Leur but est de créer des ordinateurs où toutes les couches informatiques sont libres et open source : le matériel, le BIOS, le système d’exploitation, les applications. Le ME représente, de ce point de vue, un obstacle incontournable.

Tous des PC zombies

Des chercheurs en sécurité ont également planché sur ce problème. C'est notamment le cas de Joanna Rutkowska. En décembre dernier, à l’occasion de la conférence 32C3, cette chercheuse d'Invisible Things Labs a détaillé le fonctionnement du Management Engine d'Intel et listé ses différentes voies d’accès dans le PC. On voit bien que le ME dispose de privilèges hors du commun, alors que « personne ne sait ce qu’il y a dedans ».  
Pour Joanna Rutkowska, le ME « n’est pas seulement un redoutable vecteur d’attaque, il transforme également tous nos PC en PC zombies ». Selon elle, le but d’Intel est d’inverser le modèle d’implémentation actuel, où le système d’exploitation et les applications prennent en charge les traitements de données sensibles, comme le chiffrement ou la génération de nombres aléatoires.
Ces traitements seraient alors progressivement transvasés vers le matériel et, notamment, le ME. « Le code du ME n’est pas forcément malveillant, mais peut-être qu’il contient des erreurs, peut-être que l’implémentation n’a pas été faite de manière correcte. Intel, évidemment, pense que tout ce qu’il fait est forcément sécurisé… », souligne-t-elle.  
Pour sa part, Joanna Rutkowska a proposé un modèle d’implémentation matérielle alternatif orienté vers une sécurité maximale. Son PC idéal est celui qui ne garde aucune donnée de manière persistante (« stateless hardware »). Les données persistantes sont stockées sur des « clés USB de confiance » (« trusted sticks »).
En définitive, cette puce omnipotente et totalement opaque, la Management Engine, s'avère inquiétante. On comprend assez facilement pourquoi Damien Zimmer la surnomme la Damagement Engine. Un processeur qui, au-delà de son but premier, menace et fragilise votre sécurité et celle de votre machine...
Sources.:
Boingboing, FSF
Joanna Rutkowska: article sur la technologie Intel, article sur l’architecture PC non persistante    

dimanche 1 mai 2016

AMD s'apprête à ouvrir le x86 à la concurrence chinoise



Un accord de licence entre AMD et une nouvelle entreprise chinoise laisse entrevoir la possibilité de l'arrivée de nouveaux concurrents sur le marché du x86.

Voilà de quoi relancer la guerre du x86 : AMD annonce la mise au point d'un accord de licence avec une toute nouvelle entreprise chinoise, THATIC (Tianjin Haiguang Advanced Technology Investment Co. Ltd.), concernant le design de ses processeurs pour serveurs. L'accord consiste à fournir toute la technologie nécessaire (CPU, interconnexions et contrôleurs) à THATIC afin de leur permettre de concevoir des variantes de puces x86 destinées aux serveurs. Par cette session, AMD va entrer au capital de THATIC, qui est un consortium de plusieurs entreprises.

Expansion pour AMD, concurrence pour Intel

Ce type d'accord pourrait permettre à AMD d'étendre sa présence technologique, tout en gagnant de l'argent grâce à ses propriétés intellectuelles et industrielles. Certains analystes pensent qu'AMD pourrait donc multiplier ce type de licence, pour finalement faire de même avec ses processeurs grand public pour PC, et même avec ses architectures GPU !

Licence sur l'architecture Zen ?

Les analystes pensent aussi que les accords de licence portent sur la nouvelle architecture Zen d'AMD, qui s'annonce être la plus performante du fabricant depuis plus d'une dizaine d'années. Plus important encore, les mêmes experts pensent que cet accord de licence va donner un accès au gouvernement chinois sur le x86.
 
 

samedi 26 mars 2016

Intel annonce la fin de son modèle tick-tock



Intel annonce, via son rapport annuel, la fin de son modèle de développement bien connu, le tick-tock model.

Traditionnellement, et depuis plusieurs années déjà, Intel développe ses microprocesseurs selon un modèle connu sous le nom de tick-tock ou tic-tac en français dans le texte. L'idée est simple : les processeurs en tick bénéficient d'une finesse de gravure supérieure quand les processeurs en tock restent sur le même processus de fabrication mais étrennent une nouvelle micro-architecture.

Ce cadencement permettait d'étrenner les nouveaux process industriels sur une architecture connue et maîtrisée et de dissocier architecture et finesse de gravure histoire d'éviter certains errements comme au temps du Pentium 4. Seulement voilà si le tick-tock model a tenu de longues années, il faut bien reconnaître qu'il était battu en brêche avec Broadwell et Skylake dont les retards furent notables. D'autant qu'Intel se rapproche inexorablement des limites des lois actuelles de la physique où l'amélioration d'un process se fera de plus en plus difficile.

Aussi, sans tambour ni trompette, Intel annonce la fin du tick-tock model chantre de la loi de Moore qui veut que la densité de transistor double tous les 18 mois. Dans son rapport annuel transmis aux autorités boursières américaines, Intel explique discrètement que le tick-tock model appartient au passé. Le fondeur explique ainsi : « Nous prévoyons de lancer de nouvelles microarchitectures de processeurs selon une cadence régulière. Nous nous attendons à allonger la durée d'utilisation de notre processus 14nm et de notre prochaine génération de technologies 10nm, optimisant ainsi nos produits et processus technologiques en répondant à la demande annuelle de lancement produit du marché ».


Intel Process Architecture Optimization


Pour accompagner cette explication, Intel présente son nouveau cadencement : Processus, Architecture et Optimisation. Et la suite, après les processeurs Core de sixième génération a un nom : Kaby Lake. Une génération de processeurs qui sera toujours en 14nm avec, selon Intel : « des améliorations clés en termes de performance face à la famille de processeurs Core de sixième génération ». En clair, Kaby Lake sera la génération de processeurs correspondant à l'optimisation. C'est Canon Lake, attendu pour le second semestre 2017, qui devrait répondre à la partie processus de ce nouveau modèle de développement.

Sur le plus long terme, Intel reste un acteur clé de l'industrie du semi-conducteur avec une capacité industrielle certaine. L'américain possède en effet ses propres usines ou fabs dans le jargon. Intel précise dans son rapport qu'il dispose toujours d'un avantage concurrentiel décisif en fabriquant ses puces dans ses usines. Intel note toutefois que « le coût de la construction d'usines à la pointe de la technologie va augmenter, ce qui fait que moins de compagnies de semiconducteurs pourront s'appuyer à la fois sur le design et la fabrication ».

N'en demeure pas moins donc que le 10nm n'est pas tout à fait à l'heure chez Intel, alors que la concurrence, TSMC en tête, planche déjà sur le 7nm. Tandis que le process 10nm d'Intel et le 7nm de TSMC devraient tous deux offrir la même densité de transistors, il faudra s'intéresser aux performances desdits transistors.

Intel IDF15 - Skylake Wafer

Wafer de puces Intel Skylake, des processeurs Core de sixième génération


A lire également
Source.:

jeudi 21 janvier 2016

Les nouveaux processeurs ne supporteront pas les anciennes versions de Windows



Si vous espériez pouvoir profiter d'un matériel très récent pour votre PC tout en restant sur votre ancienne version préférée de Windows (XP, 7, 8 ?), il vous faudra peut-être revoir vos plans. En effet, les récents processeurs AMD, Intel et Qualcomm nécessiteront la version actuelle de Windows (10, donc) pour profiter du support aux entreprises...
Si Microsoft vient de publier une liste de processeurs Skylake qui seront supportés avec Windows 7 et Windows 8.1, ce programme cessera le 17 Juillet 2017. Après cela, il faudra migrer vers Windows 10, si tant est que vous souhaitiez bénéficier de ce genre de support, bien entendu.
Cette nouvelle politique devrait permettre à Microsoft de pousser plus loin encore l’intégration entre Windows et le hardware. Et cela permettra aussi à la firme de Redmond de résoudre, ou d’atténuer à tout le moins, l’un de ses plus gros problèmes : le manque de mise à jour de Windows en entreprise. Nombreuses sont en effet les sociétés à rester sur de vieilles versions le plus longtemps possible, à tel point que certains revendeurs – Dell par exemple – proposent des machines avec ces vieilles versions préinstallées.
 
 
Source.: http://fr.ubergizmo.com/2016/01/21/nouveaux-processeurs-support-anciennes-versions-windows.html#Yx7hDoFZvqUvFzXF.99

mardi 3 février 2015

Raspberry Pi 2 , a 35$ et compatible Windows 10




La fondation Raspberry Pi crée la surprise en lançant ce matin le Raspberry Pi 2, la nouvelle génération de son célèbre single-board computer, alors qu'elle n'était pas attendue avant un ou deux ans.

Le Raspberry Pi 2 démultiplie les performances au point de devenir « un ordinateur utilisable », et plus seulement « un bon ordinateur pour son prix », selon le fondateur de la fondation, Eben Upton. Le nouvel ordinateur monocarte adopte un nouveau jeu d'instructions et s'ouvre ainsi à des systèmes d'exploitation comme Ubuntu ou même… Windows 10 ! La fondation précise que Microsoft détaillera cet aspect les prochains mois, mais on sait déjà qu'il sera gratuit.

Raspberry Pi 2

Eben Upton, qui est aussi ingénieur pour Broadcom, affirme que le Raspberry Pi 2 est 6 fois plus performant que les Pi 1 Model B en multithread, et 3 fois plus en monothread. Le nouveau modèle adopte donc un nouveau jeu d'instructions, et il passe au multi-cœurs. Il passe plus précisément d'une puce Broadcom BCM2835 à un seul cœur ARMv6 ARM11 à 700 MHz à une nouvelle BCM2836, développée spécifiquement elle aussi, comportant quatre cœurs ARMv7 Cortex-A7 à 900 MHz. La quantité de mémoire vive LPDDR2 est quant à elle doublée et passe à 1 Go. On retrouve en revanche strictement le même GPU double cœur VideoCore IV, « le seul GPU ouvert pour puce ARM ».

La seconde génération maintient ainsi la compatibilité avec la quasi-totalité des solutions conçues pour la première, y compris sur le plan matériel, puisqu'elle reprend la disposition et la connectique du Pi 1 Model B+ lancé il y a six mois. La fondation prépare néanmoins de nouvelles versions de NOOBS et de Raspbian incluant à la fois le noyau ARMv6 existant ainsi qu'un nouveau noyau ARMv7. La compatibilité ascendante ne sera en revanche plus garantie : on risque fort de voir apparaitre des solutions tirant profit de la puissance de calcul du Pi 2 et compatibles exclusivement avec celui-ci. Jusqu'à présent, la quasi-totalité des logiciels pour Raspberry Pi étaient compatibles avec tous les modèles.

Il y a toutefois un dernier aspect important que la fondation est parvenue à maintenir, c'est le prix de 35 dollars. Et le Raspberry Pi 2 est disponible dès à présent auprès des revendeurs habituels. Le premier lot compte 100 000 unités, et les usines produisent quotidiennement des milliers d'exemplaires supplémentaires. Les Pi 1 Model B+ et A+ sont maintenus. La fondation estime enfin qu'il y a un créneau pour un Pi 2 Model A, mais elle ne livre encore rien de concret.

Raspberry Pi 2

Contenus relatifs

mercredi 9 juillet 2014

smartphone: Qualcomm dévoile les Snapdragon 410, 615, 805 et 810



Qualcomm vient de dévoiler en vidéo quatre nouvelles gammes de SoC dont la sortie sera échelonnée de la fin de l’année 2014 au début de l’année 2015. Quatre gammes visant à étoffer les séries de Snapdragon 400, 600 et 800, de quoi donc contenter aussi bien le milieu que le haut de gamme. Une potentielle réponse à Mediatek après la révélation hier de la sortie pour la fin de l’année du MT6795, premier processeur octocore 64 bits qui équipera les smartphones haut de gamme?

Snapdragon 410, le 64 bits de milieu de gamme

Le plus modeste du lot, le Qualcomm Snapdragon 410 sera l’évolution du 400 qui équipe encore actuellement le Moto G ou le Galaxy S4 Mini. Contrairement à ce dernier, le 410 sera un quadricoeur qui introduira qui plus est une architecture 64 bits-ready sur des processeurs non haut de gamme. Constitué de quatre Cortex A53 cadencés à 1,4 GHz, il sera équipé d’origine d’un GPU Adreno 306 et supportera des capteurs photo jusqu’à 13,5 megapixels.

Snapdragon 610/615, H.265 et 4K au programme

La gamme 600 sera quant à elle complétée par deux nouveaux processeurs : le 610 et le 615, qui avaient déjà fait parler d’eux au Mobile World Congress au mois de février. Ce dernier est un octocoeur construit sur l’alternance de quatre Cortex A53 cadencés à 1,7 GHz et de quatre autres à 1 GHz, tandis que le premier ne sera qu’un quadricoeur.
Au-delà de cette différenciation, tous deux supporteront le 64 bits et seront équipés d’un GPU Adreno 405 et pourront lire les fichers encodés en H.265. Ils assureront également l’affichage en 4K sur les téléviseurs équipés.

Snapdragon 805, l’accent sur les performances graphiques

Le Snapdragon 805, qui équipe déjà le Galaxy S5 LTE-A en Corée, s’inscrit dans la continuité du 801 en misant avant tout sur des performances graphiques maximisées. Équipé du nouveau GPU Adreno 420 à 600 MHz, il sera capable d’assurer l’enregistrement et la lecture de vidéos 4K sur le terminal, gérera des capteurs photo jusqu’à 55 mégapixels et décodera lui aussi le nouveau standard H.265.

Snapdragon 808/810, le très haut de gamme Qualcomm


Le sommet du haut de gamme de Qualcomm sera occupé par les Snapdragon 808 et 810, ce dernier ayant déjà lui aussi fait forte impression lors de son annonce au mois de janvier dernier. Si ces derniers ne seront pas disponibles avant début 2015, leurs spécifications semblent bien alléchantes. Le 810 sera ainsi constitué de quatre Cortex A57 64 bits et quatre Cortex A53. Son GPU, l’Adreno 430, sera 30% plus rapide et 20% moins énergivore que son prédécesseur, le 420.
Moins puissant, le Snapdragon reste tout de même très intéressant dans ses caractéristiques puisque cet hexacoeur composé de deux Cortex A57 64 bits et quatre Cortex A53 supportera l’affichage en WQXGA (2560 x 1600 pixels) et disposera lui aussi de la mémoire LPDDR3.


mardi 8 juillet 2014

Smartphone: cpu 8 cores et le LTE en 2014-2015


Mediatek MT6795, le futur octo-core 64 Bits haut de gamme

Une photo du planning des sorties des nouveautés Mediatek a révélé la sortie dans les prochains mois d’une nouveau processeur, le MT6795, qui devrait succéder au MT6595, lui-même encore en phase de déploiement, et ainsi équiper les futurs smartphones de haut de gamme. Ils succèdent eux-même au MT6592, premier vrai SoC à huit coeurs.

Planning de la sortie du Mediatek MT6795

Contrairement à son prédécesseurs, le MT6795 embarquera huit coeurs 64 bits au lieu de 32 pour une cadence maximale de 2.2 GHz. On ne sait pas encore avec exactitude quel sera la nature de ces huit coeurs, mais il semblerait que l’architecture du processeur soit construite autour de Cortex A53, dont on ne sait pas encore s’ils alterneront avec un autre modèle. Pour information, le MT6595 est quand à lui composé de quatre Cortex A-7 et de quatre Cortex A-17, ce qui laisse à croire à l’hypothèse d’une architecture big.LITTLE dans le cas du MT6795.

Il sera par ailleurs capable de gérer des capteurs photo de 20 mégapixels et de filmer en Ultra HD tout supportant le codec 4K H.265, deux fois plus léger que le H.264 (ce qui signifie pour une qualité identiques, un fichier codé en H.265 sera deux fois plus léger) auquel il devrait à terme succéder. Il permettra également l’affichage de la définition WQXGA dont la résolution maximale sera de 2560 x 1600 pixels.

On s’étonnera cependant qu’au niveau des caractéristiques réseau, le processeur ne puisse supporter que la 4G (avec une vitesse de download maximal de 150 Mbps et d’upload de 50Mbps), alors que la 4G+ commence à faire son apparition et devrait se démocratiser assez rapidement dans les grandes villes.

Comme le laisse suggérer le planning de Mediatek, le MT6795 devrait faire son apparition dans les premiers smartphones à la fin de l’année 2014, même si on peut s’attendre à le voir faire son apparition au début de l’année 2015. Et pourquoi pas notamment sur la prochaine gamme de Nexus, au vu de la bonne entente entre Mediatek et Google?



jeudi 10 octobre 2013

intel : Processeur Haswell en 2013

IDF 2012 : Intel Haswell, des puces pour ultrabook en 2013

A l'occasion de l'IDF 2012 de San Francisco, Intel a présenté sa prochaine génération de processeurs x86, appelée Haswell. Sa disponibilité est annoncée pour le milieu de l'année 2013.

La quatrième génération de processeurs Core d’Intel (nom de code Haswell) utilise le procédé de gravure 22 nm inauguré par les puces Ivy Bridge. Selon la dénomination utilisée par Intel, les processeurs Haswell correspondent à un « Tock » (un changement d'architecture) alors qu’Ivy Bridge n'était qu'un « Tick » (une évolution d'une architecture existante).
Les puces Haswell introduiront donc une nouvelle architecture et de nouvelles fonctions, tout en s’appuyant, quand même, sur les spécificités mises au point pour les processeurs Sandy et Ivy Bridge.

Haswell, une forte empreinte de Sandy Bridge

© Intel
Comme un air de Sandy Bridge...
agrandir la photo
Toujours multicœur, avec prise en charge de l'hyperthreading, cette nouvelle famille de processeurs est clairement destinée aux ultrabooks et autres machines ultramobiles. Des versions pour PC de bureau et portables « classiques » seront bien entendu disponibles au lancement, mais aucune information n'a filtré à ce propos.
Les diagrammes que nous avons pu voir montrent clairement l'empreinte de Sandy Bridge dans les Haswell. L'organisation des cœurs, du cache, de l'agent système et de la puce graphique sont identiques et tous restent servis par un « anneau » faisant le lien entre toutes les parties de la puce. Toutefois, la façon dont les cœurs des processeurs Haswell traitent l’information est améliorée. La gestion en simultané ou en parallèle de plusieurs informations devrait être encore plus rapide. Cela est rendu possible, entre autres, par l’augmentation de la bande passante et une latence diminuée entre plusieurs parties du processeur (la quantité de cache L1 et L2 reste identique à Sandy/Ivy Bridge).
© Intel
La bande passante des caches L1 et L2 améliorée.
agrandir la photo
Parmi les technologies/particularités présentes dans les Haswell, on retrouve le Turbo Boost, qui permet, rappelons-le, d'augmenter la fréquence des cœurs dynamiquement en fonction de leur charge de travail, l’intégration du contrôleur mémoire DDR3 et des lignes PCI-Express (pour les cartes graphiques). Le contrôleur graphique est également intégré dans la puce, de même que le jeu d’instructions AVX, pour les applications et développeurs, qui passe ici en version 2.
Les composants de la gestion de l'alimentation (VR) intégrés dans le circuit de la puce semblent également au rendez-vous, tout comme l'intégration, sur certaines références, du dernier élément du chipset qui gère les interfaces d'entrée/sortie (USB, PCI-Express, Sata, etc.).

Des nouveaux processeurs toujours sur la brèche ?

© Intel
Un nouvel état de consommation intermédiaire pour les processeurs Intel Haswell.
agrandir la photo
Intel affirme avoir encore peaufiné sa « sauce secrète » pour réguler à la fois la consommation des cœurs du processeur et leur entrée « en hibernation ». Les futures puces seraient en effet capables de s'activer/désactiver plus rapidement en fonction des besoins des applications et d'adapter encore plus finement la puissance requise.

Enfin, l’ensemble de la puce bénéficie bien d’un nouvel état de fonctionnement « l'Active Idle » (S0ix). Ce mode de consommation permettrait à la puce de pouvoir rester sur le qui-vive en cas de sollicitation brutale, tout en consommant une quantité infime de courant. A grand renfort de graphiques, Intel nous a expliqué que cette fonction trouverait tout son sens sous Windows 8, car elle serait en adéquation parfaite avec la gestion de l'énergie et les routines d'usage du nouveau système de Microsoft.

Trois parties graphiques intégrées possibles

© Intel
Intel multiplie les contrôleurs graphiques.
agrandir la photo
Pour cette nouvelle génération de processeurs, Intel élargit sa famille de contrôleurs graphiques intégrés. Il y en a dorénavant trois déclinaisons et non plus deux comme sur Sandy et Ivy Bridge. Pour le moment, ils se nomment GT1, GT2 et GT3. Ils sont compatibles DirectX 11.1 (version de DX de Windows 8) et partagent un tronc d'éléments fonctionnels commun.
© Intel
L'architecture graphique des processeurs Intel évolue avec Haswell.
agrandir la photo
Plus spécifiquement, GT1 et GT2 sont, a priori, identiques. Ils ont recours à la même quantité d'unités/moteurs de traitement de données graphiques. Le GT3, quant à lui, constitue le haut de gamme et embarque le plus grand nombre de moteurs graphiques gérant les pixels et les textures. A l'heure actuelle, Intel n’a fourni aucune information détaillée sur les fréquences ou encore la quantité de mémoire allouée aux parties graphiques. Nous en saurons plus dès que le fondeur dévoilera – définitivement et dans le détail – sa gamme de processeurs mobiles et de bureau courant de l'année prochaine.


REF.: