Powered By Blogger

Rechercher sur ce blogue

jeudi 21 juin 2012

Attention le WiFi,une crise du spectre est a venie ?$?

États-Unis - Risque de pénurie de fréquences dans l'internet sans fil
 
Photo Dudarev Mikhail - Fotolia.com

Risque de pénurie de fréquences dans l'internet sans fil

WASHINGTON - Avec l'usage croissant des appareils portables reliés à l'internet grâce au Wi-Fi, les États-Unis se préparent à affronter dans les trois ans à venir une crise de disponibilité des fréquences qui permettent à chacun de se connecter au réseau mondial.
Selon la Commission fédérale des communications, le trafic sur les autoroutes de l'internet sans fil - que se partagent les opérateurs - devrait doubler chaque année jusqu'en 2015. L'agence prévoit un «déficit» de fréquences de 90 megahertz l'année prochaine, puis de 275 mhz l'année suivante.
De tels embouteillages sur les bandes passantes se traduiront par des problèmes de connexion, des ralentissements et probablement des prix plus élevés pour les consommateurs.
L'analyste Jeff Kagan décrit ainsi «des ralentissements et des coupures lorsqu'on se sert d'une de ses nombreuses applications, comme regarder la télévision, ou des films ou utiliser le GPS».
Certains opérateurs ont déjà prévu de recourir à des limites de capacités de connexion ou de ralentir la vitesse sur les téléphones intelligents.
L'explosion de l'usage de ces téléphones portables, comme des tablettes et autres gadgets mobiles, est en train de dévorer le spectre des radio fréquences allouées pour le Wi-Fi.
Une majeure partie du spectre est dédié aux fréquences radio et télé, et une autre est réservée aux communications de l'armée, de la police, des services d'urgence et du trafic aérien.
Selon Jeff Kagan, Apple est largement à l'origine de ce goulet d'étranglement, avec la multiplication des iPhone et autres iPad, avant que les appareils fonctionnant avec Android (de Google) ne leur emboîtent le pas.
«L'industrie dans son ensemble a changé» après la sortie de l'iPhone, pointe-t-il, entraînant la création de «centaines de milliers d'applications» qui «assèchent le réseau».
«Course contre la montre»
La pénurie à venir fera «au final souffrir le consommateur», estime Julie Kearney, de l'Association professionnelle de l'électronique grand public (CEA).
L'industrie est sous tension car les fréquences disponibles sont limitées à environ 2500 mhz. Selon le patron de l'opérateur américain AT&T, Randall Stephenson, elle s'est lancée dans «une course contre la montre» qui fera que «les prix, le temps de téléchargement et la frustration des consommateurs vont tous augmenter».
L'administration Obama a annoncé en 2011 sa volonté de libérer quelque 500 mhz sur le spectre au cours des dix prochaines années, grâce à la tenue d'enchères et une meilleure gestion des communications gouvernementales. Mais seule une petite fraction de cette réserve sera disponible dans le futur proche.
Les regards commencent donc à se tourner vers la télévision hertzienne, qui dispose de 300 mhz mais a perdu de l'audience au profit du cable et du satellite.
Les diffuseurs, de leur côté, rétorquent que des améliorations au niveau des antennes et des téléphones peuvent contribuer à améliorer la situation. «Les faits accréditant cette thèse d'une +crise du spectre+ n'est pas si impressionnante», juge de surcroît Uzoma Onyeije, qui a conduit une étude pour les chaînes hertziennes.
Aux yeux de Thomas Hazlett, à la tête du département d'économie de l'information à l'université George Mason, il est temps de revoir le mode d'attribution des fréquences, qui date des années 1920 et ne prend pas en compte la valeur économique des services de connexion sans fil.
Il remet en question certaines attributions, notamment à des entités gouvernementales: «Le département de la Défense prétend avoir besoin de toutes ces fréquences, mais comment le sait-on?».
Il perçoit toutefois le plan de Barack Obama comme «une étape dans la bonne direction» mais juge qu'il n'est «pas assez audacieux» pour répondre à la demande du marché et met en garde contre le risque d'étouffer l'innovation dans le secteur.


REF.:

Microsoft: La Tablette Surface

Concurrence iPad - Microsoft dévoile ses tablettes «Surface»
 
Photo AFP / Joe Klamar

LOS ANGELES - Le géant des logiciels informatiques Microsoft a dévoilé lundi à Los Angeles la tablette «Surface», destinée à concurrencer l'iPad d'Apple, chef de file du marché.
Le directeur général de Microsoft, Steve Ballmer, a décrit «Surface» comme une tablette «pour travailler et pour jouer», lors de cette présentation, qui avait été précédée de nombreuses spéculations.

À LIRE AUSSI:
La tablette Surface de Microsoft ne menace pas l'iPad Tablettes Surface de Microsoft: pas de prix, pas de date (Blogue Technostérone)
«Surface» est aussi le nom d'écrans géants tactiles que Microsoft a développés pour les professionnels, comme les restaurants, commerces ou bars.
Sur le site internet de Microsoft, un vidéo de démonstration promet que la nouvelle tablette sera disponible «prochainement», mais aucune date précise n'a été donnée par les responsables du groupe lors de la présentation à Los Angeles, pas plus que le prix du nouvel appareil.
Il serait logique, cependant, que la tablette soit commercialisée en même temps que le nouveau système d'exploitation Windows 8, prévu après l'été.
Un exemplaire de la tablette, fonctionnant avec le système d'exploitation Windows RT, a été dévoilé lundi lors de la présentation.
Caractéristiques
D'une épaisseur de 9,3 millimètres, elle pèse 676 grammes, est dotée d'un écran haute-définition de 26,9 centimètres (10,6 pouces) et sera disponible avec 32 ou 64 Go de mémoire, selon Microsoft.
Un autre exemplaire, fonctionnant sous Windows 8 Pro, a également été présenté. D'une épaisseur de 13,5 millimètres, il pèse 903 grammes et sera vendu avec 64 ou 128 gigabits de mémoire.
«C'est une toute nouvelle famille d'appareils signés Microsoft», a déclaré M. Ballmer. «Nous avons pris le temps de faire Surface et Windows 8 comme il faut», a-t-il ajouté. «Surface est un PC. Surface est une tablette. Et Surface est quelque chose de nouveau que les gens vont vraiment adorer».
La nouvelle tablette est équipée d'un support intégré, qui permet de la poser, et d'une housse de protection qui fait office de clavier, permettant à la tablette d'être utilisée comme un véritable ordinateur portable.
Changement de stratégie
«Ce produit marque un grand virage dans la stratégie de matériel de Microsoft», a déclaré Sarah Rotman Epps, analyste chez Forrester. «Il met l'accent sur le consommateur, plus que sur l'entreprise», affirme-t-elle dans un message envoyé sur son blogue. «Et il permet à Microsoft de concurrencer le modèle verticalement intégré d'Apple».
Selon elle, Microsoft doit cependant prendre garde à de ne pas effrayer le consommateur avec une offre trop riche d'applications et de gadgets sur sa tablette. «Le choix est le dogme de Microsoft mais avec trop de choix, le consommateur peut être submergé», dit-elle.
Si la XBox 360 est un vrai succès dans le domaine des jeux vidéo, les autres incursions de Microsoft sur le terrain des matériels ont été moins réussies.
Le groupe de Seattle a jeté l'éponge sur le terrain des baladeurs en arrêtant l'an dernier le Zune, qui ne s'était jamais imposé face à l'iPod. Il y a deux ans, il avait supprimé le téléphone Kin au bout de quelques semaines seulement. Et depuis le début de l'année, la gamme de téléphones Lumia lancée avec Nokia peine à trouver un marché.
Les analystes de Canaccord notent aussi que le lancement d'une tablette sous marque Microsoft n'est pas sans risque: «cela pourrait nuire aux relations de Microsoft avec certains fabricants qui ont eux-mêmes développé des tablettes fonctionnant sous Windows 8».
«En outre, cela pourrait peser sur les marges», bien plus élevées dans les logiciels, le coeur d'activité de Microsoft, que dans les matériels.
Stephen Baker, analyste chez NPD Group, estime quant à lui que la tablette Surface «a l'air d'un très beau produit, bien réalisé et bien pensé. Je me demande juste pourquoi Microsoft a décidé de le faire (lui-même) et n'a pas plutôt travaillé avec HP, Asus, ou tout autre partenaire».

Au début du mois, Microsoft avait déjà annoncé le logiciel SmartGlass permettant de relier la XBox avec des téléphones et des tablettes, qu'ils utilisent les systèmes Apple, Android ou Microsoft, et des accords sur la diffusion de programmes.
Les observateurs attendent maintenant des informations sur Windows RT, le système d'exploitation Microsoft conçu pour des tablettes ou d'autres appareils portables fonctionnant avec des microprocesseurs ARM.


REF.:

lundi 18 juin 2012

Sequoia a atteint une puissance de calcul de 16,32 pétaflops

IBM - Sequoia, le supercalculateur le plus performant du monde
Voici le supercalculateur «K» de Fujitsu, qui vient d'être détrôné par Sequoia d'IBM.  
Photo AFP / STR / Jiji Press
IBM

Sequoia, le supercalculateur le plus performant du monde

TOKYO - Le supercalculateur japonais «K», développé par le groupe informatique Fujitsu et un institut de recherche nippon, a cédé lundi la première place mondiale, sur le plan de sa performance, à l'ordinateur Sequoia d'IBM développé pour les autorités américaines.
Le superordinateur nippon «K» (à prononcer Kei), qui avait pris la première place en juin 2011 dans le 37ème classement mondial Top 500, l'avait conservée dans la parade établie en novembre en pulvérisant ses propres performances et en dépassant la barre des 10 pétaflops (10 millions de milliards d'opérations par seconde).
Il vient cependant d'être dépassé par Sequoia, conçu par le géant de l'informatique IBM et installé au laboratoire Lawrence Livermore du département de l'Energie américain, en Californie.
Sequoia a atteint une puissance de calcul de 16,32 pétaflops, tout en affichant le meilleur rendement énergétique.
«K» est quant à lui un superordinateur entièrement fabriqué au Japon dont les performances avaient remotivé les industriels japonais.
Dans le classement de juin 2012 révélé lundi, il arrive en deuxième position avec une puissance de 10,51 pétaflops, devant une autre production d'IBM, Mira (8,16 pétaflops). Le trio Sequoia/K/Mira fait la course loin devant les autres.
En se hissant en juin 2011 en tête du 37e Top 500 avec une puissance de 8,16 pétaflops à l'époque, «K» avait marqué les esprits et renforcé l'égo nippon. C'était en effet la première fois depuis juin 2004 qu'un supercalculateur japonais arrivait en tête. Il avait battu à plate couture un rival chinois (Tianhe-1A, 2,56 pétaflops) et un américain (Jaguar, 1,76 pétaflops).
L'émulation qui naît de la reconquête de la première place par les Américains, perdue depuis novembre 2009, va pousser les Japonais à mettre les bouchées doubles sur les futures générations de superordinateurs, avec des puissances encore démultipliées.
Le classement Top 500, créé en 1993, est mis à jour deux fois par an, en juin et novembre.
IBM a annoncé par ailleurs que le numéro quatre du Top 500 était une autre de ses productions, le SuperMUC, développé avec le Centre des supercalculateurs de Leibniz (LRZ), qui se veut «le premier supercalculateur refroidi à l'eau chaude disponible commercialement».
D'après IBM, SuperMUC «utilise 40 % d'énergie de moins qu'un système comparable refroidi à l'air», ce qui permettra au laboratoire de Leibniz d'économiser un million d'euros par an.
La Chine, qui s'était classée numéro un en novembre 2010, peut revendiquer deux systèmes parmi les 10 premiers du Top 500.


REF.:

samedi 16 juin 2012

Top - 10 réseaux sociaux que vous ne connaissez (probablement) pas!

Top - 10 réseaux sociaux que vous ne connaissez (probablement) pas!
 
Photo Agence QMI

Les réseaux sociaux font partie intégrante de la vie des internautes depuis quelques années. Facebook, avec ses 901 millions d'utilisateurs, est sans contredit, le plus connu de tous. Twitter, créé en 2006, est de plus en plus adopté par les internautes, également.
Pourtant, certains réseaux sociaux sont encore méconnus du grand public, surtout parce qu'ils s'adressent à des adeptes qui ont un intérêt commun très pointu.
Plusieurs internautes ne sont tout simplement pas intéressés par Facebook ou Twitter, car ils sont trop généralistes, ils préfèrent discuter avec des gens qui ont la même passion qu'eux. Cette passion peut passer du tricot aux animaux, en passant par la bière. Voici 10 réseaux sociaux de plus en plus populaires que vous ne connaissez (probablement) pas.


REF.: 
Top - 10 réseaux sociaux que vous ne connaissez (probablement) pas!

vendredi 15 juin 2012

Télescope NuSTAR Les trous noirs seront mis à nu

Télescope NuSTAR - Les trous noirs seront mis à nu
Représentation artistique de ce qu'a l'air NuStar, un télescope mis en orbite. 
Photo AFP / Randy-Beaudoin / NASA

WASHINGTON - La Nasa a lancé mercredi avec succès son télescope NuSTAR à rayons X pour mieux scruter l'univers, et plus particulièrement les trous noirs, grâce à une résolution sans précédent qui permettra de mieux comprendre l'évolution du cosmos.

À LIRE ÉGALEMENT:
Le plus grand oeil du monde se tourne vers le ciel La Nasa prête à lancer un télescope à rayons X
La fusée Pegasus XL de la firme américaine Orbital Science Corporation qui transportait NuSTAR, a été larguée en plein vol vers 16H00 GMT à 11 900 mètres d'altitude, d'un Lockeed L-1011, un gros tri-réacteur baptisé Stargazer, qui avait décollé une heure avant de la piste de l'atoll de Kwajalein dans les îles Marshall du Pacifique.
La séparation du troisième étage de Pegasus est intervenu environ 13 minutes après le largage de la fusée du tri-réacteur. NuSTAR a ainsi atteint son orbite équatoriale à un peu plus de 600 kilomètres de la Terre comme prévu.
Le télescope se déploie
Le télescope a aussitôt commencé à déployer ses antennes solaires et à transmis peu après ses premiers signaux captés au sol via le système de satellites de la Nasa.
«Il apparaît à ce stade que nous avons un lancement réussi», a dit le commentateur de la télévision de la Nasa qui retransmettait en direct le lancement. «Le lanceur Pegasus a parfaitement fonctionné et nous sommes ravis», a déclaré Tim Dunn, directeur adjoint du lancement.
«NuSTAR va nous aider à comprendre comment notre univers a évolué depuis le Big Bang pour devenir aussi complexe aujourd'hui», avait expliqué fin mai lors d'une conférence de presse Paul Hertz, directeur de la division d'astrophysique au siège de la Nasa à Washington.
«Nous verrons les objets célestes les plus chauds, les plus denses et ceux qui sont le plus chargés d'énergie d'une façon radicalement nouvelle», a expliqué pour sa part Fiona Harrison, de l'Institut de Technologie de Californie et principale responsable scientifique de NuSTAR (Nuclear Spectroscopic Telescope Array).
Recensement des trous noirs
NuSTAR est le premier télescope spatial capable de créer des images cosmiques à partir de rayons X à haute énergie, du même type que ceux utilisés par la médecine pour voir notre squelette ou pour scanner les bagages dans les aéroports.
NuSTAR produira des images d'une résolution 10 fois plus grande que celles obtenues avec les télescopes actuels et sera cent fois plus sensible que ses prédécesseurs fonctionnant dans cette même partie du spectre électromagnétique.
Le télescope pourra ainsi capter la haute énergie des rayons X même à travers la poussière et le gaz qui obstruent l'observation des galaxies, des trous noirs et des étoiles à neutrons nichées au coeur de la Voie Lactée, notre galaxie.
Durant la première phase de deux ans de sa mission, NuSTAR cartographiera certaines régions du ciel pour procéder à un recensement des étoiles «effondrées» et des trous noirs de différentes tailles. Pour ce faire il scrutera les régions entourant le centre de la Voie Lactée.
Cette nouvelle mission complète celles menées par les télescopes à rayons X actuellement en fonctionnement: XMM-Newton de l'Agence spatiale européenne (ESA) et le Chandra de la Nasa.
Durant la semaine suivant sa mise sur orbite, l'équipe chargée de suivre NuSTART effectuera une série de vérifications pour s'assurer que tous les systèmes fonctionnent normalement, précise la Nasa.
Ensuite, les responsables de la mission lanceront une commande à NuSTAR pour le déploiement d'une sorte d'antenne métallique de dix mètres de long qui permettra au télescope de concentrer les rayonnements de rayons X afin d'obtenir des images.
À la différence des télescopes fonctionnant avec la lumière visible, les télescopes à rayons X nécessitent une longue distance entre les miroirs et les détecteurs pour concentrer ces rayonnements.
C'est un peu comme porter des lunettes à plusieurs dizaines de centimètres des yeux, explique la Nasa.


REF.,: