Powered By Blogger

Rechercher sur ce blogue

vendredi 11 mars 2011

Les aidants, on est du «cheap labor» pour le gouvernement


Laval - Les aidants naturels ont besoin de répit
Chloé Sainte-Marie
© Agence QMI / Raphaël Gendron-Martin

LAVAL - Après plusieurs années de sensibilisation auprès du gouvernement provincial, les aidants naturels du Québec commencent à récolter le fruit de leurs efforts.

«Tout n’est pas fait, mais on sent qu’il y a une percée, a déclaré la chanteuse Chloé Sainte-Marie en entrevue à «L’Écho de Laval». La ministre des Aînés a donné son aval à 43 projets cette année. Les montants annoncés ne sont pas énormes, mais il semble que nos demandes aient été comprises.»

En 2010-2011, le gouvernement québécois a consacré une enveloppe de 6 millions $ sur trois ans au financement de projets destinés aux proches aidants. La semaine dernière, Jean Charest et ses ministres ont également annoncé des investissements importants dans les services de soutien à domicile pour les personnes âgées, parmi lesquelles on compte plusieurs aidants naturels.

«Le système traditionnel ne suffit plus, a souligné Chloé Sainte-Marie. Les aidants, on est du «cheap labor» pour le gouvernement. Le système de santé a besoin de nous. L’État doit absolument prioriser le soutien à domicile, et offrir du répit à court terme.»

Aidants lavallois

Lundi, la ministre des Aînés Marguerite Blais a annoncé le versement d’une somme de 240 000$ qui servira au financement d’un service de répit pour les personnes aidantes de la région.

Un montant de 25 000$ permettra également à l’Association lavalloise des personnes aidantes (ALPA) de sensibiliser les employeurs à la réalité que vivent quotidiennement les aidants naturels.

«Ces annonces permettront à l’ALPA de créer des conditions positives pour éviter l’épuisement de ses membres», a noté Alain Paquet, ministre délégué aux Finances et député de Laval-des-Rapides.

«L’ALPA nous donne droit au répit, a fait valoir Georgette Lemieux-Houle, 71 ans, aidante naturelle depuis 35 ans. Les rencontres que j’ai faites ici m’ont fait un bien immense.»

Selon Lily Tremblay, directrice de l’ALPA, 90 proches aidants attendent présentement une place dans les programmes de répit à court terme de l’organisme.

À l’heure actuelle, on estime à 300 000 le nombre de personnes qui remplissent le rôle d’aidant naturel au Québec.

REF.:

2011, l'année du SSD ?

Depuis quelques années déjà, les SSD, ont commencé à arriver sur le marché. Récemment, les prix ont baissé et les comparatifs fleurissent sur la toile. Il est grand temps de revenir sur le parcours de ces cerveaux à mémoire flash.

Technologie


Un SSD est un support de stockage binaire persistant, c'est-à-dire que sa mémoire n'est pas effacée lors de l'extinction de l'ordinateur. Ils sont composés de puce de mémoire flash de type NAND, comme celles que l'on peut trouver dans les clés USB ou les cartes mémoires. Actuellement les capacités s'échelonnent entre quelques Go et 1 To.

La majorité des SSD sont au format SATA II et ont une taille de 2.5" (format accepté dans les ordinateurs portables), mais on trouve également des modèles 1.8", destinés au netbooks ainsi que des SSD 3.5" conçus pour les ordinateurs de bureau. On trouve aussi des monstres de puissance disponibles au format PCI Express. Les modèles SATA III commencent à peine à arriver puisque peu d'ordinateurs sont munis de cette interface relativement récente.

La mémoire est divisée en cellules. Chaque cellule peut stocker un ou plusieurs bits (un bit peut valoir 0 ou 1), d'où les deux types de mémoires flash utilisées dans les SSD :
  • La mémoire SLC, pouvant stocker un seul bit par cellule ;
  • La mémoire MLC, capable de stocker plusieurs bits (4 au maximum) par cellule.

Image utilisateur

La mémoire SLC à l'avantage d'être plus résistante à l'usure, puisque qu'elle peut résister à environ 100 000 cycles d'écriture alors que la mémoire MLC n'en supporte que 10 000. Cette dernière a toutefois l'avantage d'offrir une meilleure densité. Actuellement, la mémoire SLC est la plus utilisée par les professionels car elle est plus sure et plus rapide, mais plus chère. Les particuliers doivent se rabattre sur les disques à base de MLC. Pour éviter les pertes ou corruptions de données dues aux cellules défectueuses, le contrôleur du disque réserve une partie de la mémoire pour y recopier les données des cellules mortes. Ces secteurs réservés sont bien plus conséquents sur les disques à mémoire MLC.

Les débits proposés par les SSD sont à couper le souffle. En effet, il est désormais courant d'obtenir des débits de 250 Mo/s en lecture et en écriture !

Marché des SSD


Image utilisateur
SSD du MacBook Air


Les SSD ont commencé à arriver en 2007 lorsque Samsung a lancé la production d'un SSD 64 Go.
Depuis, de nombreux acteurs sont arrivés sur le marché comme Intel, Patriot, OCZ, Corsair, Western Digital, Sandisk et bien d'autres. Certaines de ces entreprises sont spécialisées dans le SSD, c'est le cas d'OCZ. D'autres, comme Western Digital sont connues pour leurs disques durs depuis longtemps et se lancent dans le SSD pour compenser les futures diminutions de leur chiffre d'affaires dues à la baisse des ventes de disques durs (WD a lancé ses premiers SSD en juin 2009).
Le panel de produits est désormais large mais peu d'ordinateurs en sont équipés en série. On peut tout de même citer les derniers MacBook Air d'Apple qui sont munis d'un SSD « sur mesure ».


Disque dur VS SSD


Comparatif


Plusieurs critères permettent de noter un support de stockage :
Image utilisateur
Disque dur VS SSD


  • son prix au Go ;
  • sa capacité ;
  • sa fiabilité ;
  • sa rapidité.



Actuellement, le disque dur bat le SSD sur les deux premiers points qui sont étroitement liés. En effet, s'il est possible de trouver des SSD 1 To, ces derniers restent absolument inaccessibles au public. Il faudra débourser près de 500 € pour un SSD 2.5" de 240 Go (soit 2€/Go) alors que pour une centaine d'euros vous repartirez avec un disque dur de 500Go à 7200 tours/min (0.22 €/Go). On peut également trouver des disques durs 2.5" de 1 To à un prix tout à fait abordable.

Côté fiabilité, aucun support de stockage n'est sûr à 100 % ; il convient donc de faire des sauvegardes régulièrement. Les disques durs sont très sensibles aux chocs et à l'usure mécanique alors que les SSD ont un nombre de cycles d'écriture limité.

Les performances en termes de rapidité sont le gros point fort des SSD. En copie de gros fichiers, comptez des débits de 246 Mo/s en lecture et 104 Mo/s en écriture pour le modèle 160Go X-25-M d'Intel, contre 75 Mo/s en lecture et en écriture pour un disque dur Hitachi 320 Go. En copie de petits fichiers, les écarts sont encore plus impressionants : 1 Mo/s en lecture et 2.56 Mo/s en écriture pour le disque dur alors que le SSD permet d'atteindre des débits de 16.9 Mo/s en lecture et 38.8 Mo/s en écriture.

Le disque hybride : un mix disque dur - SSD


Le fabricant de disques durs Segeate a lancé ses disques hybrides Momentus XT durant le premier semestre 2010. Ces disques sont dotés de 4Go de mémoire flash SLC de type NAND en plus du disque dur tournant à 7200 tours/min d'une capacité de 250, 320 ou 500Go. Il se présente comme un compromis entre les SSD hors de prix à faible capacité ainsi que disques durs très rapides (10 000 tours/min et plus), très chers également. Les performances sont nettement supérieures à celles d'un disque dur classique, bien qu'elles n'atteignent pas les sommets des SSD, le tout pour un prix tout de même inférieur.


Vers une démocratisation des SSD ?


On peut dire que l'offre en SSD est assez complète, cependant le prix au Go est encore trop élevé pour que le public n'hésite pas entre les deux supports. De plus, pratiquement aucun constructeur d'ordinateurs ne propose des SSD en standard, ce qui limite considérablement le nombre d'acheteurs potentiels. Pas de doute, il faut attendre que ce marché mûrisse un peu !
REF.:

Google et son format WebP

Il y a quelque temps maintenant, la firme Google, que l'on ne présente plus, a mis au point un nouveau format d'image pour le web, libre et open-source, WebP. C'est un format d'image qui exploite la compression avec perte et qui se définit comme étant le successeur du très connu JPEG. Récemment le géant Google a ajouté des nouveaux outils à son format. C'est l'occasion pour nous de parler de ce domaine qu'est la compression ainsi que du format de Google en lui-même.

Compression avec ou sans perte ?


La compression est une opération informatique qui consiste à réduire la place occupée par une donnée (un mot, une musique, une image, mais plus généralement un fichier). Concrètement on effectue donc une opération de codage qui modifie la représentation du fichier dans le but de le rendre plus petit que l'original. Il y a plusieurs façons de compresser, des algorithmes utilisent la compression sans perte, d'autres avec perte.

Une compression est sans perte lorsqu'il n'y a pas de perte de données par rapport à l'information d'origine. On ne supprime donc pas de données pour réduire la taille du fichier, mais on réécrit l'information de manière plus concise. Lors de la décompression, le fichier sera identique à celui de départ, qui n'était pas compressé. On utilise ce mode de compression par exemple sur les fichiers audio, où lors du décodage, le son ne sera pas modifié (pas de grésillement).

C'est par exemple le cas du format audio de compression sans perte FLAC, qui est un codec libre. Mais c'est aussi le même principe pour des formats comme les très connus ZIP (ce dernier permet aussi l'archivage des données) et RAR développé par Eugene Roshal. On retrouve aussi dans cette catégorie, la compression avec l'algorithme RLE ainsi que le codage de Huffman.

La compression avec perte opère différemment. En effet, elle supprime des informations qui sont souvent insignifiantes, que nous ne percevons pas (dans des fichiers son, des images, etc.). Dans le cas d'une image, l’œil ne perçoit pas tous les détails de cette dernière, et c'est là que les algorithmes de compression avec perte entrent en jeu. Ils modifient l'image de telle sorte qu'il n’y a presque pas (voire pas du tout) de changement avec l'originale.

Un de ces algorithmes très connus de compression avec perte est le JPEG. Pour compresser une image via cette norme, on effectue une suite de six étapes. Bien que ces méthodes avec perte soient parfois appelées compression irréversible, le JPEG a la possibilité de décompresser les images en effectuant les étapes dans le sens inverse. Le récent format WebP fait aussi partie de ces formats de compression avec perte.

WebP le format d'image de Google

Image utilisateur

Précédé par le codec pour la compression vidéo WebM, le format de compression d'images libre, WebP a vu le jour il y a quelque temps déjà grâce aux ingénieurs de Moutain View. Ce format permettrait de transporter des images plus légères d'environ 39 % par rapport aux formats déjà disponibles (principalement le JPEG, mais aussi le JPEG 2000).

La firme justifie la création de son nouveau format de compression d'images en évoquant le fait de vouloir réduire la quantité de données qui circule sur la toile. Selon les développeurs de Google, réduire la taille des images, c'est réduire le temps de chargement des pages Web et améliorer la fluidité de la navigation. En effet, les images et les photos représenteraient environ 65 % des données reçues lors de la consultation de différentes pages Web.

Comment ça marche ?


Image utilisateur
Une image
au format WebP
C'est donc avec cette perspective là que les développeurs de Google ont élaboré WebP. Pour créer leur algorithme, ils se sont servi de la même technologie employée par le codec VP8, un format de compression vidéo (déjà à l'origine du format vidéo WebM). RIFF leur a aussi été relativement utile. C'est un ensemble de spécifications pour les fichiers multimédias (par exemple, les formats WAV, AVI et PAL sont tous conformes aux spécifications RIFF). L'idée, lors de la conception de cet algorithme, était alors d'utiliser une compression de type prédictif.

WebP utilise donc un codage prédictif qui se sert des valeurs des blocs de pixels voisins pour prédire les valeurs d'un bloc. Il encode ensuite la différence entre la valeur réelle et la prédiction. Il y a souvent des valeurs nulles (prédiction correcte), c'est notamment dans ce cas que la compression est efficace.

Des modifications récentes


Actuellement, le format d'image du géant est pris en charge par les navigateurs Chrome 9 et supérieur. Google a récemment mis à jour les outils de conversion pour les sytèmes d'exploitation Linux, OS X, et Windows 32 bits et 64 bits. Vous pouvez d'ailleurs retrouver le codec WebP pour Windows sur la page du projet.

WebP, le format web de demain ?


Pour le moment, WebP ne peut encore pas prétendre prendre la place du très célèbre JPEG. Les développeurs doivent encore implémenter un canal alpha. C'est en quelque sorte une couche supplémentaire (celles de base étant les couches bleue, rouge et verte) qui permettra au format de gérer la transparence des images. Néanmoins, la capacité de WebP de réduire de manière significative la taille des images sur le disque dur ou sur Internet représente un certain intérêt pour les éditeurs.

Malgré la critique que WebP a fait naître, Google est bien déterminé à percer avec son format. Même si les employés de la firme admettent que c'est un défi sérieux, et surtout difficile.

REF.:

jeudi 10 mars 2011

Version beta Gears of War 3 débute en avril

Version beta - Gears of War 3 débute en avril
Image de Gears of War 3 (Xbox 360)
©Microsoft Game Studios / Epic Games

Les joueurs les plus impatients pourront tester Gears of War 3 en ligne à partir du 18 avril, s'ils sont déjà en possession de l'Epic Edition de Bulletstorm sur Xbox 360. Ceux qui ont commandé le jeu à l'avance pourront également participer à la deuxième phase de test beta, à partir du 25 avril.

La version beta multi-joueurs du jeu finira le 15 mai, et Epic Games agite quelques carottes pour que les joueurs restent motivés.

Le personnage Thrashball Cole est débloquable après 50 matchs pendant la phase beta, et avec 10 matchs supplémentaires, les joueurs pourront en profiter dans la version finale du jeu.

De la même façon, l'arme «Gold-Plated Retro Lancer» se débloque après 90 matchs, et au bout de 100 ennemis abattus, elle devient accessible dans la version finale du jeu.

Il existe également des armes enflammées, faciles à débloquer: par exemple, les joueurs qui jouent un match avant le dimanche 24 avril (en obtenant un accès en avant première par le biais de l'Epic Edition de Bulletstorm) obtiennent un «Flaming Hammerburst».

En faisant la même chose pendant la semaine du 25 avril, pour les joueurs qui ont obtenu un accès au beta grâce à des précommandes, le «Flaming Lancer» se débloque.

Jusqu'à il n'y a pas si longtemps, la plupart des observateurs pensaient que la seule façon d'accéder au beta passait par l'achat de l'Epic Edition de Bulletstorm. Il pourrait bien y avoir d'autres chemins pour y accéder, au vu des items proposés par l'éditeur au mois de mai.

En finissant un match pendant la semaine du 2 mai, les joueurs obtiennent un «Flaming Sawed-Off Shotgun», et en faisant la même chose pendant la semaine du 9 mai, ils peuvent obtenir un «Flaming Gnasher Shotgun».

Parmi les enseignes qui proposent des contenus bonus aux clients qui commandent le jeu à l'avance, il y a Gamestop en Amérique du Nord; GAME et Gamestation au Royaume-Uni; EB Games en Australie et Nouvelle-Zélande; la Fnac, GAME et Micromania en France; et Gamestop en Italie.

Le jeu exclusif à la Xbox 360 Gears of War 3 doit sortir le 20 septembre, juste après les sorties de Resistance 3 sur Playstation et de RAGE (multi-plateformes).


REF.:

Pénurie de pétrole, vous dites?

Les Canadiens et les Québécois sont colonisés. Aucun pays occidental n’a si peu de contrôle sur ses ressources naturelles, que vos politiciens asservis ont bradées à des étrangers pour une poignée de petit change.

Prenons l’envolée (oui, oui, une autre) du prix de l’essence, justifiée par des motifs fumeux comme d’habitude. Invasion de l’Irak, problèmes au Nigeria, menaces américaines sur l’Iran et enlèvement d’Hugo Chavez, etc. Toutes les raisons venant des pétrolières et des spéculateurs sont bonnes pour vous extorquer, et vous avalez ça.

Les titres ahurissants de ces articles m’ont fait bondir : «Le Québec n’a pas à craindre de pénurie» (La Presse, 23 février 2011) et «Les craintes d’une pénurie s’apaisent» (Le Devoir, 26 février 2011). Faut arrêter d’agir en innocents. Puis-je vous rappeler que le Canada est le septième producteur de pétrole (troisième de gaz naturel) au monde, le principal exportateur de pétrole aux États-Unis et est assis sur la deuxième réserve prouvée de pétrole de la planète. Il y a beaucoup de pétrole en Alberta, à Terre-Neuve et bientôt au Québec, lequel aurait pu satisfaire les besoins de la province au prix que nous aurions nous-mêmes décidé si vos élus n’avaient pas cédé cette ressource naturelle à des connaissances, qui l’ont vite refilée à des étrangers, devenant ainsi millionnaires sans effort, sans investissement et sans risque.

C’est quoi alors, la «joke» de la crainte d’une pénurie de pétrole au Québec, alors que l’on fait partie d’un pays gros producteur de pétrole et de gaz naturel. On exporte notre pétrole et notre gaz naturel aux States pendant qu’on en importe pour le Québec et l’Ontario. Peu importe ce qui arrive dans le monde (toujours des prétextes pour vous arnaquer), on est un pays auto-suffisant, et même exportateur. Notre pétrole et notre gaz naturel ne nous appartiennent plus collectivement, étant détenus par des étrangers, surtout américains, ce qui, jumelé au traité de libre-échange (Canada - États-Unis) fait que l’on a plus aucune emprise sur nos ressources. Où sont ceux qui se font les champions défenseurs de la liberté? Liberté pour qui? Elle est où votre merveilleuse démocratie quand des étrangers viennent ici exploiter vos ressources naturelles, vous les vendent à gros prix et partent avec le butin?

Il y a environ 10 ans, à la suite de la privatisation de l’électricité aux States, il y a eu des pannes gigantes­ques en Californie qui ont fait exploser les tarifs. Le Québec a été à l’abri parce que nous contrôlons collectivement notre énergie électrique. Peu importe ce qui se produit ailleurs, ça ne nous affecte pas, car nous sommes propriétaires de notre électricité.

– Les opinions exprimées dans cette tribune ne sont pas nécessairement celles de Métro.