Powered By Blogger

Rechercher sur ce blogue

mercredi 5 mai 2021

Les applications de géolocalisation collectent aussi des données très personnelles

 

 

Les applications de géolocalisation collectent aussi des données très personnelles

 Google a récemment déclaré qu’il supprimera progressivement les cookies tiers utilisés pour vous suivre. La société a ajouté qu’une fois qu’ils auront disparu, elle ne créera plus d’autres moyens d’identification pour suivre les utilisateurs pendant leur navigation sur le web.;-)

 Navigartion mode privé mon oeil:Une juge fédérale a récemment rejeté la demande initiale du département d’Alphabet de retirer l’affaire. « Le tribunal conclut que Google n’a pas informé les utilisateurs qu’il procède à la collecte de données alléguée lorsque l’utilisateur est en mode de navigation privée. », a écrit dans son jugement la juge de district américaine Lucy Koh à San Jose. Nous savions que le suivi du géant américain était très agressif. Un développeur avait récemment découvert que Google Chrome ne supprimait pas les données des sites Google, même si vous le lui demandiez.

Google Maps et toutes les applications de smartphones exploitant une fonction de géolocalisation en savent bien plus sur vous que l’endroit où vous vous trouvez. Une nouvelle étude en fait l’inquiétant constat.

Une nouvelle étude réalisée par des chercheurs en informatique met en évidence la quantité surprenante et inquiétante de données personnelles collectées par des applications activant la géolocalisation. Lorsque vous autorisez par exemple Google Map à utiliser votre localisation, l’application n’est pas seulement au courant de l’endroit dans lequel vous vous situez. Au passage, elle récolte des informations connexes, parfois très privées.


Pour réaliser leur étude, les chercheurs Mirco Musolesi et Benjamin Baron ont fait appel à 69 volontaires. Ces derniers ont utilisé une même application de géolocalisation développée spécialement pour l’expérience. Au cours des deux semaines d’utilisation, l’app a détecté 2500 lieux. Mais plus étonnamment, elle a aussi collecté environ 5000 données additionnelles. Il ne s’agit pas là d’endroits dans lesquels se sont rendus les utilisateurs, mais bien d’informations personnelles liées aux lieux qu’ils ont visités.

Des données très privées sur les goûts et habitudes des utilisateurs

Ainsi, l’application a pu enregistrer des données relatives à la santé des utilisateurs, à leurs goûts, à leur situation financière, ou encore à leur religion. Toutes ces informations permettent à l’application d’en savoir plus sur la personnalité et les habitudes des utilisateurs, ce qui constitue une violation de la vie privée, expliquent les chercheurs dans un communiqué de presse. Grâce au système de sondage intégré à l’application, toutes ces données ont d’ailleurs été jugées privées ou sensibles par les participants qui étaient mis au courant des informations collectées. Et bien sûr, ces informations servent ensuite à mieux cibler les publicités envoyées aux utilisateurs.

Il s’agit de la toute première étude à mettre le doigt sur les informations autres que le lieu collectées par ce type d’applications. « Nous pensons qu’il est important de montrer aux utilisateurs la quantité et la qualité des informations que les applications peuvent collecter grâce au suivi de la localisation. », explique Mirco Musolesi.

Mais l’objectif de l’étude est également de pousser les développeurs à concevoir de nouveaux moyens d’empêcher la collecte de données personnelles pendant l’utilisation de la fonction de géolocalisation. Les chercheurs évoquent par notamment la possibilité pour les utilisateurs de bloquer spécifiquement ce processus en fonction de l’endroit visité. Par exemple lorsque la personne se rend dans un établissement de santé. Mais la solution la plus efficace, tel que le rappellent aussi les deux chercheurs, serait de « bloquer la collecte de données sensibles par des tiers grâce à des paramètres de confidentialité préalablement définis. ».

La NSA affirme que les données de localisation des téléphones menacent la sécurité nationale

Source : BGR

lundi 26 avril 2021

Pourquoi Apple ne proposera bientôt plus de carte graphique ?

 

 

Pourquoi Apple ne proposera bientôt plus de carte graphique ?

Cette intégration d'un nombre croissant de fonctions au sein d'une seule puce est un mouvement de fond pour Apple. Le mouvement originel du « tout soudé » n'était qu'un début, avant la phase du « tout en un ». Il y a fort à parier que les gammes iMac et MacBook Pro se passent définitivement de cartes graphiques dédiées.


Si le « petit » M1 se contente de 8 cœurs graphiques, rien n'empêche Apple d'envisager un processeur plus richement doté, apte à propulser la gamme au niveau des cartes dédiées. Ajouter des cœurs supplémentaires à une architecture existante, c'est ainsi qu'Apple est passée de l'A10 à l'A10X ou de l'A12 à l'A12X. Et il n'y a pas beaucoup de retard à rattraper : les Mac M1 ne sont en retrait que de 10 à 30 % sur le MacBook Pro 16" et l'iMac 27" dotés d'une Radeon Pro 5300.

Autrement dit : si les 8 cœurs graphiques du M1 ne sont pas ridicules face aux cartes dédiées qu'Apple colle aujourd'hui dans sa gamme, sans doute une version enrichie pourra-t-elle venir chatouiller la Radeon Pro 5500 XT qui équipe avec ses 22 cœurs l'iMac haut de gamme. Car le rendu graphique est un domaine qui se plie fort bien à ces structures hautement parallèles où la charge de travail est répartie entre de nombreuses unités de calcul.


Là encore, Apple évitera d'enrichir un sous-traitant. Ayant habitué ses clients à des cartes de milieu de gamme ou issues du monde des ordinateurs portables, elle n'a pas besoin de s'attaquer directement aux monstres de Nvidia ou d'AMD et peut tranquillement nous assurer de meilleurs performances que la gamme précédente. Restera la question du gros Mac Pro ? ...... Une coquille vide chauffante avec un gros processeur ?


REF.:

Après l'Apple M1 : ce qui nous attend… et pourquoi Intel aura du mal à suivre

 

 

Après l'Apple M1 : ce qui nous attend… et pourquoi Intel aura du mal à suivre

REF.: Jean-Baptiste Leheup |
Club iGen 👑

Cet article réservé initialement aux membres du Club iGen est exceptionnellement en accès libre à compter d'aujourd'hui. Pour découvrir tous les articles exclusifs du Club iGen et d'autres avantages, abonnez-vous !

Maintenant que le processeur M1 est largement utilisé, il ne fait pas de doute qu'Apple a gagné son pari. Son processeur est aujourd'hui unanimement salué, et pas seulement dans le monde Apple. À part Intel, tout le monde s'accorde sur le fait que le système sur puce M1 est habilement conçu, puissant, économe, et particulièrement bien mis à profit par macOS et ses technologies. Et pourtant, il reste de belles marges de manoeuvre pour des améliorations que nous verrons sans doute apparaître au cours des prochains mois.

Le processeur M1, le plus petit des Apple Silicon

Aujourd'hui, le processeur M1 est au sommet de la gamme Apple Silicon. Il est le caïd de la famille, plus gros et plus fort que ses petits frères A13 et A14 embarqués dans les gammes iPad et iPhone. Et il n'a même pas peur d'aller se bagarrer dans la cour des grands. Mais viendra un temps où l'on se souviendra avec nostalgie de ce petit nouveau.


Car sur le papier, comparé aux processeurs qui équipent les autres ordinateurs, le M1 n'est pas si impressionnant. Pour commencer, il est tout petit. À peine 120 millimètres carrés, soit un ongle de pouce. L'Intel Core i9 de l'iMac est presque deux fois plus gros, et le Xeon du Mac Pro, six fois plus gros. Autrement dit : Apple peut sans difficulté envisager d'étendre son processeur pour y caser plus de cœurs, plus de mémoire cache, et plus de mémoire vive…

En termes de consommation, c'est aussi le petit poucet des processeurs du moment. Un Mac mini à fond la caisse consomme moins de 40 watts, tout en chatouillant l'iMac Pro qui en consomme 370. Apple n'est donc pas limitée par cet aspect. En quelque sorte, la gamme Apple Silicon permet à la marque de repartir d'une feuille presque blanche, sans contrainte particulière.

Il n'y a guère que sur la question de la cadence d'horloge qu'Apple n'a pas lésiné sur les moyens. Son premier processeur est directement calé sur une fréquence de 3,2 GHz, loin d'être ridicule au milieu de ses concurrents. Mais cette fréquence est atteinte avec une finesse de gravure de 5 nanomètres, qui doit offrir une marge que l'on ne connaît pas encore, puisqu'Apple est la première à s'y aventurer. On sait cependant qu'AMD dépasse cette fréquence avec la quasi-totalité de sa gamme Ryzen pourtant gravée en 7 nm. Et Intel, qui n'a peur de rien, parvient à maîtriser son i9 en 14 nm à près de 5 GHz.

Dans la communication d'AMD, on a toujours l'impression que ses processeurs Ryzen Threadripper sont à deux doigts de prendre feu…

Reste la question du coût. Là encore, il faut mettre tout le monde à l'aise : il y a de la marge. Un cadre d'IBM s'est lancé dans une estimation du coût du M1 pour Apple et pense pouvoir affirmer que chaque M1 coûte environ 50 $ à fabriquer. Apple a en quelque sorte internalisé le coût du développement de ce processeur, qui était auparavant facturé par Intel. Si elle doit maintenant payer elle-même les ingénieurs qui mettent au point ses processeurs, elle empoche en contrepartie une partie des copieux bénéfices qu'Intel engrangeait année après année.

M1, ce processeur dont on ne sait presque rien

Ce qui complique l'exercice de divination auquel je me prête aujourd'hui, c'est qu'on en sait relativement assez peu sur les spécifications techniques du processeur M1, malgré le travail d'analyse de l'A14 par Anandtech. Apple ne travaille que pour elle-même, contrairement à Intel, et n'a donc divulgué que les informations strictement nécessaires.

Parmi les éléments manquants, on ignore tout de la dotation en lignes PCIe des processeurs Apple Silicon. Jusqu'à présent, cette donnée n'avait que peu d'importance, que ce soit pour l'iPhone, totalement fermé, comme pour le Mac mini et le MacBook Air, dont les capacités d'extension se résument à quelques ports Thunderbolt. D'autant plus que, rappelons-le, le processeur M1 intègre la partie graphique, qui occupait auparavant plusieurs lignes PCIe (généralement, quatre lignes pour une petite carte graphique, mais jusqu'à vingt-quatre pour chaque carte AMD Radeon Pro Vega II Duo du Mac Pro 2019).


En intégrant la puce graphique à son système sur puce, Apple a sans doute pu réduire le nombre de lignes PCIe gérées par son système. Mais dans le même temps, on a vu grimper les exigences du Thunderbolt, au point que sa version 4 exige que chaque port dispose d'une capacité PCIe de 32 Gbit/s. Apple tente actuellement de noyer le poisson en n'annonçant pas officiellement de compatibilité avec le Thunderbolt 4. Elle ne pourra pas éternellement rester sur cette ligne.

Une partie de la réponse est peut-être dans le PCIe 4.0. Cette nouvelle version qui se démocratise depuis deux ans double le débit de chaque ligne, permettant ainsi d'économiser des ressources. On ne sait pas encore avec certitude si le processeur M1 gère cette nouvelle version de la norme, mais ce serait une solution pour offrir sans difficulté le niveau de connectivité des anciens Mac sans nécessiter autant de lignes physiques. Mais il y a un bémol : le PCIe 4.0 est surtout une version accélérée de la version précédente, avec peu d'optimisations. Ses composants chauffent donc beaucoup plus que ses prédécesseurs, ce qui est un frein à une adoption massive dans les petites configurations M1.

Pourquoi Apple ne proposera bientôt plus de carte graphique

Cette intégration d'un nombre croissant de fonctions au sein d'une seule puce est un mouvement de fond pour Apple. Le mouvement originel du « tout soudé » n'était qu'un début, avant la phase du « tout en un ». Il y a fort à parier que les gammes iMac et MacBook Pro se passent définitivement de cartes graphiques dédiées.


Si le « petit » M1 se contente de 8 cœurs graphiques, rien n'empêche Apple d'envisager un processeur plus richement doté, apte à propulser la gamme au niveau des cartes dédiées. Ajouter des cœurs supplémentaires à une architecture existante, c'est ainsi qu'Apple est passée de l'A10 à l'A10X ou de l'A12 à l'A12X. Et il n'y a pas beaucoup de retard à rattraper : les Mac M1 ne sont en retrait que de 10 à 30 % sur le MacBook Pro 16" et l'iMac 27" dotés d'une Radeon Pro 5300.

Autrement dit : si les 8 cœurs graphiques du M1 ne sont pas ridicules face aux cartes dédiées qu'Apple colle aujourd'hui dans sa gamme, sans doute une version enrichie pourra-t-elle venir chatouiller la Radeon Pro 5500 XT qui équipe avec ses 22 cœurs l'iMac haut de gamme. Car le rendu graphique est un domaine qui se plie fort bien à ces structures hautement parallèles où la charge de travail est répartie entre de nombreuses unités de calcul.


Là encore, Apple évitera d'enrichir un sous-traitant. Ayant habitué ses clients à des cartes de milieu de gamme ou issues du monde des ordinateurs portables, elle n'a pas besoin de s'attaquer directement aux monstres de Nvidia ou d'AMD et peut tranquillement nous assurer de meilleurs performances que la gamme précédente. Restera la question du gros Mac Pro, sur lequel nous reviendrons en fin d'article.

Pourquoi Intel n'applique-t-il pas les mêmes recettes ?

Loin de moi l'idée de tomber dans le sectarisme que l'on prête souvent aux clients d'Apple, mais ce décrochage du monde x86 face au monde ARM est l'une des questions récurrentes des observateurs depuis plusieurs mois. Qu'est-ce qui peut bien empêcher Intel d'appliquer les mêmes recettes à ses propres processeurs pour combler le fossé qui s'est creusé ? On imagine parfois qu'après tout, un processeur est un processeur, tout comme un vélo est un vélo. Il suffirait donc d'appliquer à un processeur x86 les mêmes solutions pour le rendre à la fois beaucoup plus puissant et plus économe.

Sauf que les « recettes miracles » adoptées par Apple pour son M1 sont intimement liées à l'architecture ARM qui le sous-tend. Dans cette architecture, les instructions traitées par le processeur ont une longueur fixe qui facilite leur dispersion entre les différentes unités de traitement. À l'inverse, dans l'architecture x86, les instructions se succèdent à un rythme irrégulier, ce qui complique la tâche du processeur. Intel et AMD ont inventé quelques astuces, comme un système qui tente de deviner où démarrera la prochaine instruction pour l'exécuter sans attendre. Mais plus on y a recours, plus le taux d'erreur augmente.


Tout ce qui pouvait être fait pour pousser l'architecture x86 dans ses derniers retranchements a été fait. Dès les années 1990, les processeurs 486 puis les Pentium ont adopté au plus profond de leurs transistors une structure décomposant les complexes instructions de haut niveau en micro-opérations élémentaires, plus aisées à manipuler, à réordonner et à anticiper. Ce choix technologique a également permis, au début des années 2000, de développer l'Hyper-Threading, où chaque cœur est mis à disposition de deux files d'attente d'instructions : à chaque fois que l'une des deux laisse un « blanc », l'autre file d'attente en profite pour lancer ses propres instructions. Et depuis quelques mois, Intel cherche à associer deux types de cœurs dans ses puces, à la manière de la technique big.LITTLE d'ARM. Ces méthodes ont permis d'optimiser les ressources matérielles en compensant les faiblesses héritées de la conception très linéaire des premières puces d'Intel.

Résultat : depuis quelques années, à défaut de pouvoir encore optimiser la gestion des instructions, on assiste plutôt à une multiplication des cœurs, au prix d'une explosion de la consommation électrique, du dégagement de chaleur et du coût de fabrication. Intel propose un Core i9 disposant de 10 cœurs physiques, qui tutoie les 200 watts à lui tout seul. Chez AMD, le fleuron de la gamme est actuellement le Ryzen Threadripper 3990X, un véritable monstre : un PC équipé de ce processeur à 4 500 $ peut atteindre une consommation de 1 000 watts quand il active ses 64 cœurs. Mais il se montre alors dix fois plus rapide qu'un Mac M1 sous CineBench et cinq fois plus rapide sous GeekBench.


Rien n'empêcherait aujourd'hui Intel de repartir aussi d'une page blanche. Elle en a d'ailleurs eu l'occasion en 1997 en rachetant à DEC sa famille de processeurs StrongARM, rebaptisée XScale. Elle n'a cependant pas trop su quoi en faire, et l'a revendue dix ans plus tard. Faute de succès des processeurs ARM dans le monde PC, Windows ARM n'a pas percé. Et puisque Windows ARM n'a pas percé, personne ne veut investir dans un processeur ARM pour le monde PC. Enfin, Qualcomm montre bien une certaine ambition dans le domaine, mais le fabricant vient juste de s'adjoindre les services d'anciens d'Apple pour tenter de rattraper son retard sur le processeur M1. Il est donc toujours aussi difficile de renoncer à ce qui fait l'essence de l'architecture x86, car tout l'écosystème du PC repose sur ces fondations, à commencer par Windows. C'est le serpent qui se mord la queue — pour le moment.

Verra-t-on un Mac Pro Apple Silicon ?

L'architecture ARM se prête facilement à la multiplication des cœurs, d'autant plus qu'Apple a organisé de longue date son système d'exploitation pour en tirer parti. Si Apple a le moindre doute sur la possibilité de caser toujours plus d'unités de calcul dans une puce, elle pourra s'intéresser à la microarchitecture Neoverse N1 qu'ARM diffuse depuis 2019. Le concepteur californien Ampere Computing en a tiré la puce Altra, dotée de 32 à 80 cœurs physiques (et bientôt 128). Grâce à une gravure à 7 nm, ce paquebot de 80 cœurs cadencés à 3,3 GHz, capable de gérer huit canaux de mémoire vive (contre six pour le Mac Pro actuel) et 128 lignes PCIe (contre 64 pour le processeur Xeon du Mac Pro, soit quatre fois moins de débit compte tenu de la différence de génération) se contente d'une enveloppe thermique (TDP) de 250W, à peine plus que le Xeon, dont les 28 cœurs tournent à 2,5 GHz.


Comme si un seul de ces cerveaux ne suffisait pas, Ampere a prévu la possibilité de les associer deux par deux. Des ordinateurs bi-processeurs, comme Apple a cessé d'en proposer depuis 2012. Pourtant, le jeu en vaut la chandelle : selon les tests, la version 80 cœurs de l'Altra peut se montrer trois à cinq fois plus rapide que le Xeon, pour la moitié de son prix !

En attendant, la question du Mac Pro est une vraie épine dans le pied d'Apple. La marque est consciente que ce modèle est incontournable dans sa gamme, car il lui donne une légitimité auprès d'un public exigeant. Sans Mac Pro, sa gamme ne paraîtrait pas très professionnelle. Or jusqu'à présent, pour fabriquer un Mac Pro, ce n'était pas très compliqué. Il suffisait de faire une grosse boîte et d'y inclure un gros processeur produit par Intel. Apple a bien essayé d'expliquer aux professionnels qu'ils pouvaient se contenter d'un petit cylindre discret et silencieux, mais ça n'a pas marché : elle a dû se résoudre à leur proposer à nouveau un gros machin plein de vide avec une alimentation électrique digne d'une friteuse.


Mais au moins, Apple n'a pas eu à inventer le processeur qui va avec. Pour le plus puissant Mac Pro, le tarif public du Xeon W-3275M à 28 cœurs se situe aux alentours de 7 000 €. Intel en vend des palettes entières, car la plupart d'entre eux terminent dans des fermes de serveurs, où leurs nombreux cœurs font merveille pour servir plusieurs clients ou faire tourner plusieurs machines virtuelles en parallèle. Pour Apple, c'est juste un achat comme un autre, qu'elle rentabilise en vendant la machine au bon prix.

Mais voilà, pour équiper son futur Mac Pro d'un processeur à la hauteur de la gamme Xeon d'Intel, ou de leurs concurrents Threadripper d'AMD, Apple va devoir inventer son propre monstre de puissance. Et comme elle n'a sûrement pas l'intention de le vendre ensuite à ses concurrents, il faudra qu'elle rentabilise toute seule la recherche, le développement et la fabrication de ces processeurs. Elle a peut-être un projet secret consistant à envahir les centres de données, mais en attendant, la cible du Mac Pro ne semble pas suffisante pour rentabiliser l'investissement de base.


Il sera intéressant de voir quels seront les choix d'Apple en la matière. Multiplier les cœurs dédiés à l'intelligence artificielle (comme le Neural Engine) ou les cœurs GPU ne suffira pas à offrir une machine capable de se confronter à la force brute des modèles Intel ou AMD. On n'imagine quand même pas qu'Apple va proposer un nouveau Mac Pro doté d'un processeur x86 : ce serait reconnaître qu'elle ne peut pas concurrencer Intel sur le terrain de la puissance. Même à titre provisoire, ce serait un message négatif, dont Intel s’empresserait de tirer un profit médiatique.

Apple a-t-elle dans ses cartons un super-processeur à plusieurs dizaines de cœurs, peut-être pas rentable, mais capable de servir de vitrine technologique à Apple Silicon ? Un M1X, M1 Pro ou M2 qui serait ensuite adapté au reste de la gamme ? Va-t-elle développer des systèmes multi-processeurs en associant deux, quatre, voire des dizaines de ses petits M1 ? Va-t-elle développer ses propres cartes d'extension pour externaliser la puissance de calcul à la mode GPGPU ?

Et quand Apple aura résolu cette question, il lui en restera une autre : le design. On a entendu dire qu'elle réfléchissait à un Mac Pro de taille réduite. Cela signifierait qu'elle renoncerait à la possibilité d'offrir des emplacements pour des cartes d'extension, qui justifient à eux seuls le volume de l'actuel Mac Pro. Alors, retour au Mac Pro « poubelle » ou maintien d'un Mac Pro « camion » ? L'avenir s'annonce passionnant !

mercredi 21 avril 2021

L'informatique est-elle le moyen le plus sécurisé pour stocker des données pour les générations futures dans des milliers d'années ?

 

 

·

Il y a quelques années j'aurais répondu non avec le même argument que Denis Rebaud : l'obsolescence très rapide des supports et des lecteurs.

Aujourd'hui, je pense qu'on a dépassé cette problématique. L'information est répliquée sur des supports qui peuvent être remplacés à la volée, en fonctionnement. Elle est stockée de façon incrémentale, versionnée au fur et à mesure de sa production ou de son édition. Je ne respecte moi-même plus les deux règle No 1 et 2 que je donnais il y a encore 10 ans : sauver souvent, et faire des backups. Il n'y a plus besoin de le faire. J'ai remplacé les deux règles par : synchroniser les données avec un ou deux clouds. En plus vous aurez des copies sur plusieurs appareils (PC perso, boulot, smartphone et…)

En réalité, il est devenu très difficile de détruire définitivement des données. J'avais écrit ça il y a presque 10 ans : La pénible mort des données - Pourquoi Comment Combien

et en effet depuis ce temps je n'ai plus perdu le moindre document ou la moindre photo. Le problème est plutôt qu'il y en a trop …

Pour les lecteurs, on a aujourd'hui des émulateurs de tous les ordinateurs anciens tournant sur des nouveaux. Et même des émulateurs d'émulateurs …

Regardez par exemple virtualagc

, c'est un émulateur de l'ordinateur qui équipait les missions Apollo, avec la doc et le logiciel d'époque (1969) qui tourne dessus !

Aujourd'hui je pense que l'erreur a été de croire qu'il fallait figer l'information sur un support stable (pierre, disque de quartz…) en utilisant un langage "éternel" (hiéroglyphes, EBCDIC

)

et donc qu'il fallait conserver la Pierre de Rosette et les lecteurs de cartes perforées pour pouvoir accéder à ces infos plus tard.

Comme l'ont montré l'incendie de la bibliothèque d'Alexandrie et les conquistadors qui ont détruit les documents mayas et incas, ça ne met pas l'information à l'abri des catastrophes et de l'oubli.

Au contraire, c'est la copie (exacte…) de l'information à de multiples exemplaires sur des supports successivement obsolètes qui permettra de la conserver. Des milliers d'années c'est beaucoup, mais sur quelques siècles ça ira sans doute.

 

REF.:Quora.com

Top 10 des menaces de logiciels malveillants dans le cloud

 Top 10 des menaces de logiciels malveillants dans le cloud

 Ils ciblent tous les systèmes Linux

 Pendant longtemps, Linux n'a pas été considéré comme une cible sérieuse des acteurs de la menace. Ce système d'exploitation représente un si petit pourcentage de la part de marché des ordinateurs de bureau par rapport à Windows, il n'est pas surprenant que les acteurs de la menace concentrent la majeure partie de leur attention sur l'attaque des points de terminaison Windows.

 Cependant, les temps changent rapidement à mesure que le prochain champ de bataille majeur passe des points de terminaison Windows traditionnels sur site aux serveurs et conteneurs Linux dans le cloud. Pour la perspective, 90% du cloud public fonctionne sous Linux. Les attaquants en prennent note. Certains ont commencé à écrire de nouveaux logiciels malveillants à partir de zéro exclusivement pour Linux, tandis que d'autres adaptent leurs programmes malveillants Windows existants pour cibler Linux. Les plates-formes traditionnelles de protection des terminaux conçues pour sécuriser Windows ont du mal à faire face aux menaces Linux. 

Si vous êtes dans le cloud, assurez-vous de disposer d'une solution de sécurité compatible avec les systèmes Linux, à la fois en termes de détection des menaces et de performances. Ci-dessous, nous mettons en évidence 10 familles de logiciels malveillants Linux ciblant le cloud qui devraient être sur votre radar. 

1. TrickBot Cela peut surprendre certains que TrickBot possède des logiciels malveillants Linux. Le populaire cheval de Troie bancaire Windows est utilisé comme malware-as-a-service (MaaS) par les cybercriminels et les acteurs des États-nations, principalement dans le cadre de campagnes à motivation financière. TrickBot est capable de voler des informations d'identification, de se propager sur le réseau, de voler des cookies et de déployer des ransomwares. Fin 2019, SentinelOne et NTT ont signalé une nouvelle menace TrickBot, appelée Anchor, qui agit comme une porte dérobée et utilise DNS pour communiquer avec son serveur de commande et de contrôle (C2). En juillet 2020, le chercheur Waylon Grange a découvert un échantillon Anchor ciblant les systèmes Linux. La variante Linux n'est pas seulement une porte dérobée, mais a également la capacité de supprimer et d'exécuter d'autres logiciels malveillants, y compris la version Windows de TrickBot, dans le but d'infecter les machines Windows sur le même réseau.

 2. Kobalos Les chercheurs d'ESET ont découvert une porte dérobée multiplateforme sophistiquée appelée Kobalos. Le logiciel malveillant ciblait des ordinateurs hautes performances appartenant à des fournisseurs de sécurité de point de terminaison, des fournisseurs de services Internet et des universités de premier plan. Kobalos possède des fonctionnalités avancées, notamment l'évasion du réseau et des techniques anti-médico-légales. Une fois qu'un serveur est compromis, il peut être utilisé comme serveur de commande et de contrôle (C2) par d'autres serveurs compromis. Il a été découvert plus tard que les hôtes des victimes contenaient un processus de porte dérobée OpenSSH destiné à voler les informations d'identification des connexions entrantes. 

3. FreakOut Le botnet FreakOut infecte les systèmes Linux principalement en exploitant des vulnérabilités connues. Les serveurs vulnérables ciblés incluent le Zend Framework, le Liferay et le stockage en réseau (NAS) TerraMaster. Une fois que l'attaquant a obtenu l'accès au système, il télécharge un script python connectant la victime à un serveur de commande et de contrôle (C2) afin que l'attaquant puisse contrôler la machine compromise. FreakOut a été vu effectuer tous les types d'activités malveillantes, du cryptojacking, de l'analyse de port et du reniflage de réseau, à la propagation à d'autres appareils du réseau via des exploits de vulnérabilité, des attaques DDoS et un reverse-shell ouvert. FreakOut met l'accent sur la nécessité de mises à jour de sécurité régulières ainsi que sur la sécurité d'exécution.

 4. RansomEXX RansomEXX, un cheval de Troie de cryptage de fichiers ciblant autrefois uniquement les machines Windows, a commencé à attaquer les machines Linux à la fin de 2020 lorsqu'il est devenu un malware multiplateforme. Cette menace cible diverses entités gouvernementales et entreprises technologiques. Les attaques récentes incluent le département des transports du Texas, le système judiciaire brésilien et le géant de la technologie commerciale Konica Minolta.

 5. Drovorub Selon l’alerte conjointe du FBI et de la NSA, Drovorub est l’œuvre d’APT28, également connue sous le nom de Sofacy ou Fancy Bear. Drovorub se compose d'un implant avec un rootkit de module de noyau, un outil de transfert de fichiers, un module de transfert de port et un serveur de commande et de contrôle (C2). Une fois installé sur la machine de la victime, le logiciel malveillant est capable de communiquer avec le serveur C2, de télécharger / télécharger des fichiers, d’exécuter des commandes arbitraires avec des privilèges root et de se propager à d’autres hôtes du réseau. Le rootkit du module noyau utilise notamment diverses techniques pour cacher le malware, permettant à l'implant de rester caché dans le réseau et d'attaquer à tout moment. Étant donné que cette menace est associée à un groupe APT russe, nous supposons que ses opérations ciblant Linux ne font que commencer. 

6. WellMess WellMess est une porte dérobée avec une version Windows et Linux, chacune possédant des capacités similaires qui ont été mises à jour depuis la première version du logiciel malveillant en 2018. Le National Cyber ​​Security Center du Royaume-Uni rapporte que WellMess a été utilisé dans plusieurs tentatives pour voler des informations à entreprises développant des vaccins COVID-19. Cette menace est attribuée à Blue Kitsune (alias APT29 ou Cozy Bear).

 7. GitPaste-12 Découvert en octobre 2020 par Juniper Threat Labs, ce botnet cible les serveurs Linux et les appareils Internet des objets (IoT). GitPaste-12 utilise plusieurs vulnérabilités connues pour exploiter ses victimes, certaines de ces vulnérabilités étant Apache Struts (CVE-2017-5638), les routeurs ASUS (CVE-2013-5948), les routeurs Tenda (CVE-2020-10987) et un plugin WebAdmin pour opendreambox (CVE-2017 -14135). Le botnet héberge du code malveillant sur GitHub et Pastebin pour les portes dérobées et les logiciels malveillants de cryptomining.

 8. IPStorm IPStorm est un autre botnet autrefois ciblé uniquement sur les machines Windows, mais a fait le passage à Linux (et également à macOS). IPStorm abuse d'un peer-to-peer (P2P) légitime pour masquer le trafic malveillant, permettant à l'attaquant d'exécuter du code arbitraire sur la machine infectée. Les nouvelles variantes de Linux partagent le code avec les anciennes versions de Windows tout en implémentant de nouvelles fonctionnalités, notamment la force brute SSH, pour se propager à d'autres victimes sur le réseau cloud. IPStorm fait partie de la liste croissante de logiciels malveillants multiplateformes écrits en Golang et utilisés dans des attaques sur des serveurs cloud Linux. Téléchargez le guide de détection et de réponse IPStorm. 

9. Cloud Snooper Cloud Snooper fait partie d'une attaque sophistiquée utilisant une combinaison unique de techniques pour échapper à la détection, tout en permettant au malware de communiquer librement avec son serveur de commande et de contrôle (C2) via un pare-feu. Les hôtes Windows et Linux ont été infectés par cette campagne. La complexité de cette attaque nous donne des raisons de croire que les acteurs de la menace derrière le malware sont soutenus par l'État-nation.

 10. Logiciel malveillant de cryptojacking Le marché haussier récent et la valeur accrue des crypto-monnaies ont attiré un grand nombre de logiciels malveillants de cryptojacking Linux ciblant les environnements cloud. Ce type d'attaque exploite la grande puissance de traitement du cloud computing pour extraire de manière malveillante la crypto-monnaie. Il existe de nombreux types de logiciels malveillants de cryptojacking. Certains sont basés sur des projets open source comme XMRig Miner, tandis que d'autres sont développés à partir de zéro comme Kinsing, ce dernier qui fait partie d'une campagne en cours compromettant les serveurs qui ont exposé les ports de l'API Docker. Outre l'extraction de la crypto-monnaie, Kinsing a d'autres capacités. Il collecte les informations d'identification SSH pour accéder à d'autres serveurs cloud hébergés sur l'infrastructure, assure la persistance et met en œuvre des techniques de contournement de la défense. Des attaques récentes ont montré que les cryptomineurs Linux trouveront leur chemin dans l'environnement de production. Assurez-vous que vous disposez d'une protection d'exécution pour les éliminer lors de l'exécution. 

Résumé

 Le paysage des menaces du cloud abrite un certain nombre de logiciels malveillants Linux et de plus en plus. Avec une augmentation de 500% du nombre de familles de malwares liés à Linux au cours de la dernière décennie, les environnements cloud sont un vecteur d'attaque majeur pour les acteurs de la menace. 

Si vous utilisez actuellement le cloud ou prévoyez de le faire prochainement, gardez un œil attentif sur ces menaces.

 Les EDR Windows traditionnels ont du mal à détecter les menaces Linux. Intezer Protect défend les environnements cloud contre les dernières menaces Linux sans ralentir les performances. Essayez notre édition communautaire gratuite.

 

REF.: