Powered By Blogger

Rechercher sur ce blogue

Aucun message portant le libellé serveurs. Afficher tous les messages
Aucun message portant le libellé serveurs. Afficher tous les messages

jeudi 1 juillet 2021

Apple paye 300 millions de dollars à Google pour utiliser leurs serveurs

 

 

Apple paye 300 millions de dollars à Google pour utiliser leurs serveurs

Apple serait obligé de se fournir au près de Google, ses serveurs ne suffisant plus à stocker les données utilisateurs de la Pomme.


Publié le

 

Par :Tristan Carballeda


Apple développe de façon accélérée son service de cloud, iCloud. Utilisée par de plus en plus de propriétaires d’iPhone, iPad et Mac, la solution de stockage à distance de la Pomme s’est faite, en quelques années, une place de choix dans le monde du cloud. Il est donc assez cocasse de savoir qu’Apple dépense près de 300 millions de dollars dans des frais de serveurs auprès de Google. Car si la firme de Cupertino utilise ses propres serveurs pour stocker les montagnes d’informations dont elle dispose, ces derniers ne suffisent pas, et Apple est bien obligé de faire appel à la concurrence pour ranger toutes les données qu’elle a en sa possession.

Selon les informations de The Information, les frais en service de stockage à distance d’Apple auraient augmenté de 50 % d’une année sur l’autre, s’élevant aujourd’hui à plus de 300 millions de dollars. Une somme qui irait pour sa très grande partie directement dans les poches de Google, la firme de Mountain View étant le principal associé de la Pomme dans cette affaire. Au total, le G de GAFA stockerait pas moins de huit exaoctets (8 millions de To) d’informations pour son acolyte et concurrent.

Apple va trop vite pour suivre son propre rythme

Une pratique étrange, qui est finalement assez peu exotique dans le monde des nouvelles technologies. Autre exemple « d’entraide » entre géants du numérique, le stockage des données de Facebook, sur des serveurs d’Amazon. En effet, la grande majorité des données de Facebook sont stockées sur des serveurs appartenant à AWS, une filiale du mieux connu groupe Amazon.

La présence d’Apple dans les serveurs de Google aurait même gagné son petit nom « Bigfoot » selon les sources de The information. Apple paye ici le prix de son développement ultra-rapide, qu’elle-même n’arrive pas à suivre. La Pomme travaillerait fortement en interne pour résoudre ce problème de stockage, la firme de Cupertino ne voulant pas être prise dans un scandale de fuite de données provoqué par Google.

 

REF.:

mardi 4 février 2020

Une fuite de mots de passe pour plus de 500 000 serveurs, routeurs et dispositifs IoT



Une fuite de mots de passe pour plus de 500 000 serveurs, routeurs et dispositifs IoT

Sécurité : La liste a été partagée par l'opérateur d'un service de démarrage DDoS.

Un hacker a publié cette semaine une longue liste d'identifiants de connexion Telnet pour plus de 515 000 serveurs, routeurs et appareils connectés à l'Internet des objets (IoT). La liste, publiée sur un forum bien connu des hackers, comprend l'adresse IP de chaque appareil, ainsi qu'un nom d'utilisateur et un mot de passe pour le service Telnet, un protocole d'accès à distance qui peut être utilisé pour contrôler les appareils sur Internet.
Selon les experts à qui ZDNet s'est adressé cette semaine, et une déclaration du hacker lui-même, la liste a été compilée en balayant tout Internet à la recherche d'appareils qui exposaient leur port Telnet. Le pirate a ensuite essayé d'utiliser (1) les noms d'utilisateur et mots de passe par défaut (paramètres d'usine), ou (2) des combinaisons de mots de passe personnalisés mais faciles à deviner. Ces types de listes - appelées "bot lists" - sont communes lors d'opérations de "botnet IoT". Les pirates parcourent Internet pour créer des bot lists, puis les utilisent pour se connecter aux périphériques et installer des logiciels malveillants. Elles sont généralement privées, bien que certaines aient fait l'objet de fuites en ligne par le passé, comme une liste de 33 000 références Telnet de routeurs domestiques en août 2017. A notre connaissance, il s'agit de la plus grande fuite de mots de passe Telnet connue à ce jour.

publicité

DDoS et fuite de données

Il semblerait que la liste a été publiée en ligne par le responsable d'un service DDoS-for-hire (DDoS booter). Lorsqu'on lui a demandé pourquoi il avait publié une liste de "bots" aussi massive, il a répondu qu'il avait mis à niveau son service DDoS en passant du travail sur des botnets IoT à un nouveau modèle qui repose sur la location de serveurs à haut rendement auprès de fournisseurs de services cloud.

Les listes qui ont fuitées sont datées d'octobre-novembre 2019. Certains des périphériques fonctionnent maintenant sur une adresse IP différente, et les identifiants de connexion peuvent avoir été modifiés. Impossible de dire si les identifiants sont encore valides, nous n'avons pas pu les tester - ce serait illégal bien entendu. En utilisant des moteurs de recherche IoT comme BinaryEdge ou Shodan, nous avons identifié des périphériques dans le monde entier, certains sur des réseaux domestiques, d'autres sur les réseaux des fournisseurs de services cloud.

Le danger demeure

D'après un expert sécurité IoT souhaitant rester anonyme, même si certaines entrées de la liste ne sont plus valides, ces listes restent très utiles pour un attaquant habile. Les périphériques mal configurés ne sont pas répartis uniformément sur Internet, mais ils sont généralement regroupés sur le réseau d'un seul FAI en raison de la mauvaise configuration des périphériques par le personnel du FAI lors de leur déploiement auprès de leurs clients respectifs. Le pirate peut donc utiliser les adresses IP des listes, déterminer le fournisseur de services, puis ré-analyser le réseau du FAI pour mettre à jour la liste avec les dernières adresses IP.
ZDNet a partagé la liste des identifiants avec des chercheurs en sécurité fiables et approuvés qui se sont portés volontaires pour contacter et avertir les FAI et les propriétaires des serveurs.

Source.: ZDNet.com

lundi 13 août 2018

L'Internet mondial est contrôlé par 7 clés secrètes, détenues par 14 personnes dans le monde

L'Internet mondial est contrôlé par 7 clés secrètes, détenues par 14 personnes dans le monde


Et si on vous disait que 14 personnes dans le monde ont le contrôle total d'Internet ?
L'histoire pourrait être tirée d'un roman de science-fiction, mais elle est pourtant bien vraie : la totalité de l'Internet mondial est contrôlé par 7 véritables clés "physiques". Et leurs détenteurs se rassemblent régulièrement, lors de rituels ultra-sécurisés.
James Ball, journaliste au Guardian, a eu la chance d'assister récemment à l'une de ces cérémonies secrètes baptisées Internet Corporation for Assigned Names and Numbers (ICANN). Cet organisme est "responsable de l'attribution d'adresses internet numériques aux sites Web et aux ordinateurs", comme le précise Bussiness Insider.
Et pour garder les Internets, ICANN a sélectionné 7 personnes à qui ont été confiées les fameuses clés, et 7 personnes supplémentaires pour garder les clés de secours. Ces 14 personnes peuvent donc potentiellement faire la pluie et le beau temps sur le web, et même le faire disparaître !
Les clés physiques ouvrent des coffres-forts dispersés dans le monde entier. À l'intérieur de ces coffres se trouvent des "cartes à clés" intelligentes. Lorsque les 7 cartes sont rassemblées, elles constituent une "clé maîtresse", qui est en fait un code informatique permettant d'accéder à l'ensemble des informations gardées par l'ICANN.
Les 14 heureux élus se rassemblent 4 fois par an depuis 2010, afin de générer régulièrement une nouvelle "clé maîtresse" et ne pas risquer de fuite de ce code à l'importance capitale. De quoi inspirer les scénaristes d'Hollywood.
• Maxime Lambert

mardi 31 juillet 2018

Internet backbone : Après Arpanet,les serveurs racines ne filtrent pas les paquets illégitimes transitant par leurs réseaux,car c'est payant $


En 1961, l'US Air Force confie à la DARPA, agence de recherche technologique du département de la Défense des États-Unis, créée 3 ans plus tôt, un puissant ordinateur, le seul de sa série construit par IBM, le Q-32, pour concevoir un programme destiné au commandement des bombardements stratégiques. Joseph Carl Robnett Licklider, docteur en psychoacoustique mais surtout spécialiste des technologies de l'information est engagé. Il a auparavant travaillé sur un programme d'ordinateurs envoyant des données par lignes téléphoniques pour un système de défense antiaérien, le projet Semi-Automatic Ground Environment (SAGE)4.
En 1962, il rejoint l'Arpa et prend la direction du « bureau Contrôle-Commande » nouvellement créé. Il fait venir Fred Frick qui a travaillé avec lui au Lincoln Laboratory sur le projet SAGE. Ils sont tous les deux partisans du temps partagé sur les ordinateurs, des machines alors très coûteuses pour permettre à différents centres de recherche, universités ou entreprises de travailler sur une même machine. Ils vont donc dès 1962 commencer à réfléchir à interconnecter informatiquement tous les centres de recherches américains avec lesquels l'Arpa travaille. Le but est alors de partager plus facilement ressources et données et surtout de faire baisser les coûts et limiter les doublons en recherche4. Opérationnel le , Arpanet sert de banc d'essai à de nouvelles technologies de gestion de réseau, liant plusieurs universités et centres de recherches. Les deux premiers nœuds qui forment l'Arpanet sont l'université de Californie à Los Angeles (UCLA) et l'Institut de recherche de Stanford (le premier message, le simple mot login, sera envoyé sur le réseau le entre ces deux institutions, à la suite d'un bug, les trois dernières lettres mettront une heure pour arriver), suivis de peu par les universités de Californie à Santa Barbara et de l'Utah4. En 1980, Arpanet se divise en deux réseaux distincts, l'un militaire (MILNET, de Military Network, qui deviendra le DDN — Defense Data Network) et l'autre, universitaire (NSFnet)4, que les militaires abandonnent au monde civil. La réflexion des constructeurs s'oriente vers une informatique décentralisée.



 



ARPANET ou Arpanet (acronyme anglais de « Advanced Research Projects Agency Network », souvent typographié « ARPAnet »1) est le premier réseau à transfert de paquets développé aux États-Unis par la DARPA. Le projet fut lancé en 19662, mais ARPANET ne vit le jour qu'en 1969. Sa première démonstration officielle date d'octobre 1972.
Le concept de commutation de paquets (packet switching), qui deviendra la base du transfert de données sur Internet, était alors balbutiant dans la communication des réseaux informatiques. Les communications étaient jusqu'alors basées sur la communication par circuits électroniques, telle que celle utilisée par le réseau de téléphone, où un circuit dédié est activé lors de la communication avec un poste du réseau.
Les ordinateurs utilisés étaient principalement des ordinateurs commerciaux de 3e génération construits par Digital Equipment Corporation (DEC), International Business Machines (IBM) ou Scientific Data Systems. Peut-être comprenaient-ils encore des Univac à tubes électroniques, technologie certes désuète en 1969 (où on abandonnait déjà les ordinateurs de deuxième génération transistorisés pour d'autres à circuits intégrés comme l'IBM 1130), mais c'est précisément pour cela que ces ordinateurs étaient libres pour un usage expérimental, les autres étant saturés de travaux3.




Même si, en théorie, Internet peut fonctionner avec un seul serveur racine, son rendement ralentirait si plus de quatre serveurs racine étaient en panne pour une durée prolongée. En août 2000, quatre des 13 serveurs ont connu une brève panne à cause d’un problème technique. Cependant, la plus sérieuse panne jamais connue est survenue en juillet 1997, après que des experts eurent transféré une liste de répertoire tronquée à sept serveurs racine et mirent quatre heures à régler le problème. À ce moment, la plus grande partie de la circulation sur Internet avait été interrompue.on dit que ça ralenti de 6% le traffique des DNS.


 En 2008,Verisign en entretiens 2 serveurs racine. 
Le serveur racine F par exemple en 2008,répondait a 270 million de demande DNS par jour.
Il y a 10 serveurs racines appartenant aux USA seulement et les autres ailleurs:
comme the « G » server owned by the U.S. Department of Defense Network Information Center in Vienna, Va.;
 the « H » server at the U.S. Army Research Lab in Aberdeen, Md.; 
the « I » server, located in Stockholm; 
the « K » server, located in London; 
and the « M » server, located in Tokyo.
 C'est vraiment une grosse machine internet.Si l’attaque est passée relativement inaperçue, c’est en grande partie dû au fait que plusieurs fournisseurs Internet et entreprises entreposent, de façon systématique, une grande quantité d’information dans des caches. «Internet a été conçu pour pouvoir faire face à des pannes, mais quand vous éliminez les serveurs racine, vous ne savez pas combien de temps vous pourrez fonctionner sans eux» souligne Alan Paller, directeur de la recherche de l’Institut SANS, une organisation de sécurité de Bethesda, au Maryland. 

Les serveurs A, C, F, G, I, J, K, L et M sont maintenant distribués géographiquement grâce à anycast
En général, le serveur le plus proche du client au sens du réseau sera alors utilisé. C'est ainsi que la plupart des serveurs physiques du système de noms de domaine sont à présent situés hors des États-Unis.
Les serveurs racines du système de noms de domaine peuvent également être déclinés localement, par exemple sur les réseaux des fournisseurs d'accès à internet. Ils doivent être synchronisés avec le fichier de la zone racine33 du Département du Commerce des États-Unis ainsi que le préconise l'ICANN. De tels serveurs ne sont pas des serveurs DNS alternatifs mais une déclinaison locale des serveurs racines de A à M. 

 *Lettre

adresse IPv48 adresse IPv68 Autonomous System8 Ancien nom Société Localisation

A9 198.41.0.4 2001:503:ba3e::2:30 AS198369 ns.internic.net VeriSign trafic distribué par anycast

B10 192.228.79.2011 2001:500:84::B AS39435311 ns1.isi.edu Université de Californie du Sud Marina Del Rey, Californie, États-Unis

C12 192.33.4.1213 2001:500:2::c AS214913 c.psi.net Cogent Communications trafic distribué par anycast

D14 199.7.91.1315, 2001:500:2d::d AS1088615 terp.umd.edu Université du Maryland College Park, Maryland, États-Unis

E16 192.203.230.1016 2001:500:a8::e AS2155611 ns.nasa.gov NASA Mountain View, Californie, États-Unis

F17 192.5.5.24118 2001:500:2f::f AS355718 ns.isc.org Internet Systems Consortium trafic distribué par anycast

G19 192.112.36.4 2001:500:12::d0d AS592719 ns.nic.ddn.mil Defense Information Systems Agency trafic distribué par anycast

H20 198.97.190.53 4 2001:500:1::53 AS150821 aos.arl.army.mil United States Army Research Laboratory (en) Aberdeen, Maryland, États-Unis

I22 192.36.148.1723 2001:7fe::53 AS2921623 nic.nordu.net Autonomica (Netnod (en)) trafic distribué par anycast

J24 192.58.128.30 2001:503:c27::2:30 AS2641525 VeriSign trafic distribué par anycast

K26 193.0.14.12926 2001:7fd::1 AS2515227 RIPE NCC trafic distribué par anycast

L28 199.7.83.42 2001:500:3::42 AS2014429 ICANN trafic distribué par anycast

M30 202.12.27.3331 2001:dc3::35 AS750031 WIDE Project (en) trafic distribué par anycast






Le fichier de la zone racine est disponible publiquement44. Il est peu volumineux (de l'ordre de 200 ko) et contient 283 délégations de domaines de premier niveau, 1145 serveurs de noms, 1124 A records et 251 AAAA records en juillet 2010.
Des signatures DNSSEC RRSIG ont été ajoutées aux fichiers de la racine en juillet 201045




Le , la racine complète du DNS a fait l'objet d'une attaque de grande ampleur pendant une heure, les treize serveurs A à M étant visés36,37. Pendant cette attaque, sept serveurs sur treize ont vu leurs performances dégradées en raison d'un flux de 100 000 à 200 000 requêtes par seconde vers chacun des serveurs. Toutefois, l'attaque n'a pas provoqué de grandes perturbations du réseau mondial, ce qui montre la robustesse du système. Selon le président-directeur général de Verisign, qui gère deux serveurs racine, l'ensemble des requêtes aurait pu être assuré par un seul serveur.
L'attaque a été réalisée selon la méthode DDoS (déni de service). Les pirates ont pu, grâce à un parc de machines très important, générer un nombre de requêtes deux à trois fois supérieur à la capacité de charge des treize serveurs visés, soit quarante fois le volume habituel des requêtes.
Le système anycast a été mis en place après cette attaque pour neutraliser les attaques de type DoS. 

En février 2007, plusieurs attaques ont été lancées contre des serveurs DNS racines, dont dépend directement le fonctionnement normal de l’ensemble d’Internet. Il est peu probable que ces attaques visaient à détruire Internet car sans lui, les réseaux de zombies ne pourraient exister. Il s’agissait plutôt d’une démonstration de la force et des possibilités des réseaux de zombies.
Des publicités pour la réalisation d’attaques par déni de service distribué s’affichent ouvertement sur de nombreux forums consacrés au sujet.C'est les serveurs F, G, L et M ont été attaqués pendant 24 heures à partir de 10:00 UTC38. G et L ont été affectés sérieusement, tandis que F et M ont rapporté une charge inhabituelle. L'impact sur M a été amoindri grâce à anycast.
La source s'avère être un réseau botnet de 5 000 machines essentiellement basées en Corée du Sud et dirigé depuis les États-Unis39.




 
Le 30 novembre 2015 (de 06:50 UTC jusqu’à environ 09:30 UTC) et le 1er décembre 2015 (de 05:10 UTC à 06:10 UTC), les 13 serveurs racine ont fait l’objet de deux attaques DDoS, causant des délais d’attente sur les serveurs racine B, C, G et H40. Environ 5 millions de requêtes ont été envoyées par seconde vers les serveurs avec deux domaines uniques à l'origine de l'attaque, un pour chaque attaque. Selon le rapport du site root-servers.org, trois des treize serveurs racine ont subi des ralentissements41,42, mais l'impact sur l'ensemble d'internet est resté limité43




La dorsale originale d'Internet était ARPANET. En 1989 la dorsale NSFNet a été créée parallèlement au réseau MILNET de l'armée américaine, et ARPANET a cessé d'exister. Finalement l'architecture du réseau a suffisamment évolué pour rendre obsolète la centralisation du routage. Depuis la fin de NSFNet le , Internet repose entièrement sur des réseaux appartenant à des entreprises de services Internet.
On parle parfois encore de « l'Internet backbone » bien que ce concept ne recouvre plus rien de bien défini : aucun réseau n'est officiellement au cœur d'Internet.


Différences d’un serveur racine dédié:

Les serveurs racine du DNS sont le sujet de cet article et sont les serveurs racine du système de noms de domaine. Ils ne doivent pas être confondus avec les serveurs racine dédiés (Dedicated Root Server) qui eux peuvent être loués à partir de fournisseurs d’hébergement Web. Ces serveurs sont parfois familièrement nommés serveurs racine car ils se distinguent d’un serveur managé par le fait d’un accès à la racine, dit root acces.

Hiérarchies alternatives

Il est possible de créer une hiérarchie DNS alternative avec un ensemble de serveurs racine alternatifs. Un serveur qui voudrait y avoir recours doit disposer de la liste des serveurs racine de cette hiérarchie DNS alternative.
Ces hiérarchies peuvent définir d'autres domaines de premier niveau. Ces domaines ne seront pas accessibles par les clients qui n'utilisent pas cet ensemble de serveurs. La possibilité qu'un domaine de premier niveau soit défini de façon différente entre des hiérarchies alternatives existe également.
Parmi ces hiérarchies alternatives, on peut citer :
L'Internet Architecture Board (IAB) a exprimé, dans le RFC 282646, la nécessité de conserver une hiérarchie unique pour préserver la cohésion du réseau Internet.

Hiérarchies alternatives en pair à pair

Différents systèmes de réseaux en pair à pair ont également été créés, dans le but d'offrir une alternative viable tout en réduisant les frais de l'infrastructure, parmi lesquels :

Et certains disent que le problême est post-backbone:
« Les DDOS et plus spécifiquement les DrDOS sont des attaques par amplification de trafic, ou pour faire simple, les attaquants utilisent des serveurs et des réseaux mal configurés comme des amplificateurs » précise ainsi NBS System.
Pour le cabinet de sécurité, il y a donc deux causes : le laxisme d’administrateurs dans la configuration des serveurs DNS. Selon Sophos, ce sont plus de 20 millions de ces serveurs qui ne sont pas correctement configurés et qui notamment vont répondre à des requêtes provenant d’adresses n’appartenant pas à leur réseau. C’est pourquoi il est recommandé de désactiver la récursivité sur un serveur DNS.
Mais pour NBS System, la responsabilité de certains acteurs des réseaux est également engagée : les opérateurs de niveau 2. « De très nombreux opérateurs (dont les plus grands Français, Allemands et US) ne filtrent pas les paquets transitant par leurs réseaux et acheminent des paquets qu’ils savent illégitimes » dénonce le cabinet de sécurité.
Des opérateurs de niveau 2 qui n’en feraient pas assez 
Et la motivation serait uniquement financière. « Les opérateurs de niveau 2 se facturent le trafic envoyés entres eux. En résumé, plus ils envoient de trafic, plus ils facturent le voisin qui reçoit ce trafic. C’est donc une raison très monétaire qui les motive plus qu’une très théorique impossibilité technique derrière laquelle ils se cachent pour ne pas résoudre le problème » enfonce NBS System.


vendredi 4 mai 2018

Comment changer les DNS de Windows 7 et 10 vers 1.1.1.1 CloudFlare



CloudFlare, connu pour ses solutions de sécurité et Anti-DOS pour sites internet proposent des serveurs DNS.
Ces derniers sont réputés comme étant rapides et ne faisant pas de collectes de données (contrairement à ceux de Google).
L’adresse des serveurs DNS de CloudFlare est 1.1.1.1.
Ne vous attendez pas non plus à une révolution en terme de vitesse, il y a aussi pour beaucoup un effet d’annonce et marketting.
Un comparatif sur le site des serveurs DNS existent : Comparatif des serveurs de noms (DNS) : Google, OpenDNS, Quad9, Ultra-DNS etc.
Cet article vous explique comment changer les DNS sur votre ordinateur pour passer sur ceux de CloudFlare.

Comment changer les DNS de Windows 7 et 10 vers 1.1.1.1 CloudFlare

Je parle d’effets marketing, car annoncé partout comme plus rapide mais probablement vérifié par personne.
Sur ma connexion internet, les DNS CloudFlare sont plus lents que les DNS Orange.

La modification des serveurs DNS se fait sur la configuration des les interfaces réseaux.
Pour accéder à celle-ci facilement :
  • Sur votre clavier, appuyez sur la touche Windows + R
  • Dans la fenêtre exécuter, saisissez : C:\Windows\system32\control.exe npca.cpl
Comment changer les DNS de Windows 7 et 10 vers 1.1.1.1 CloudFlare
La page avec les interfaces réseaux s’ouvrent alors avec la liste des cartes réseaux.
Vous pouvez avoir une carte ethernet pour les connexions en filaires et une care Wifi pour les connexions Wifi.
Il faut modifier les adresses des serveurs de noms (DNS) pour les deux.
Pour entrer dans la configuration de la carte, faites un clic droit dessus puis propriétés.
Comment changer les DNS de Windows 7 et 10 vers 1.1.1.1 CloudFlare
La liste des des protocoles et connexions de la carte s’affiche.
Double-cliquez sur TCP/IP V4 afin d’ouvrir les paramètres de ce dernier.
En bas, cochez l’option « Utilisez l’adresse de serveurs de noms » suivantes afin de saisir les adresses DNS de CloudFlare 1.1.1.1 en serveur DNS primaire et 1.0.0.1 en serveur DNS secondaire.
Cliquez sur OK sur les deux fenêtres afin que les changements soient pris en compte.
Comment changer les DNS de Windows 7 et 10 vers 1.1.1.1 CloudFlare
Si vous utilisez l’IPV6, vous pouvez aussi modifier les serveurs DNS dans la configuration IPV6 : 2606:4700:4700::1111 en serveur DNS primraire et 2606:4700:4700::1001 en serveur DNS Secondaire.

Les liens autour des DNS

Les liens du site autour des serveurs DNS :
REF.:

vendredi 1 décembre 2017

Amazon annonce un nouveau Cloud pour héberger des données gouvernementales "secrètes"



«Alors que Google et d'autres entreprises technologiques collaborent avec l'Etat américain pour censurer l'Internet et que les pays du monde entier préparent leurs propres plans de censure sur Internet - tout cela pour combattre l'épouvantail des« fausses nouvelles »- le Pentagone s'est secrètement engagé en surveillance de masse de l'activité en ligne de la population mondiale, en étroite consultation avec #Amazon. »

 Amazon annonce un nouveau nuage pour héberger des données gouvernementales "secrètes"Amazon Web Services (AWS), la société de cloud computing détenue par Amazon, a annoncé lundi qu'elle lance un nouveau cloud "AWS Secret Region" conçu pour héberger des données gouvernementales classées "Secret". La région secrète AWS est le produit le plus récent de L'accord de 600 millions de dollars de l'entreprise a été conclu en 2013 avec la Central Intelligence Agency (CIA) et l'appareil de renseignement militaire, et signale l'intégration complète d'Amazon au gouvernement et aux agences d'espionnage. 
Bien qu'aucun détail n'ait émergé sur le coût, l'architecture de sécurité ou la conception du nuage de la région secrète, les dirigeants de l'entreprise et de l'État l'ont salué comme le point culminant du partenariat approfondi d'Amazon avec les agences d'espionnage américaines.Dans un message sur le "AWS Government, Education, & Nonprofits Blog", la société proclame fièrement: "Avec le lancement de cette nouvelle région secrète, AWS devient le premier et unique fournisseur de cloud commercial à offrir aux régions des charges de travail gouvernementales complètes. gamme de classifications de données, y compris Non classifié, Sensible, Secret et Top Secret.
 En utilisant le cloud, le gouvernement américain est mieux à même de fournir les informations et les données nécessaires aux parties prenantes de la mission. "Résumant l'importance du nouveau nuage de stockage, Teresa Carlson, vice-présidente d'AWS Worldwide Public Sector, a déclaré dans un communiqué: "La US Intelligence Community peut désormais exécuter ses missions avec un ensemble d'outils commun, un flux constant de la flexibilité d'évoluer rapidement avec la mission. La région AWS Top Secret a été lancée il y a trois ans alors que le premier nuage commercial aérien et les clients de la communauté des services secrets américains en ont fait un succès retentissant. En fin de compte, cette capacité permet une plus grande collaboration entre les agences, aide à fournir des informations critiques aux décideurs plus rapidement et permet une augmentation de la sécurité de notre nation. "John Edwards, directeur de l'information de la CIA, a déclaré: «La région secrète AWS est un élément clé de la stratégie cloud multi-fabric de la communauté Intel. Il aura le même impact matériel sur le CI au niveau Secret que C2S a eu à Top Secret. "La «région AWS Top Secret» à laquelle Carlson et Edwards se réfèrent est un nuage de calcul privé, hors réseau, utilisé uniquement par les 17 agences qui composent l'appareil d'état militaire de renseignement.

 Le cloud, connu sous le nom de Commercial Cloud Service (C2S), stocke une grande partie des données Internet et de télécommunications collectées par les agences IC. Il s'agit d'une composante du programme d'Intelligence Information Technology Enterprise (IC ITE) lancé en 2011 en réponse aux violations de données effectuées par Chelsea Manning, qui ont exposé les crimes de guerre perpétrés par l'impérialisme américain en Afghanistan et en Irak.
 Dans un discours prononcé devant le Sommet du secteur public AWS 2017 à Washington DC en juin dernier, Edwards a félicité Amazon pour les avantages que le nuage de C2S a apporté à la CIA et à d'autres agences d'espionnage.
 Il a déclaré: "C'est la meilleure décision que nous ayons prise. C'est la chose la plus innovante que nous ayons jamais faite. Cela fait une différence matérielle et a un impact matériel à la fois sur la CIA et IC [communauté du renseignement]. "Edwards a noté que le cloud a permis de réaliser d'importantes économies, tout en offrant au CI la possibilité de «dimensionner de vastes infrastructures en quelques secondes». 
Il a révélé que «l'adoption du cloud à travers le CI augmente de 208% en glissement annuel. "Edwards a continué à caractériser le nuage C2S comme l'équivalent d'un super-héros, possédant les superpuissances de vitesse, puissance, scalabilité, force, durabilité et vérité, avec chaque attribut comme une rubrique distincte sur ses diapositives PowerPoint.En ce qui concerne la "Force" du cloud C2S, il a déclaré: "Je ne dirai jamais que tout ce que vous faites dans le cyber-monde est totalement invincible, mais c'est très proche. ... Je dirais que c'est probablement la chose la plus sûre qui existe. "Les affirmations d'Edwards selon lesquelles le C2S est presque impénétrable sont démenties par les révélations faites la semaine dernière qu'une base de données massive créée par le Département de la Défense (DoD) et hébergée sur un serveur AWS a été publiquement exposée. La base de données contenait plus de 1,8 milliard de messages Internet provenant de milliers de personnes à travers le monde qui avaient été compilées par le Pentagone au cours des huit dernières années, apparemment dans le cadre d'une vaste opération de collecte de renseignements. Selon toute vraisemblance, cette base de données a été classée comme très secrète et aurait donc pu être hébergée sur le nuage C2S supposé impénétrable. 

UpGuard a écrit: «Le directeur de la recherche sur les risques cybernétiques de UpGuard, Chris Vickery, a découvert trois compartiments de stockage en nuage Amazon Web Services S3 configurés pour permettre à tout utilisateur authentifié AWS de parcourir et de télécharger le contenu; Les comptes AWS de ce type peuvent être acquis avec une inscription gratuite. "Décrivant le caractère des documents publiés, UpGuard a noté: «Les dépôts semblent contenir des milliards de les publications publiques sur Internet et les commentaires sur les nouvelles ont été rédigés à partir des écrits de nombreuses personnes d'un large éventail de pays, y compris les États-Unis, par  CENTCOM et PACOM, deux commandements unifiés du Pentagone chargés des opérations militaires américaines à travers le Moyen-Orient, l'Asie et le Pacifique Sud.
 "Le caractère et l'ampleur de cette opération de collecte de données donnent un aperçu des activités d'espionnage profondément antidémocratiques que le Pentagone et le Les publications Internet compilées par le Pentagone comprenaient du contenu capturé à partir de sites de nouvelles, de sections de commentaires, de forums Web et de sites de médias sociaux comme Facebook, présentant plusieurs langues.  
D'après UpGuard. Google et d'autres entreprises technologiques travaillent avec l'Etat américain pour censurer l'Internet et les pays du monde entier préparent leurs propres plans de censure sur Internet, le tout au nom de la lutte contre l'épouvantail. de "fausses nouvelles" -le Pentagone a secrètement été engagé dans la surveillance de masse de la population mondiale sur La création du nouveau nuage de la région secrète, parallèlement à la tendance plus générale à la censure et à la surveillance d'Internet, souligne l'intégration croissante de toutes les grandes entreprises technologiques avec l'État en préparation à une vaste expansion de la guerre à l'étranger. Jeudi dernier, le Sénat a voté pour approuver la loi sur l'autorisation de défense nationale de 700 milliards de dollars par un vote de voix, après avoir rapidement passé à la Chambre des représentants par un vote bipartisan de 356 à 70. Tout en augmentant de manière significative Le budget prévoit également la création de «portails de commerce électronique», ce qui mènera éventuellement à l'acheminement de milliards de dollars directement à Amazon.

REF.:

mercredi 22 novembre 2017

T411 entre les mains de Cloudflare ? Pour lutter contre le spam, les spammers et des bots ou de la fraude en ligne.


T411 fermé,la neutralisation survient au moment où le site comptait fêter ses 13 ans d’existence!

La présidente du CNC Centre national du cinéma,est à la première à se féliciter de l’opération lancée par la Police Française et Suédoise. D’autres organismes officielles devraient inévitablement lui emboîter le pas! La SACEM (Société des auteurs, compositeurs et éditeurs de musique), dépositaire la plainte visant T411 en 2015, parle d’un préjudice d’un milliards d’euros pour les ayant droits.
En réalité, la disparition de T411 profite déjà à d’autres sites pirates que nous nous abstiendrons de nommer dans cet article. Le téléchargement illégal c’est un peu comme une hydre, vous voyez l’idée ? Déjà à l’époque de la fermeture de The Pirate Bay, nous posions le même constat.
Bilan de l’opération ?
 Les deux administrateurs présumés du site, un couple d’Ukrainiens, ont été appréhendés lors d’une perquisition, menée avec des agents de police français, dans le sud de la capitale Suédoise.Les deux personnes ukrainiennes devraient être inculpées pour infraction au droit d’auteur et blanchiment d’argent(ndlr: on parle du Bitcoin probablement ici). En parallèle, les autorités s’emparaient des serveurs qui hébergeaient jusqu’à il y a peu l’un des derniers sites de torrents francophones.
La police ne s’est pas bornée à arrêter les deux individus à la tête de T411…Selon le parquet de Rennes, point de départ de l’enquête judiciaire, 4 autres personnes auraient été interpellées dans l’hexagone. Il s’agirait de quelques modérateurs qui officiaient sur le site. Leur rôle se bornait à contrôler la qualité du contenu proposé par les internautes.
Les forces de l’ordre suédoises ont aussi confirmé la saisie de différents types de matériels informatiques dont des serveurs. Une information corroborée par le parquet de Rennes dans un communiqué :
" Dans le cadre de cette opération judiciaire, de nombreux matériels informatiques devaient être saisis pour exploitation, ainsi que des biens mobiliers et immobiliers produits des infractions commises " .
 Les gros noms sont: T411, Zone-Téléchargement… après la fermeture de deux des plus grands sites de téléchargement illégal francophones, d’autres ont très vite pris la suite. De quoi se demander l’efficacité de ces fermetures sur le piratage de contenus protégés par le droit d’auteur. Hadopi défend pourtant son bilan dans une étude.
Il y a bientôt un an, Zone Téléchargement était définitivement fermé par la gendarmerie,avec seulement 14 uploaders pour 90% du sites. Au terme d’une longue enquête de 2 ans, les autorités sont en effet parvenues à arrêter les administrateurs de la plateforme. Bien vite, des clones du site ont été mis en ligne. Ces nouvelles versions visaient toutes à prendre la suite de Zone Téléchargement.
Quelques mois plus tard, c’était au tour de T411 de subir le même sort. Mais très vite d’autres sites ont émergé dans leur sillage. T411 est devenu T411.si et YggTorrent, tandis que Zone-Telechargement est devenu Zone-Telechargement.ws. Et les trois sites cumulent aujourd’hui un trafic impressionnant.

Les nuisances et préjudices a fréquenter ces sites sont:

Du côté des nuisances, on retrouve un affichage de faux messages alarmants pour vous inciter à acheter ou à installer un logiciel, par exemple un outil d’amélioration de performances ou un antivirus inutiles ou à des prix démesurés ou encore une hausse notable de courriers indésirables (spams) reçus dans la boîte mail après avoir laissé l’adresse sur un site.
Sont aussi mentionnés le ralentissement soudain du PC lié à l’infection présumée par un virus ou un logiciel malveillant, l’apparition de publicités destinées à des publics adultes (contenus pornographiques, sites de jeux) lors de la navigation, l’apparition importante et soudaine de nombreuses publicités pendant le surf et la modification des réglages par défaut de votre navigateur contre la volonté de l’internaute.
Pour les préjudices, la Hadopi cite la perte d’argent après un vol de coordonnées bancaires ou d’une usurpation des moyens de paiement, l’usurpation de l’identité sur un site ou service nécessitant un compte utilisateur (réseau social, site de jeux…) ou l’arnaque consistant à souscrire un abonnement non désiré après avoir répondu à un formulaire prétexte.
Figurent aussi l’achat indésirable de produits ou prestations avec les identifiants de votre compte sur un site marchand, l’utilisation à l’insu de l’internaute de sa boîte mail qui se met à envoyer des mails non sollicités (spams) aux contacts et sans votre consentement ainsi que l’impossibilité d’accéder à vos fichiers personnels (ils ne s’ouvrent plus ou sont illisibles) et devoir payer pour les récupérer — les fameux ransomwares.



T411(Torrent 411) un Honeypot ?
Cloudflare est une entreprise américaine qui propose un réseau de distribution de contenu, des services de sécurité Internet et des services distribués de serveur de noms de domaine, entre le visiteur et le fournisseur de services d’hébergement de l’utilisateur de Cloudflare ; le système fonctionne comme un serveur proxy inversé pour les sites Web. Le siège social de Cloudflare se trouve à San Francisco (Californie), avec des implantations à Londres, Singapour, Champaign, Austin, Boston et Washington1,2.


Mais pourquoi tant de surveillance pour du P2P ?


Cloudflare a été créée en 2009 par Matthew Prince, Lee Holloway et Michelle Zatlyn, qui travaillaient précédemment sur Project Honey Pot. La solution Cloudflare a été lancée à l’occasion de la conférence TechCrunch Disrupt de septembre 2010. Elle a attiré l’attention des médias en juin 2011, après avoir fourni des services de sécurité au site Web LulzSec. En juin 2012, Cloudflare s’est associée à plusieurs hébergeurs Web, tels que HostPapa, pour mettre en œuvre sa technologie Railgun. En février 2014, Cloudflare a freiné l’attaque DDoS la plus importante jamais enregistrée, qui a atteint les 400 Gbits/s, contre un client dont l’identité est restée confidentielle. En novembre 2014, Cloudflare a signalé une autre attaque DDos massive à 500 Gbits/s, dont les cibles étaient des sites de médias indépendants3.
En 2004, Matthew Prince et Lee Holloway créent « Project Honey Pot », une organisation à but non lucratif qui cherche à lutter contre le spam avec un système distribué de détection des spammers et des bots. Cette dernière connaît un grand succès, et intéresse notamment en 2007 le département de la Sécurité intérieure qui y voit l'opportunité d'exploiter des données sur la fraude en ligne.
Par la suite Prince et Holloway font équipe avec Michelle Zatlyn. Le projet d'entreprise de Cloudflare remporte en avril 2009 la compétition Harvard Business School Business Plan4. En novembre, l'entreprise clôt un tour de table « série A (en) » de 2 millions de dollars auprès de Venrock et Pelion Venture Partners, complété en juillet 2012 par une levée de 20 millions auprès des mêmes partenaires, ainsi que New Enterprise Associate.
En 2010, Cloudflare lance une version bêta fermée aux membres de la communauté du projet Honey Pot. Le lancement au grand public se fait le 27 septembre 2010 au cours de la conférence TechCrunch Disrupt.
En juin 2011, le service fait parler de lui en protégeant le site du groupe Lulzsec5, qui a recours à ses services pour se protéger d'attaques DDOS.
En 2012, il est estimé que plus de 200 millions d'utilisateurs visitent des sites qui sont protégés par Cloudflare. L'entreprise acquiert au même moment environ 1 000 clients par jour5.
En juin 2012, le groupe de hacker UGNazi attaque Cloudflare via des failles dans le système d'authentification de Google, pour obtenir des accès d'administrateurs au service et défigurer 4chan6.
En mars 2013, Spamhaus, entreprise de lutte contre le spam basée à Genève et cliente de Cloudflare, annonce avoir subi une attaque DDOS de très grande ampleur après avoir placé sur sa liste noire le site internet néerlandais Cyberbunker7. Après les événements, Matthew Prince estime sur le blog de l'entreprise que l'attaque DDOS compterait parmi les plus grosses jamais lancées, avec des pics à 300 Gbit/s sur certaines cibles, avec pour conséquences possibles un ralentissement de la vitesse des accès à Internet en Europe8.
 En juin 2014, Cloudflare a fait l’acquisition de CryptoSeal, fondé par Ryan Lackey, une opération visant à accroître les services de sécurité proposés à l’internaute. En février 2014, Cloudflare a acquis StopTheHacker, qui propose une détection et une suppression automatique des programmes malveillants, ainsi qu’un contrôle des réputations et des listes noires. En décembre 2016, Cloudflare a racheté Eager, dans le but de mettre à niveau sa propre plateforme d’applications, afin de permettre une installation de type « glisser-déplacer » d’applications tierces sur des sites où Cloudflare est actif 10.
Cloudflare propose un service gratuit de base, et des options payantes (protection DDOS avancée par exemple)11. Parmi ses clients, on peut citer le gouvernement turc, Stratfor, Laughing Squid ou Metallica12.
L'infrastructure du service s'appuie sur une version modifiée de Nginx, et intègre la technologie SPDY développée par Google13. En mars 2013, il compte vingt-trois centres de données14.Cloudflare propose à tous ses clients le paramètre « I'm Under Attack Mode ». Selon Cloudflare, cela peut empêcher les attaques visant la couche 7 en présentant un défi de calcul JavaScript, qui doit être resolu avant qu’un utilisateur puisse accéder à un site Web. Cloudflare a protégé SpamHaus d’une attaque DDoS qui a dépassé 300 Gbits/s. L’architecte principal d’Akamai a indiqué qu’il s’agissait de « l’attaque DDoS publiquement annoncée la plus importante de l’histoire d’Internet ». Cloudflare a également indiqué avoir absorbé des attaques qui ont atteint les 400 Gbits/s pour une attaque par réflexion utilisant le service NTP15. Pare-feu pour les applications Web Cloudflare permet aux clients ayant souscrit une formule payante d’utiliser par défaut un service de pare-feu pour les applications Web ; le pare-feu possède l’OWASP ModSecurity Core Rule Set en plus de l’ensemble de règles propre à Cloudflare et des ensembles de règles pour les applications Web populaires16.

Ce qu'on a dit:

 T411 et XXXXXXX   fusionnent pour devenir n° 1 ?
C'est évident que le Staff de XXXXXXX, est derrière depuis le début (bien sur ! on va s'échanger des login de domaine et autres infos sensibles entre sites de piratage ;))) )
Ils ont profité de la mort de l'original pour squatter le domaine, se sont fait promouvoir par la pseudo presse spécialisée qui voulaient surfer sur le buzz provoqué par la fermeture , on mit des magnets sans login pour attirer + de gibier (si ça c'est pas la preuve ultime que c'est pas les originaux...) et maintenant hop ! Faut se logger et ils récupèrent tout le traffic !
Très bon coup de poker en tout cas ! En générale c'est plutôt les pages Facebook de "buzz" qui font ça

 "T411 serait-il de retour ? Une nouvelle copie du site vient en effet d’ouvrir ses portes et il semblerait qu’il ne s’agisse pas d’un simple clone cette fois."
Quel est l'intérêt de s'inscrire si les torrent ne fonctionnent qu'avec des trackers public...
[–]rinsaOurs 34 points  
Aucun, c'est un honeypot.
[–]FrenchDude647Réunion 5 points  
Question sincere, c'est quoi le pb des trackers publiques ? Je me suis jamais vraiment pris la tete et je chopais tout sur piratebay depuis des annees, y'a un risque de se faire choper ?
[–]rinsaOurs 18 points  
Tracker public : aucun flicage sur le ratio, donc aucun intérêt à rester en seed. Du coup c'est cool pour le contenu récent, mais les torrents dépassent généralement pas le mois d'espérance de vie.
Selon l'entrevue de t411 a Nextwarez.com:
Nous avions précédemment vu qu’XXXXXXXX, avait réussi à prendre sa place dans le classement des sites warez les plus visités en août; mais le nouveau T411 avec l’extension en .si l’a rejoint un mois après, en septembre. Nous avons donc rencontré le staff du nouveau site, afin d’en savoir un peu plus sur eux …Le site T411 a fermé le 26 juin 2017 et nous avons mis en ligne la relève le 17 juillet ,mais tiendra-t'il encore le coup ?




Aujourd'hui t411.si ,est down et celui qui le remplace et qu'ont ne peut mentionner (P2P)est encore associer avec cloudfflare et Amazon.com(qui a des serveurs clouds ,test actuellement la technologie Blockchain et pour un peu de rentabilité évidemment,Amazon travail avec le gouvernement américain)  ! Oui encore cloudflare, car a la réanimation de t411.si  pour un bref moment, son compétiteur actuel P2P Francophone(qu'on ne nommera pas) avait probablement accès aux serveurs de l'ex-t411,par Cloudflare !!!


Voici les 2 serveurs non fonctionnels de t411:
FQDN:

t411.si
Host Name
Domain Namet411.si
Registrysi
TLDsi
DNS

  • ivan.ns.cloudflare.com
  • vida.ns.cloudflare.com 









Depuis quelques jours(270318), les pirates qui visitent le tracker YggTorrent sont accueillis par un message de l’administration sur la page d’accueil du site : le 31 mars 2018, 3 nouveaux administrateurs prendront la place des gérants actuels.

Un des admins aurait de graves problèmes de santé

Depuis quelque temps, nous n’entendions plus parler du tracker YggTorrent, qui avait d’ailleurs fusionné avec son concurrent T411.si l’année dernière. Aujourd’hui, un message annonçant un changement d’administration est affiché en page d’accueil du site, mais les raisons ne sont pas précisées. Quoi qu’il en soit, ce changement d’équipe ne prendra effet que le 31 mars 2018, avec pour conséquence un changement de nom de domaine

Chez NextWarez, nous avons directement pensé à un rachat, comme cela a sûrement été fait avec Zone-Téléchargement il y a quelques mois. L’équipe rédactionnelle du site Numerama a pu prendre contact avec les administrateurs actuels, et a réussi à glaner quelques informations. La décision du changement de staff aurait été prise suite à un diagnostic médical défavorable délivré à l’un des admins, ce qui a remis en cause l’importance d’YggTorrent pour toute l’équipe. D’autres raisons ont poussés les gérants à prendre cette décision, comme des désaccords internes, ou même des attaques ciblées.

Le site aurait été vendu à 3 administrateurs étrangers

Toujours d’après les informations de Numerama, l’un des administrateurs actuel a annoncé que le site n’avait pas été cédé, mais bien vendu contre une certaine somme d’argent (dont le montant n’a pas été précisé). Et avant cela, Ygg aurait reçu pas moins de 4 demandes de rachat durant les mois précédents. Aucune autre information n’a été divulguée, mais sur certains forums spécialisés dans le warez, cette « passation de pouvoir » serait fausse et montée de toute pièce, afin que les attaques et les critiques sur certains membres de l’administration cessent. Toutefois, ces rumeurs sont à prendre avec des pincettes, il est très probable qu’YggTorrent ait été vendu, surtout quand on sait que ce tracker est dans la ligne de mire des ayants droit...






REF.: