Powered By Blogger

Rechercher sur ce blogue

jeudi 4 novembre 2021

Data Center économique: Infomaniak lance Public Cloud, son alternative aux GAFAM

 

 

Data Center économique: Infomaniak lance Public Cloud, son alternative aux GAFAM

L’hébergeur suisse de sites web, a lancé le 28 septembre sa solution d’infrastructure cloud. Son objectif est double. Il souhaite offrir une alternative européenne crédible aux GAFAM, et à un tarif agressif.

Infomaniak a annoncé le lancement de son service cloud, baptisé Public Cloud. Son offre, agressive, n’en est pas moins haut de gamme. L’entreprise technologique suisse, compte ainsi rivaliser avec les géants du marché que sont AWS (Amazon Web Services) et Microsoft Azure.

Infomaniak est une entreprise suisse qui propose des services d’hébergement de sites web et de diffusion de contenus. Depuis plusieurs mois, elle s’élève contre la décision de la Suisse de choisir des services étrangers pour ses services cloud. Le lancement de son cloud répond donc aussi à une logique de souveraineté.

Dans la même catégorie

Baromètre Cegid : quel rôle jouent les solutions de gestion cloud dans la transformation numérique des PME ?

Une « alternative souveraine aux GAFAM »

L’entreprise veut proposer une alternative crédible, mais aussi indépendante, souveraine et européenne. Le lancement d’un service laaS (infrastructure as a Service, un modèle de cloud destiné aux entreprises), faisait partie de ses priorités 2021. Son offre, Public Cloud, est aujourd’hui disponible aussi bien pour des entreprises que pour des organisations publiques.

Une façon de s’adresser également aux administrations publiques européennes, et notamment suisses. L’annonce de ce lancement a été faite via un article sur le site de l’entreprise, avec un titre évocateur, « Infomaniak lance une alternative souveraine aux GAFAM à des tarifs très agressifs ».


Ce service est hébergé dans des data centers dont Infomaniak est le propriétaire, et situés en Suisse. Une façon supplémentaire d’assurer la souveraineté et l’indépendance de ce cloud.

Une solution cloud développée il y a plus de 10 ans

« Nous nous démarquons avec une solution extrêmement robuste et très agressive financièrement. Avec notre offre, les entreprises gardent leur liberté et ne sont pas captives dans des solutions propriétaires », affirme Marc Oehler, PDG d’Infomaniak.

Si la société évoque bien un « lancement », il s’agit en réalité plus de la diffusion d’un service déjà existant, qu’autre chose. En effet, une solution cloud a été développée au sein d’Infomaniak il y a une dizaine d’années. Elle était réservée à ses seuls services (dont ses outils en ligne comme KMeet), et quelques grandes entreprises.

Concrètement, l’offre Public Cloud est fondée sur la technologie OpenStack. Il s’agit d’un ensemble de logiciels open source, permettant le déploiement de services cloud. Cette technologie est reconnue, et utilisée par de nombreuses entreprises et administrations, comme Orange et la NASA. D’un point de vue informatique, cette offre a de nombreux avantages.

Parce qu’elle repose sur de l’OpenStack, et ne dispose d’aucun système de vendor lock-in, un client pourra changer à tout moment de fournisseur. Un système de lock-in, ou enfermement propriétaire, est un système dans lequel un client ne peut pas utiliser un produit d’un autre fournisseur.


Dans un article sur son site, Infomaniak explique que, « Dopé par des processeurs AMD EPIC à 32 cœurs, des stockages NVME de 6e génération et des GPU NVidia T4, le Public Cloud d’Infomaniak offre des performances hallucinantes ». « Tout cela à des tarifs plus agressifs que les GAFAM ou les autres fournisseurs de Public Cloud OpenStack », est-il encore écrit.

Une offre agressive

Toutefois, apporter une logique de souveraineté et un service sécurisé ne suffit pas à se faire une place parmi les géants du marché. Pour y arriver, Infomaniak mise donc sur une technologie haut de gamme, couplée à un tarif attractif. La plus petite offre donne accès à 1 CPU, 2 Go de RAM, à partir de 2,65 euros par mois. « Et l’utilisateur paie ici uniquement les ressources qui sont effectivement consommées, avec la possibilité d’ajuster à la demande la puissance de calcul dont il a besoin », précise l’article.

L’ensemble des tarifs des configurations possibles du cloud suisse, sont bien en deçà de ceux de ses concurrents. Selon la configuration, Public Cloud peut être jusqu’à 40 fois moins cher qu’AWS, et 5,9 fois moins qu’OVH.

Infomaniak espère aussi convaincre en mettant en avant l’aspect écologique de son offre, « Infomaniak compense à 200% la totalité de ses émissions de CO2, utilise exclusivement de l’énergie renouvelable certifiée et refroidit uniquement ses centres de données avec de l’air filtré ».

Les arguments de l’entreprise située à Genève sont en phase avec l’actualité. La pollution liée à l’activité numérique pose de plus en plus question, et la souveraineté et l’indépendance numérique sont devenues un enjeu politique central.

 

REF.:

Quand ont été créés les noms de familles ?

Quand ont été créés les noms de familles ?

 

En France, ça commence vers 1000. L'état, pour gérer la population, a besoin de pouvoir distinguer les individus, et à l'époque, il n'y a que des Marie, Joseph et autres prénoms bibliques.

Au début, ce sont des surnoms associés à un individu. Il va falloir environ deux siècles pour qu'un surnom se fige et se transmette de génération en génération.

Dans certains cas, le nom correspond au prénom du père (Bernard, André, Rocard). Mais il y a aussi le nom de métier (Le Goff, Schmitt, Lefèbvre, Fauré…veulent tous dire forgeron), le lieu d'où on vient (Dubois, Hamel, Dupont, d'Isigny devenant Disney pour les lointains descendants d'un frère d'arme de Guillaume le Conquérant dans sa conquête de l'Angleterre), une particularité physique ou un trait de personnalité, positif ou négatif, au premier degré ou ironique (Legrand, Legros, Blanchard).

Pendant longtemps, les patronymes n'ont pas d'orthographe fixe. Les gens ne savent ni lire, ni écrire. Quand un nom était écrit dans un registre, son orthographe dépendait de l'imagination et de l'oreille du rédacteur. Au fil, du temps, un nom pouvait évoluer de manière importante.

Ce n'est que tardivement que les orthographes se sont fixés.

Mes parents ont découvert après leur mariage que notre nom s'écrivait avec deux "r". Ils ont longtemps pensé qu'il y avait eu une erreur au moment de l'enregistrement. C'est quand j'étais ado qu'on a découvert que ce n'était pas le cas. Mon grand-père avait bien un "r" mais son père deux. Il avait rétabli la "bonne" orthographe pour ses fils, pas pour ses filles.

L'ancienneté, la grande diversité des origines, celle des langues et des dialectes, l'immigration au cours des siècles, les déformations diverses et variées, font qu'il y a beaucoup, beaucoup de patronymes français. On parle de plus de 300 000, mais c'est entre 200 000 et 800 000.

 

REF.:Quora.com

Google lance un mode de recherche bluffant combinant texte et image

 

 

Google lance un mode de recherche bluffant combinant texte et image

Google vient d’annoncer une mise à jour de Google Lens. Le mode de recherche visuelle pourra combiner recherche d’image et mots-clés pour des résultats bluffants.


Google Lens est une technologie de reconnaissance d’images développée par Google. Elle s’appuie sur l’appareil photo de votre téléphone pour traduire un texte en temps réel, identifier des plantes et des animaux, copier-coller des photos, et bien plus encore. À l’occasion de son événement Search On, Google a annoncé une future mise à niveau de Google Lens qui offrira la possibilité d’ajouter du texte à des recherches visuelles, pour que les utilisateurs puissent poser des questions sur ce qu’ils voient. Une innovation encore plus utile que le mode sombre, déployé tout récemment sur Google Search.

Google a résolu le problème des recherches d’images complexes avec des résultats pertinents en une requête

En pratique, voici comment ça fonctionne. Imaginons que vous trouvez la photo d’une chemise qui vous plaît lors de vos recherches sur Google Images. Avec Google Lens, vous pourrez alors trouver un autre vêtement avec le même type de motif, de façon à obtenir un ensemble assorti. En saisissant une phrase du type « chaussettes avec ce motif », Google trouvera désormais des résultats pertinents de façon beaucoup plus rapide et facile que si vous étiez resté sur une simple saisie de texte.


Autre exemple, vous avez cassé une pièce de votre vélo, mais vous ignorez comment elle s’appelle. Plutôt que de vous plonger dans le manuel utilisateur pour chercher son nom, il vous suffira de la pointer avec votre appareil photo et de saisir « comment la réparer ». Google vous renverra alors vers une vidéo pertinente qui vous montrera comment résoudre votre souci mécanique.

Ce type de recherche a toujours posé problème à Google jusqu’à maintenant, sans parler des autres moteurs de recherches. Les requêtes qui comptent un élément visuel difficile à décrire avec des mots, ou qui peuvent être décrites de différentes façons, sont un vrai défi pour la recherche sur Internet. En combinant image et mots en une seule requête, Google multiplie les chances d’obtenir tout de suite des résultats de recherche pertinents.


Une mise à jour de Google Lens combinant texte et image basée sur de l’intelligence artificielle

Cette mise à jour de Google Lens se base sur MUM, ou Modèle unifié multitâche (Multitask Unified Model). Il s’agit d’une technologie basée sur l’intelligence artificielle, révélée cette année lors de la conférence annuelle des développeurs I/O de Google. Elle est capable de comprendre simultanément des informations dans un large éventail de formats, notamment du texte, des images et des vidéos, et de tirer des conclusions et des liens entre des sujets, des concepts et des idées. C’est cette technologie qui va être injectée dans la mise à jour de la recherche visuelle Google Lens.

La mise à jour de Google Lens basée sur MUM sera déployée dans les prochains mois, après avoir été soumise à des « tests et évaluations rigoureux« , a indiqué Google lors de la conférence Search On. Pas sûr que ce mode de recherche extrêmement pratique plaise à ses concurrents : Bing, le moteur de recherche de Microsoft, est déjà contrarié du fait que « Google » est le principal mot qu’on y cherche.

Source : TechCrunch

La Russie derrière 58% des piratages d’État depuis un an, selon Microsoft

 

 

La Russie derrière 58% des piratages d’État depuis un an, selon Microsoft

Dans une récente étude, l’entreprise américaine affirme que la majorité des piratages soutenus par l’État provient de Russie. Elle met également en avant la tendance des attaques informatiques, qui est à la hausse.

Microsoft a récemment publié une étude, Microsoft Digital Defense Report, sur les « dernières tendances en matière de cybersécurité ». Dévoilé à l’occasion des Assises de la Sécurité 2021, ce rapport (pdf) dévoile notamment le rôle important de la Russie dans la majorité des piratages.

Il est fondé sur l’analyse de 24 trillions « de signaux de sécurité analysés toutes les 24 heures » par les équipes du géant américain, de juillet 2020 à juin 2021.

Dans la même catégorie

Les principales tendances technologiques pour les prochaines années vues par Gartner

La Russie, grande championne du piratage

Il révèle notamment que, durant l’année qui vient de s’écouler, « 58 % de toutes les cyberattaques observées par Microsoft liées à des États-nations provenaient de Russie ». Le rapport pointe aussi le fait que ces piratages sont de plus en plus efficaces. Leur taux de réussite passe ainsi en un an de 21% à 32%. Une augmentation qui traduit également la croissance du nombre d’attaques.

Les secteurs d’activité les plus ciblés sont « le commerce de détail (13 %), les services financiers (12 %), l’industrie (12 %), les administrations (11 %) et les établissements de santé (9 %) ». En près d’un an et demi, la firme de Redmond a constaté une « augmentation de 220 % de l’utilisation de l’authentification forte », ce qui témoigne de la sensibilisation et des efforts des entreprises concernant la cybersécurité.

Les attaques ont plus précisément ciblé de nombreuses personnalités occidentales importantes, notamment des agences gouvernementales du Royaume-Uni ou de l’Ukraine, mais aussi des membres de l’OTAN. Sans oublier le piratage d’agences gouvernementales et de grandes entreprises américaines, comme le montre l’affaire SolarWinds.

Les piratages russes, ou tentatives de piratages, connaissent depuis un an une augmentation de 52%, selon le rapport. Cependant, il n’y a pas que la Russie et la Chine comme origine des attaques. Le pays en deuxième position sur ce sujet est la Corée du Nord, en augmentation de 12%. L’importance de ces attaques nord-coréennes, qui échoue dans 94% des cas en termes de phishing par mail, est toutefois moindre comparée aux attaques russes, qui connaissent un taux de réussite bien plus élevé.


Selon le rapport de Microsoft, le phishing est l’un des modes de piratage les plus répandus, et se déroule généralement en 5 étapes.

Les États-Unis, cible privilégiée selon Microsoft

D’après l’entreprise dirigée par Satya Nadella, les États-Unis sont, « de loin », le pays le plus touché par les rançongiciels. Il serait trois fois plus victime que la Chine, pourtant le second pays le plus touché, toujours selon le rapport.

Microsoft est aussi régulièrement la cible de piratage. Cette année, le piratage de son service Exchange a fait couler beaucoup d’encre. De nombreux pays et organisations, au premier rang desquels se trouvaient les États-Unis, l’Union Européenne, et l’OTAN, ont alors accusé la Chine. Bien que deuxième pays le plus touché par des piratages, la Chine est aussi l’un des pays à l’origine d’un grand nombre d’attaques. « Les acteurs soutenus par l'État chinois ont réussi à compromettre les victimes dans 44 % des cas », explique l’étude.

Le géant américain a travaillé en collaboration avec des agences gouvernementales américaines pour réaliser cette étude, qui ne mentionne rien sur d’éventuels piratages du gouvernement américain. Ceci pose naturellement des questions sur l'indépendance et l'objectivité de l’étude.

La multinationale affirme aussi que depuis SolarWinds, les pirates russes se concentrent essentiellement sur les organisations gouvernementales liées à la politique étrangère ou encore à la sécurité nationale. Des organisations développant des vaccins anti-Covid aux États-Unis, en Australie, au Canada, ou encore en Israël et au Japon, ont particulièrement été ciblées. Le piratage d’État a ainsi un taux de réussite de près de 20%.

Les attaques informatiques, une tendance à la hausse

Enfin, le groupe de piratage connu sous le nom de Cozy Bear, et soupçonné d’être lié au gouvernement russe, serait à l'origine de 92% de l’activité russe détectée par le géant américain. Un groupe probablement à l’origine de SolarWinds.

Pour Microsoft, cette efficacité croissante des pirates russes devrait amener à « davantage de compromis à fort impact dans l'année à venir ». Le nombre de victimes de rançongiciels ne cesse d’augmenter ces dernières années. Le plus souvent, les hackers réclament de l’argent, notamment en crypto-monnaies. Le rapport de Microsoft, qui pointe l’importance de ces attaques, intervient aussi dans un contexte de campagne présidentielle, toujours propice aux ingérences étrangères et aux piratages.

Alors que Joe Biden n’est élu que depuis quelques mois, c’est la France, juste après l’Allemagne, qui entre en campagne. Il faut donc s’attendre à voir le nombre d’attaques informatiques continuer d’augmenter en 2022.

 

REF.:

mercredi 3 novembre 2021

Facebook: Plus de détails sur la super panne du 4 octobre 2021

 Facebook: Plus de détails sur la super panne du 4 octobre 2021

 

Maintenant que nos plateformes sont opérationnelles comme d'habitude après la panne d'hier, j'ai pensé qu'il vaudrait la peine de partager un peu plus de détails sur ce qui s'est passé et pourquoi – et surtout, comment nous en apprenons. Cette panne a été déclenchée par le système qui gère la capacité de notre réseau dorsal mondial. L'épine dorsale est le réseau que Facebook a construit pour connecter toutes nos installations informatiques entre elles, qui se compose de dizaines de milliers de kilomètres de câbles à fibres optiques traversant le monde et reliant tous nos centres de données. Ces centres de données se présentent sous différentes formes.

 Certains sont des bâtiments massifs qui abritent des millions de machines qui stockent des données et exécutent les lourdes charges de calcul qui maintiennent nos plates-formes en marche, et d'autres sont des installations plus petites qui connectent notre réseau fédérateur à l'Internet plus large et aux personnes utilisant nos plates-formes. 

 Lorsque vous ouvrez l'une de nos applications et chargez votre flux ou vos messages, la demande de données de l'application se déplace de votre appareil vers l'installation la plus proche, qui communique ensuite directement via notre réseau fédérateur vers un centre de données plus important. C'est là que les informations nécessaires à votre application sont récupérées et traitées, puis renvoyées sur le réseau vers votre téléphone. Le trafic de données entre toutes ces installations informatiques est géré par des routeurs, qui déterminent où envoyer toutes les données entrantes et sortantes. 

Et dans le travail quotidien intensif de maintenance de cette infrastructure, nos ingénieurs doivent souvent prendre en charge une partie de la dorsale hors ligne pour la maintenance, par exemple en réparant une ligne de fibre, en ajoutant plus de capacité ou en mettant à jour le logiciel sur le routeur lui-même. C'était la source de la panne d'hier,le 4 octobre 2021.

 Au cours de l'un de ces travaux de maintenance de routine, une commande a été émise avec l'intention d'évaluer la disponibilité de la capacité du réseau fédérateur mondial, ce qui a involontairement interrompu toutes les connexions de notre réseau fédérateur, déconnectant efficacement les centres de données Facebook dans le monde. Nos systèmes sont conçus pour auditer des commandes comme celles-ci afin d'éviter de telles erreurs, mais un bogue dans cet outil d'audit l'a empêché d'arrêter correctement la commande. 

 

*********************************************************************************

 Le protocole internet Memcached mit en doute par une attaque DDOS sur le système Azure de Microsoft en 2020 et 2021 récemment ou d'une cyberattaques comme avec SolarWinds, est un système de mise en cache d'objets distribué, à haute performance et à code source ouvert. Il est couramment utilisé par des réseaux sociaux comme Facebook et son créateur LiveJournal comme un stockage clé-valeur en mémoire, pour de petits morceaux de données arbitraires. Dans ce cas, il est très utile. Lorsqu'il est utilisé de manière abusive, Cloudflare, l'entreprise spécialisée dans la sécurité et les performances du web, a découvert que 15 octets de requête peuvent provoquer 750 Ko de trafic d'attaque, soit une amplification de 51 200 fois ! Facebook utilise memcached car il offre un accès à faible latence à un pool de stockage partagé à faible coût. Ces qualités de memcached permettent à Facebook de créer des fonctionnalités gourmandes en données qui seraient autrement peu pratiques.

Explications:

 cache-1: Cache d'écriture : pour les demandes d'écriture, le serveur Web envoie des instructions SQL à la base de données, puis envoie une demande de suppression à Memcache qui invalide toutes les données obsolètes. La suppression est choisie plutôt que la mise à jour car l'opération de suppression est idempotente. Si la mise à jour était plutôt choisie, le cache pourrait avoir des données périmées en raison de sa non-idempotence s'il y avait des rafales d'écritures pour une seule donnée et les mises à jour associées à ces écritures seraient réorganisées.

 Facebook a de grands clusters informatiques et a probablement de nombreux serveurs memcached défaillants chaque jour parce que les ordinateurs se brisent de manière étrange. Pour éviter que ces échecs ne se multiplient, Facebook a construit un système appelé Gutter. Gutter entre en jeu si un client Memcache n'obtient pas de réponse pour une clé. Dans ce cas, les données sont extraites de la base de données et placées sur le serveur Gutter, détournant essentiellement cette clé du cluster principal. Cette approche est explicitement choisie par rapport à l'alternative consistant à redistribuer les clés d'une machine défaillante sur les machines saines restantes (ce qui, selon le document, est une alternative plus dangereuse qui pourrait surcharger les serveurs sains).Note:Ce document contient une quantité incroyable de détails sur la façon dont Facebook a fait évoluer son infrastructure Memcache, bien que le document ait été publié en 2013 et que 8 ans, c'est long. Je serais prêt à parier que leur infrastructure a considérablement changé depuis la publication initiale du document.

Il y a aussi les problêmes de mise a jour du logiciel memcached! Selon Cloudflare:  Afin de vaincre de telles attaques à l'avenir, nous devons corriger les protocoles vulnérables ainsi que l'usurpation d'adresse IP. Tant que l'usurpation d'adresse IP est autorisée sur Internet, nous aurons des problèmes.

Hacker,mais ça été écarté rapidement par facebook: Un memcache hacking tool depuis 2010,tout comme des attaques DDOS du port UDP 11211, a ne pas négliger. 

Tandis que la lanceuse d'alerte: Frances Haugen, ancienne employée de Facebook,comme d'autres personnes disent que Facebook a choisi l'économie(serveurs désuets,pas a jour ou difficilement mit a jour ,....memcached(écrit en Perl) .....) par rapport a la sécurité.

*********************************************************************************

 Ce changement a entraîné une déconnexion complète de nos connexions de serveurs entre nos centres de données et Internet. Et cette perte totale de connexion a causé un deuxième problème qui a aggravé les choses. L'une des tâches effectuées par nos plus petites installations consiste à répondre aux requêtes DNS. Le DNS est le carnet d'adresses d'Internet, permettant aux simples noms Web que nous tapons dans les navigateurs d'être traduits en adresses IP de serveur spécifiques.

 Ces requêtes de traduction sont traitées par nos serveurs de noms faisant autorité qui occupent eux-mêmes des adresses IP bien connues, qui à leur tour sont annoncées au reste d'Internet via un autre protocole appelé le protocole de passerelle frontière (BGP). Pour garantir un fonctionnement fiable, nos serveurs DNS désactivent ces publicités BGP s'ils ne peuvent pas eux-mêmes parler à nos centres de données, car cela indique une connexion réseau malsaine. Lors de la récente panne, l'ensemble du backbone a été retiré du service, ce qui a amené ces emplacements à se déclarer insalubres et à retirer ces publicités BGP. Le résultat final était que nos serveurs DNS sont devenus inaccessibles même s'ils étaient encore opérationnels. Cela empêchait le reste d'Internet de trouver nos serveurs. 

 Tout cela s'est passé très vite. Et pendant que nos ingénieurs cherchaient à comprendre ce qui se passait et pourquoi, ils ont été confrontés à deux grands obstacles : premièrement, il n'était pas possible d'accéder à nos centres de données par nos moyens habituels car leurs réseaux étaient en panne, et deuxièmement, la perte totale du DNS s'est rompue. bon nombre des outils internes que nous utilisons normalement pour enquêter et résoudre des pannes comme celle-ci. Notre accès réseau principal et hors bande était en panne, nous avons donc envoyé des ingénieurs sur site dans les centres de données pour qu'ils déboguent le problème et redémarrent les systèmes.

 Mais cela a pris du temps, car ces installations sont conçues avec des niveaux élevés de sécurité physique et système à l'esprit. Il est difficile d'y accéder, et une fois à l'intérieur, le matériel et les routeurs sont conçus pour être difficiles à modifier, même lorsque vous y avez physiquement accès. Il a donc fallu plus de temps pour activer les protocoles d'accès sécurisés nécessaires pour que les gens soient sur place et capables de travailler sur les serveurs.

 Ce n'est qu'alors que nous pourrions confirmer le problème et remettre notre épine dorsale en ligne. Une fois la connectivité de notre réseau fédérateur restaurée dans les régions de nos centres de données, tout a été rétabli. Mais le problème n'était pas résolu : nous savions que le fait de réactiver nos services d'un seul coup pouvait potentiellement provoquer une nouvelle série de plantages en raison d'une augmentation du trafic. Les centres de données individuels signalaient des baisses de consommation d'énergie de l'ordre de dizaines de mégawatts, et l'inversion soudaine d'une telle baisse de consommation d'énergie pourrait mettre en danger tout, des systèmes électriques aux caches. 

 Heureusement, c'est un événement auquel nous sommes bien préparés grâce aux exercices de « tempête » que nous organisons depuis longtemps maintenant. Dans un exercice de tempête, nous simulons une panne système majeure en prenant un service, un centre de données ou un entière région hors ligne, test de stress toute l'infrastructure et les logiciels impliqués. L'expérience de ces exercices nous a donné la confiance et l'expérience nécessaires pour remettre les choses en ligne et gérer avec soin les charges croissantes. En fin de compte, nos services sont revenus relativement rapidement sans aucune autre panne à l'échelle du système.

 Et bien que nous n'ayons jamais eu auparavant de tempête simulant la mise hors ligne de notre épine dorsale mondiale, nous chercherons certainement des moyens de simuler des événements comme celui-ci à l'avenir.

 Chaque échec comme celui-ci est une opportunité d'apprendre et de s'améliorer, et il y a beaucoup à apprendre de celui-ci. Après chaque problème, petit ou grand, nous effectuons un processus d'examen approfondi pour comprendre comment nous pouvons rendre nos systèmes plus résilients. 

Ce processus est déjà en cours.

 Nous avons beaucoup travaillé pour renforcer nos systèmes pour empêcher les accès non autorisés, et il était intéressant de voir comment ce renforcement nous a ralentis alors que nous essayions de nous remettre d'une panne causée non pas par une activité malveillante, mais par une erreur de notre part. Je pense qu'un compromis comme celui-ci en vaut la peine - une sécurité quotidienne considérablement accrue par rapport à une récupération plus lente après un événement, espérons-le rare, comme celui-ci.

 À partir de maintenant, notre travail consiste à renforcer nos tests, nos exercices et notre résilience globale pour nous assurer que des événements comme celui-ci se produisent aussi rarement que possible.

 

REF.: