Powered By Blogger

Rechercher sur ce blogue

Aucun message portant le libellé Google+. Afficher tous les messages
Aucun message portant le libellé Google+. Afficher tous les messages

dimanche 23 juin 2019

Google Stadia : date de lancement, prix de l’abonnement et jeux

Google Stadia : date de lancement, prix de l’abonnement et jeux




jeux, console, Stadia, Google
 
 
 
Stadia est une plateforme streaming de jeux vidéo à la demande dans le cloud. Présenté par Google en marge du Game Developer Conférence 2019, le service permet de jouer à des jeux vidéo AAA sur toutes sortes d’appareils, comme un ordinateur ou un Chromecast. Pour cela, le jeu est exécuté sur des serveurs distants – le flux vidéo est ainsi la seule chose qui est retransmise en streaming sur le terminal choisi par l’utilisateur, en plus des données issues de la manette. Le service sera lancé en novembre 2019 dans 14 pays dont la France. Voici tout ce qu’il faut savoir sur Stadia. 
Vous aviez entendu parler de Project Stream, ce test permettant à une poignée de joueurs de lancer Assassin’s Creed en streaming directement dans leur navigateur internet Google Chrome ? Le géant de Mountain View vient de dévoiler son prolongement grand public – Stadia. Un nom qui évoque les stades, ces édifices qui rassemblent les foules autour de jeux depuis l’antiquité. Et surtout un service qui, s’il tient ses promesses, risque de complètement rebattre les cartes de l’industrie du jeu vidéo – rien que ça !

Qu’est ce que Stadia ?

Stadia est une plateforme de jeux vidéo à la demande en streaming dans le cloud (oui, on sait, ça fait beaucoup de mots côte à côte). Elle sert principalement deux types d’utilisateurs. D’un côté les éditeurs et les créateurs de contenus qui peuvent mettre leurs jeux sur Stadia. Ces derniers ont pour cela des outils mis à disposition par Google, et peuvent miser sur le service pour simplifier radicalement leurs canaux de diffusion et de promotion (un lien suffit à lancer un jeu, Stadia est donc de facto intégré à tous les réseaux sociaux, en plus d’être parfaitement intégré aux autres services de Google comme YouTube).
En plus de cela, avec Stadia, les éditeurs profitent d’instances dotées d’une puissance de calcul inédite. Et peuvent par exemple optimiser leurs jeux pour des architectures multi-GPU pour des rendus graphiques ahurissants. De l’autre, il y a les joueurs : ces derniers peuvent accéder à un jeu Stadia via un simple lien, quelle que soit la machine sur laquelle ils le consultent, du moment où celle-ci dispose de Google Chrome. Ce terminal destinataire n’a pas besoin d’être puissant : il suffit qu’il puisse se connecter à internet et jouisse d’un débit suffisant.
On peut ainsi jouer pratiquement dans les mêmes conditions à un jeu AAA sur smartphone, tablette, ordinateur, et même sur la télévision si celle-ci est équipée d’un Chromecast. L’autre gros avantage pour l’utilisateur, c’est qu’il peut consommer un jeu en quelques secondes, sans temps d’installation, de mise à jour, ou de lancement. Tout du moins sur le papier.

Date de sortie et prix

Stadia sera disponible en France dès le mois de novembre. Deux formules seront disponibles : la première, Stadia Base, est gratuite. La seconde, Stadia Pro, est commercialisée au prix de 9,99 € par mois.
Stadia Base permet d’accéder au service, mais il faut payer dès que vous souhaitez jouer. Le prix des jeux varie en fonction, entre autres, de leur date de sortie. La qualité du stream est bridée à 1080p. L’offre gratuite ne sera pas disponible au mois de novembre, mais quelques mois plis tard, dans le courant de l’année 2020.
Stadia Pro permet, pour 9,99 € par mois de profiter d’un accès jusqu’à 4K HDR 60 FPS et avec un son 5.1 surround. Si l’offre inclut l’accès gratuit à certains jeux du catalogue, tous ne sont pas inclus et dans certains cas il faut quand même payer. Ce sera la seule option disponible lors du lancement du service en France en novembre.
A côté de ces offres, Google propose de pré-réserver un pack Google Stadia Edition Fondateur. Celui-ci est proposé à 129 € et inclut une manette Stadia Controller (édition limitée Night Blue), un Chromecast Ultra et 3 mois d’abonnement.

Liste des jeux disponibles au lancement de Stadia

Google Stadia c’est 27 jeux lors du lancement. Pour l’heure Google ne précise pas lesquels seront gratuits ou ceux qui seront payants pour les abonnés Pro. Cliquez ici pour accéder à la liste complète de jeux dans le catalogue de Stadia.

Les appareils compatibles

Il est pratiquement certain que vous possédez déjà un ou plusieurs appareils compatibles avec Stadia. En effet, selon Google, il suffit que votre ordinateur, smartphone ou tablette puisse lancer le navigateur Chrome. A terme la firme a annoncé son intention de proposer le support d’autres navigateurs. Pour les téléviseurs il faut obligatoirement passer par un Chromecast.
Par ailleurs, Google propose d’acheter une manette, le Stadia Controller, qui se connecte en WiFi. La manette Google Stadia est disponible seule, mais ne permet pas d’accéder à la plateforme dès le début. Pour cela, il faut acheter l’Édition Fondateur qui comprend le pad, un Chromecast Ultra et trois mois d’abonnement à Stadia Pro.
Au lancement, le service ne sera pas disponible sur tous les smartphones, mais via une application uniquement disponible sur les Pixel 3/XL et 3a/XL. Il sera en revanche possible de jouer a priori sur macOS, Windows, ou Linux. On ne sait pas si les restrictions visant les appareils mobiles s’appliquent ou non aux tablettes.

Débit minimum : testez votre connexion !

Envie de savoir si et dans quelles conditions vous pourrez utiliser Stadia ? Google sait que la vitesse et la qualité de votre connexion comptent énormément dans l’expérience utilisateur du service. C’est pourquoi la firme a mis en ligne un test de connexion :
Pour vous donner une idée, une connexion autour de 10 MB/s permet d’accéder au service en 1080p. Pour du 4K HDR 60 FPS il faut autour de 35 MB/s minimum.

Comment fonctionne le service ?

Pour fonctionner, Stadia s’appuie sur l’expertise en matière de cloud computing à fort trafic de Google. Inutile de s’appesantir sur le fait que Google est déjà leader dans de très nombreux domaines fondés sur cette compétence, en particulier son moteur de recherche et Youtube. Google Cloud Platform est également la troisième plus grosse infrastructure du genre, derrière Amazon Web Services et Microsoft Azure.
Et si on parle de ces plateformes de cloud, c’est que justement elles mettent déjà à disposition des internautes des instances dans des datacenter – ce qui est pour faire très simple est aussi ce en quoi consiste Stadia, même si l’utilisateur ne pourra, dans ce dernier cas, pas faire autre chose que de jouer aux jeux disponibles dans les conditions définies par Google. Ainsi lorsqu’un utilisateur clique sur le bouton Jouer, Stadia lance une instance dans des datacenter Google, avec un certain nombre de cœurs CPU, quantité de RAM, de stockage et processeur(s) graphique(s).
Le jeu est donc exécuté dans cette instance distante, et le flux vidéo est retransmis en streaming dans l’onglet de Google Chrome ouvert sur le jeu, sur la machine du joueur. Les commandes issues de la manette sont les seules choses – avec éventuellement le flux audio d’un micro – à être renvoyées du terminal du joueur vers l’instance ouverte sur les serveurs de Google.

Qu’est-ce qu’une instance ?

On a déjà employé plusieurs fois le terme d’instance dans les paragraphes précédents. Puisque l’on parle de service dans le cloud, et de la fiche technique disponible pour tel ou tel jeu, vous risquez de revoir ce terme à de nombreuses reprises. Alors qu’est-ce qu’une instance ? Normalement, ce mot est surtout utilisé par des développeurs lorsqu’ils codent avec un langage informatique orienté objet. L’idée, c’est qu’à chaque fois que vous lancez un jeu, un espace dédié est créé sur des serveurs distants avec des caractéristiques précises, et éventuellement des données personnalisées comme par exemple vos sauvegardes de jeux.
C’est ce que l’on appelle l’instantiation, autrement dit la création d’une instance (pour simplifier, vous pouvez considérer qu’il s’agit d’une sorte de machine virtuelle dans un datacenter) à partir d’un modèle prédéfini. Ainsi, par instantiation, il est possible de réserver à la demande une quantité e ressources dans un datacenter  – nombre de processeurs, quantité de RAM, GPU, etc… – nécessaire à l’exécution d’une tâche (dans le cas de Stadia, un jeu).

Stadia : fiche technique monstrueuse

La fiche technique de chaque instance pourra être adaptée aux besoins de chaque jeux. Néanmoins, Google a donné cette configuration type lors de la présentation du service :
  • GPU AMD 10.7 Teraflops avec 56 unités de calcul et mémoire HBM2
  • CPU adapté x86 @2,7 GHz avec hyperthreading, AVX 2 et 9,5 Mo de cache L2+L3
  • 16 Go de RAM avec des vitesses de transfert de 484 GB/s
Selon Google, il sera possible de jouer en 4K HDR à 60 images par secondes. Mais Stadia se prépare déjà à streamer des jeux en 8K à plus de 120 images par secondes. Quoi qu’il en soit, avec 10,7 Teraflops de calcul disponibles, rien que cette instance de Stadia a plus de muscle qu’une Xbox One X (6 TFLOPS) et une PS4 Pro (4,2 TFLOPS) mises ensemble.

Comment jouer

Pour l’instant, vous l’aurez compris, le service n’est pas encore disponible. Néanmoins, Google nous a fait la démonstration du service lors de la présentation. Jouer à Stadia se résume à être inscrit au service et à cliquer sur un lien. Le jeu se lance en moins de 5 secondes, sans temps de chargement comme c’est le cas actuellement sur PC et consoles. Le service est optimisé pour le multi joueur et le jeu coop avec une incrustation du flux en provenance d’autres joueurs, façon picture-in-picture, et la possibilité de communiquer en vidéo et à la voix.

Alternatives à Stadia

Croyez-le ou non, Stadia n’est pas totalement révolutionnaire. Shadow par exemple rappelle qu’il est sur le même filon depuis 2 ans. Le service, déjà disponible en France, permet de profiter d’une machine ultra-puissante sur des serveurs distants et d’en profiter en streaming. Avec des limites de bande passante inférieures à celles proposées par Google pour se frayer une place jusque dans les foyers avec une connexion internet dans la moyenne.
C’est hélas, pour le moment, la seule solution plus ou moins équivalente. Bien que certains objecteront qu’il est possible avec un peu de bidouillage de créer ce genre de chose dans une instance Google Cloud Platform, Amazon Web Services ou Microsoft Azure. Relevons aussi au passage Microsoft xCloud, annoncé il y a un an, et dont les premiers tests publics vont commencer cette année.

REF.:

mercredi 19 juin 2019

Google offre (sans le vouloir) un accès gratuit à plusieurs films



Google offre (sans le vouloir) un accès gratuit à plusieurs films

Google, p2p
 
 
 

Une simple requête dans Google permet d'accéder gratuitement à de nombreux films et de les télécharger illégalement.

jeudi 11 avril 2019

Voici les technos de 2018 qui auront encore de l'importance dans 10 ans (et celles qui auront disparu)


Voici les technos de 2018 qui auront encore de l'importance dans 10 ans (et celles qui auront disparu)

technologie, future, facebook, apple, Google, Amazon , 

Technologie : Et si on faisait un bilan de l'année sous l'angle de la durabilité à très long terme ? Qu'est-ce qui comptera en 2028 ? Et qu'est ce qui, comme Facebook, n'existera plus. Allons y !


Cette année, comme les années précédentes, nous avons présenté une foule de technologies dopées au buzzword, mais chez ZDNet, nous sommes fatigués par le flot incessant d'acronymes. C'est avec cette fatigue à l'esprit que nous avons mis au point un test simple. Quelles technologies dont il a été question cette année aura de l'importance dans une décennie ?


Voici un aperçu des technologies compilées par Larry Dignan, Chris Duckett, Jason Hiner et Steve Ranger à partir de ce qui a été écrit cette année qui auront de l'importance à l'avenir.

Ce qui comptera encore en 2028

Le cloud computing

2018 est l'année où les cloud ont mûri et se sont mis sur une voie qui ressemblera de très près à celle des fournisseurs d'électricité d'ici 2028. Le partenariat d'AWS avec VMware a pris de l'ampleur et le géant de l'informatique dans les cloud a présenté ses ambitions à re:Invent 2018. Microsoft Azure a explosé. Google a embauché l'ancien chef du cloud chez Oracle Thomas Kurian pour faire tourner Google Cloud Platform. Et IBM a développé une approche multi-cloud et a acheté Red Hat pour 34 milliards de dollars.

Tous les signes ; l'adoption par les entreprises, les fusions et acquisitions, les discussions plus nuancées sur l'informatique hybride ; montrent que le cloud a mûri. Et le cloud hybride devient la norme. Bref, 2018 aura été l'année d'arrivée à maturité du cloud.

L'Intelligence artificielle

L'apprentissage machine consiste à trouver des moyens de faire correspondre des modèles dans chaque recoin de l'informatique, et nous n'en sommes qu'au début. Il y a beaucoup de travail à venir, comme en témoigne la facilité avec laquelle il est aisé de tromper les réseaux neuronaux actuels. Et bientôt nous entrerons dans l'Uncanny valley, avec la possibilité qu'une machine passe le test de Turing.

En attendant, nous devrons répondre aux questions éthiques et judiciaires qui se posent avec l'utilisation de l'IA. Si une voiture autonome tue un piéton, à qui la faute ? Dans quelle mesure le marché est-il libre si les machines sont responsables de la plupart des transactions boursières ? Les humains sont-ils le problème central ?

Dans une perspective plus large, la spécialisation des machines par domaines est désormais assurée et sera omniprésente. Les progrès vers une véritable intelligence artificielle générale se poursuivront, mais on ne sait pas si l'objectif final sera atteint.

L'Internet des objets

L'IdO (ou IoT en anglais) sera partout et nulle part d'ici 2028. Partout, parce qu'il sera intégré de manière transparente dans presque tout ce avec quoi nous interagissons, des portes aux fenêtres en passant par les arrêts de bus et les vêtements. Nulle part, parce que l'on ne le remarquera pas du tout.

La 5G devrait rendre beaucoup plus facile l'intégration de capteurs à faible consommation d'énergie bon marché dans à peu près tout ce que nous voulons, de sorte qu'il sera tout à fait possible de mesurer presque tous les aspects de notre existence.

C'est bien quand il s'agit de s'assurer que nos bureaux ou nos usines sont plus efficaces. C'est un peu plus inquiétant quand il s'agit de suivre et de monétiser notre comportement individuel. Tout dépendra en grande partie de règles strictes en matière de protection de la vie privée qui nous protègeront contre les pires excès de la technologie qui voudra inévitablement recueillir le plus de données possible. Mais notre bilan sur ce point, jusqu'à présent, n'est pas très reluisant.

L'informatique quantique

Peut-être, juste peut-être, que d'ici 2028, la révolution quantique sera enfin arrivée. Pour l'instant, nous n'en sommmes qu'aux premiers stades de développement. Mais avec un peu de chance, sur le plan de l'ingénierie dans dix ans, elle pourrait devenir, sinon le standard, au moins un add-on commun pour les organisations qui cherchent à exploiter un supercalculateur pour faire fonctionner de très gros ensembles de données.

Elle n'aura certainement pas remplacé les modèles informatiques standard, simplement parce que l'informatique classique est encore très bonne pour résoudre de nombreux problèmes informatiques au quotidien. Mais il y a toute une classe de problèmes que les ordinateurs quantiques pourraient rendre beaucoup plus faciles. Il est probable que, au moins dans ce laps de temps, les ordinateurs quantiques seront utilisés de la même manière que les GPU sont utilisés aujourd'hui ; pour effectuer des calculs super difficiles sans accabler le CPU.

La transformation numérique

La transformation numérique a été LE terme utilisé en 2018 et depuis l'an passsé. L'idée ? Les entreprises doivent numériser leurs activités, tirer parti des données et repousser la concurrence de startups féroces.

Le plus grand avantage de la transformation numérique est sans doute ce qui suit : Ça ne s'arrête jamais. D'ici dix ans, la transformation numérique sera encore active, mais elle aura probablement un nouveau nom, plus tendance. Aujourd'hui comme dans dix ans, les entreprises devront faire évoluer leurs stratégies ou se faire écraser.

Apple, Google, Microsoft et Amazon

Nous ne savons pas ce à quoi la prochaine décennie ressemblera pour ces titans de la technologie. Mais nous savons une chose : trois d'entre eux jouent un grand rôle dans le cloud. Et Apple est assez riche pour faire tout ce qu'il veut à l'avenir. Apple pourrait même devenir un business angel ou une société de capital de risque. Google et Microsoft ont eux aussi des coffres bien remplis, et Amazon n'est pas vraiment pauvre. Ces géants de la technologie auront les fonds et la culture nécessaires pour se réinventer à plusieurs reprises au besoin.

Ce dont on a déjà plus qu'assez en 2018 et que nous aurons oublié en 2028

Facebook : arrêtez tout ça bon dieu !

Facebook a consommé plus de pixels numériques en couverture médiatique que toute autre entreprise. Et franchement, c'est beaucoup d'encre numérique à verser sur un truc qui subira au bout du compte le même sort qu'AOL. Ouais, on sait qu'il n'y a pas confiance à avoir dans Facebook. Oui, nous savons qu'il peut être totalement trompé. Et oui, nous savons que Facebook crée une certaine dépendance. Et oui, nous savons que Facebook peut faire du bien aussi.

Nous savons aussi qu'il est très peu probable que nous parlions de Facebook dans une décennie et que les gens qui ont abandonné le réseau social en 2018 ne sont que la tête de pont d'un exode massif. D'ici 2023, Facebook sera renommé Instagram. Et d'ici 2028, nous ne nous souviendrons plus de tout cela.

La crypto-monnaie

En 2018, le Bitcoin a pris une énorme claque. Au moment d'écrire ces lignes, le prix de la monnaie numérique était en baisse de 75 % par rapport à son pic de décembre 2017. Et dans le processus, toutes sortes d'autres crypto-monnaies ont pris cher. Aucune des promesses de Bitcoin n'a été tenue, et une grande quantité d'électricité, de silicium et d'épargne-retraite a été gaspillée pour cette petite expérience.

Pendant ce temps, gouvernements et entreprises font leur petit marché pour construire des blockchain privées et des contrats intelligents. Ce qui reconnaissons le pourrait marcher.


REF.:

jeudi 24 janvier 2019

Google dévoile peu à peu son nouvel OS Fuchsia



Que cache réellement Google dans son très étrange projet Fuchsia ? Et si ce nouvel OS mobile remplaçait Android ?

(CCM) — Depuis fin 2018, les révélations s'enchaînent au sujet de Fuchsia, l'ambitieux projet d'OS mobile de Google. On vient d'apprendre que le futur système d'exploitation sera capable de faire tourner les applications Android. Rien de tel pour alimenter la rumeur qu'à terme, Fuchsia sera le remplaçant d'Android.

D'après les informations recueillies par le site américain 9to5Google (lien en anglais), Fuchsia sera bien capable de faire tourner Android Runtime, pour rendre le nouvel OS mobile compatible avec la plupart des applications Android. Un fichier readme vient d'être déposé pour détailler la façon dont cette interopérabilité fonctionnera. C'est une nouvelle étape franchie par Google vers un lancement de Fuchsia, après le dépôt d'un SDK Fuchsia et l'apparition dans le code d'Android d'un étrange « Fuchsia device » il y a quelques semaines.

L'objectif du nouvel OS est de pouvoir tourner indifféremment sur tous les types d'appareils mobiles, qu'il s'agisse d'un objet connecté, d'un laptop ou d'un smartphone. Pour le mettre au point les développeurs de Google ont créé leur propre noyau - Zircon. Alors qu'Android avait été construit sur une base Linux, le géant californien veut désormais contrôler l'intégralité de Fuchsia. Cela lui permet de gagner en flexibilité de développement. Mais surtout, cela permet à Google de maîtriser en toute indépendance 100 % du code de ce futur système d'exploitation mobile.

Aucune date n'a été annoncée pour le lancement de Fuchsia. Mais l'officialisation de la compatibilité avec les applications Android est un signe que la mise sur le marché approche.

REF.:

mardi 11 septembre 2018

La véritable origine de Google réside en partie dans les subventions de recherche de la CIA et de la NSA pour la surveillance de masse


La véritable origine de Google réside en partie dans les subventions de recherche de la CIA et de la NSA pour la surveillance de masse

 

 
Libellés

Google, CIA, NSA

 Il y a deux décennies, la communauté du renseignement américaine a travaillé en étroite collaboration avec Silicon Valley dans le but de suivre les citoyens dans le cyberespace. Et Google est au cœur de cette histoire. Certaines des recherches qui ont mené à la création ambitieuse de Google ont été financées et coordonnées par un groupe de recherche établi par la communauté du renseignement pour trouver des moyens de suivre les individus et les groupes en ligne.

La communauté du renseignement espérait que les meilleurs informaticiens du pays pourraient prendre des renseignements non classifiés et des données d’utilisateurs, les combiner à ce qu’on appellerait l’Internet et commencer à créer des entreprises commerciales à but lucratif pour répondre aux besoins de la communauté du renseignement et du public. Ils espéraient diriger la révolution du supercalculateur dès le début afin de donner un sens à ce que des millions d’êtres humains ont fait à l’intérieur de ce réseau d’information numérique. Cette collaboration a rendu possible aujourd’hui la mise en place d’un État de surveillance de masse public-privé.
L’histoire de la création délibérée de l’État moderne de surveillance de masse comprend des éléments de l’origine surprenante et largement inconnue de Google. C’est une histoire de création quelque peu différente de celle que le public a entendue, et explique ce que les cofondateurs de Google, Sergey Brin et Larry Page, ont entrepris de construire, et pourquoi.
Mais ce n’est pas seulement l’origine de l’histoire de Google : C’est l’histoire de l’origine de l’État de surveillance de masse et de l’argent du gouvernement qui l’a financé.
Backstory : La communauté du renseignement et la Silicon Valley
Au milieu des années 1990, la communauté du renseignement en Amérique a commencé à se rendre compte qu’elle avait une occasion à saisir. La communauté des supercalculateurs commençait tout juste à migrer du milieu universitaire vers le secteur privé, grâce à des investissements provenant d’un endroit qui allait devenir la Silicon Valley.
La communauté du renseignement voulait façonner les efforts de la Silicon Valley dès leur création pour qu’ils soient utiles à des fins de sécurité intérieure.
Une révolution numérique était en cours : une révolution qui transformerait le monde de la collecte de données et la façon dont nous donnons un sens à des quantités massives d’informations. La communauté du renseignement voulait façonner les efforts de la Silicon Valley en matière de supercalculateurs dès leur création afin qu’ils soient utiles à la fois à des fins militaires et de sécurité intérieure. Ce réseau de supercalculateurs, qui deviendrait capable de stocker des téraoctets d’information, pourrait-il donner un sens intelligent à la trace numérique que les êtres humains laissent derrière eux ?
La réponse à cette question a été d’un grand intérêt pour la communauté du renseignement.
La collecte de renseignements était peut-être leur monde, mais la Central Intelligence Agency (CIA) et la National Security Agency (NSA) avaient fini par se rendre compte que leur avenir était susceptible d’être profondément façonné à l’extérieur du gouvernement. C’était à une époque où les budgets militaires et du renseignement au sein de l’administration Clinton étaient menacés et où le secteur privé disposait de vastes ressources. Si la communauté du renseignement voulait mener une surveillance de masse à des fins de sécurité nationale, il faudrait une coopération entre le gouvernement et les entreprises émergentes de superordinateurs.
Pour ce faire, ils ont commencé à tendre la main aux scientifiques des universités américaines qui créaient cette révolution des supercalculateurs. Ces scientifiques mettaient au point des moyens de faire ce qu’aucun groupe d’êtres humains assis aux postes de travail de la NSA et de la CIA ne pourrait jamais espérer faire : recueillir d’énormes quantités de données et les interpréter intelligemment.
Une riche histoire du financement des sciences par le gouvernement.
Il y avait déjà une longue histoire de collaboration entre les meilleurs scientifiques américains et la communauté du renseignement, depuis la création de la bombe atomique et de la technologie des satellites jusqu’aux efforts pour mettre un homme sur la lune.
L’Internet lui-même a été créé grâce à un effort de renseignement.
En fait, l’Internet lui-même a été créé grâce à un effort de renseignement : Dans les années 1970, l’agence responsable du développement de technologies émergentes à des fins militaires, de renseignement et de sécurité nationale – la Defense Advanced Research Projects Agency (DARPA) – a relié quatre superordinateurs pour traiter les transferts massifs de données. Il a transmis les opérations à la National Science Foundation (NSF) une dizaine d’années plus tard, qui a proliféré le réseau à travers des milliers d’universités et, finalement, le public, créant ainsi l’architecture et l’échafaudage du World Wide Web.
La Silicon Valley n’était pas différente. Au milieu des années 1990, la communauté du renseignement a commencé à financer les efforts les plus prometteurs en matière de superinformatique dans l’ensemble du milieu universitaire, ce qui a guidé la création d’efforts visant à rendre d’énormes quantités d’information utile tant pour le secteur privé que pour la communauté du renseignement.
Ils ont financé ces informaticiens par le biais d’un programme hautement cloisonné et non classifié qui a été géré pour la CIA et la NSA par d’importants entrepreneurs militaires et de renseignement. Ce projet s’appelait Massive Digital Data Systems (MDDS).
Le projet de systèmes de données numériques massifs (MDDS)
MDDS a été présenté à plusieurs douzaines d’informaticiens de Stanford, CalTech, MIT, Carnegie Mellon, Harvard et d’autres dans un livre blanc qui décrivait ce que la CIA, la NSA, la DARPA et d’autres agences espéraient réaliser. La recherche serait en grande partie financée et gérée par des organismes scientifiques non classifiés comme la NSF, ce qui permettrait à l’architecture d’être mise à l’échelle dans le secteur privé si elle réussissait à atteindre ce que la communauté du renseignement espérait.
“Non seulement les activités deviennent plus complexes, mais les demandes changeantes exigent que la communauté du renseignement traite différents types de données ainsi qu’un plus grand volume de données “, a déclaré la communauté du renseignement dans son livre blanc de 1993 sur le MDDS. “Par conséquent, le CI joue un rôle proactif en stimulant la recherche dans la gestion efficace de bases de données massives et en s’assurant que les exigences du CI peuvent être incorporées ou adaptées dans des produits commerciaux. Parce que les défis ne sont pas propres à une seule agence, le personnel de gestion communautaire (CMS) a chargé un groupe de travail sur les systèmes de données numériques massifs[MDDS] de répondre aux besoins et d’identifier et d’évaluer les solutions possibles”.
Au cours des années suivantes, l’objectif déclaré du programme était de fournir plus d’une douzaine de subventions de plusieurs millions de dollars chacune pour faire avancer ce concept de recherche. Les subventions devaient être dirigées en grande partie par l’intermédiaire de la NSF afin que les efforts les plus prometteurs et les plus fructueux puissent être considérés comme propriété intellectuelle et servir de base à des entreprises attirant des investissements de la Silicon Valley. Ce type de système d’innovation public-privé a aidé à lancer de puissantes entreprises scientifiques et technologiques comme Qualcomm, Symantec, Netscape et d’autres, et a financé la recherche fondamentale dans des domaines comme le radar Doppler et la fibre optique, qui sont au cœur de grandes entreprises comme AccuWeather, Verizon et AT&T aujourd’hui. Aujourd’hui, la NSF fournit près de 90 % de tout le financement fédéral pour la recherche universitaire en informatique.
L’objectif final de la CIA et de la NSA
Les services de recherche de la CIA et de la NSA espéraient que les meilleurs informaticiens du monde universitaire pourraient identifier ce qu’ils appelaient les ” oiseaux de plume ” : tout comme les oies volent ensemble en forme de grand V, ou des volées de moineaux font des mouvements soudains ensemble en harmonie, ils ont prédit que des groupes d’humains partageant les mêmes idées se déplaceraient ensemble en ligne. La communauté du renseignement a baptisé leur première séance d’information non classifiée à l’intention des scientifiques ” oiseaux de plume ” et la ” séance d’information sur l’initiative de la communauté du renseignement dans les systèmes de données numériques massifs ” a eu lieu à l’hôtel Fairmont à San Jose au printemps 1995.
La communauté du renseignement a nommé leur première séance d’information non classifiée à l’intention des scientifiques, la séance d’information ” oiseaux de plume “.
Leur objectif de recherche était de suivre les empreintes digitales numériques à l’intérieur du réseau mondial d’information en pleine expansion, alors connu sous le nom de World Wide Web. Pourrait-on organiser tout un monde d’information numérique pour que les demandes humaines faites à l’intérieur d’un tel réseau soient suivies et triées ? Leurs requêtes pourraient-elles être liées et classées par ordre d’importance ? Pourrait-on identifier des “oiseaux de plume” à l’intérieur de cette mer d’informations afin que les communautés et les groupes puissent être suivis de manière organisée ?
En travaillant avec de nouvelles entreprises de données commerciales, leur intention était de suivre des groupes de personnes partageant les mêmes idées sur Internet et de les identifier à partir des empreintes digitales qu’ils ont laissées derrière eux, un peu comme les scientifiques judiciaires utilisent les traces d’empreintes digitales pour identifier les criminels. Tout comme ” les oiseaux d’une plume se rassemblent “, ils ont prédit que les terroristes potentiels communiqueraient entre eux dans ce nouveau monde global et connecté – et ils pourraient les trouver en identifiant des modèles dans cette quantité massive de nouvelles informations. Une fois ces groupes identifiés, ils pouvaient alors suivre leurs pistes numériques partout.
Sergey Brin et Larry Page, un jeune informaticien se pose la question.
En 1995, l’une des premières et des plus prometteuses subventions du MDDS a été attribuée à une équipe de recherche en informatique de l’Université de Stanford, qui a travaillé pendant une décennie avec des subventions de la NSF et de la DARPA. L’objectif principal de cette subvention était “l’optimisation des requêtes très complexes qui sont décrites à l’aide de l’approche’query flocks'”. Une deuxième subvention – la subvention DARPA-NSF, la plus étroitement liée à l’origine de Google – faisait partie d’un effort coordonné pour construire une bibliothèque numérique massive utilisant l’Internet comme colonne vertébrale. Les deux subventions ont financé des recherches effectuées par deux étudiants diplômés qui faisaient des progrès rapides dans le classement des pages Web, ainsi que dans le suivi (et l’interprétation) des requêtes des utilisateurs : les futurs cofondateurs de Google, Sergey Brin et Larry Page.
Les recherches effectuées par Brin et Page dans le cadre de ces subventions sont devenues le cœur de Google : les gens qui utilisent les fonctions de recherche pour trouver précisément ce qu’ils voulaient dans un très grand ensemble de données. La communauté du renseignement, cependant, a vu un avantage légèrement différent dans sa recherche : Le réseau pourrait-il être organisé de manière si efficace que les utilisateurs individuels pourraient être identifiés et suivis de manière unique ?
Ce processus est parfaitement adapté à la lutte contre le terrorisme et à la sécurité intérieure : Les êtres humains et les groupes aux vues similaires qui pourraient constituer une menace pour la sécurité nationale peuvent être identifiés de façon unique en ligne avant qu’ils ne fassent du mal. C’est pourquoi les efforts de recherche de Brin et Page ont été si attrayants pour la communauté du renseignement ; avant cette époque, la CIA utilisait largement les efforts de renseignement humain sur le terrain pour identifier les personnes et les groupes susceptibles de poser des menaces. La capacité de les suivre virtuellement (en conjonction avec les efforts sur le terrain) changerait tout.
C’était le début de ce qui allait devenir Google dans quelques années seulement. Les deux gestionnaires de la communauté du renseignement chargés de diriger le programme rencontraient régulièrement Brin au fur et à mesure que ses recherches progressaient, et il était l’auteur de plusieurs autres documents de recherche résultant de cette subvention du MDDS avant que Page et lui ne quittent pour former Google.
Les subventions ont permis à Brin et Page de faire leur travail et ont contribué à leurs percées dans le classement des pages Web et le suivi des requêtes des utilisateurs. Brin ne travaillait pas pour la communauté du renseignement, ni pour personne d’autre. Google n’avait pas encore été incorporé. Il n’était qu’un chercheur de Stanford qui profitait de la subvention accordée par la NSA et l’ICA dans le cadre du programme MDDS non classifié.
Laissé à l’écart de l’histoire de Google
L’effort de recherche du MDDS n’a jamais fait partie de l’histoire de Google, même si le chercheur principal de la subvention du MDDS a nommé Google comme étant le résultat direct de leur recherche : “Sa technologie de base, qui lui permet de trouver des pages beaucoup plus précisément que d’autres moteurs de recherche, a été partiellement soutenue par cette subvention”, a-t-il écrit. Dans un article de recherche publié qui inclut certains des travaux essentiels de Brin, les auteurs font également référence à la subvention NSF qui a été créée par le programme MDDS.
Au lieu de cela, chaque histoire de création de Google ne mentionne qu’une seule subvention fédérale : la subvention NSF/DARPA “bibliothèques numériques”, qui a été conçue pour permettre aux chercheurs de Stanford de faire des recherches sur l’ensemble du World Wide Web stocké sur les serveurs de l’université à l’époque. “Le développement des algorithmes de Google a été effectué sur une variété d’ordinateurs, principalement fournis par le projet de bibliothèque numérique financé par la NSF-DARPA-NASA à Stanford “, explique Infolab de Stanford à propos de son origine, par exemple. De même, la NSF ne fait référence qu’à la subvention des bibliothèques numériques, et non pas à la subvention du MDDS, dans son propre historique de l’origine de Google. Dans le célèbre article de recherche, “The Anatomy of a Large-Scale Hypertextual Web Search Engine”, qui décrit la création de Google, Brin et Page, a remercié la NSF et la DARPA pour sa subvention de bibliothèque numérique à Stanford. Mais la subvention du programme MDDS de la communauté du renseignement, conçu spécifiquement pour la percée sur laquelle Google a été construit, s’est évanouie dans l’obscurité.
Google a dit dans le passé qu’il n’a pas été financé ou créé par l’ICA. Par exemple, lorsque des articles ont circulé en 2006 selon lesquels Google avait reçu des fonds de la communauté du renseignement pendant des années pour aider à la lutte contre le terrorisme, l’entreprise a déclaré au fondateur du magazine Wired, John Battelle, que ” les déclarations relatives à Google sont complètement fausses “.
L’ICA a-t-il financé directement les travaux de Brin et Page, et donc créé Google ? Non. Mais Brin et Page recherchaient-ils précisément ce que la NSA, la CIA et la communauté du renseignement espéraient, avec l’aide de leurs subventions ? Absolument.
L’ICA et la NSA ont financé un programme non classifié et compartimenté conçu dès le début pour stimuler quelque chose qui ressemble presque exactement à Google.
Pour comprendre cette importance, il faut tenir compte de ce que la communauté du renseignement tentait d’accomplir lorsqu’elle a accordé des subventions aux meilleurs esprits en informatique du milieu universitaire : L’ICA et la NSA ont financé un programme non classifié et compartimenté conçu dès le début pour stimuler le développement de quelque chose qui ressemble presque exactement à Google. La percée de Brin dans la recherche sur le classement des pages en suivant les requêtes des utilisateurs et en les reliant aux nombreuses recherches effectuées – essentiellement l’identification des “oiseaux de plume” – était en grande partie le but du programme MDDS de la communauté du renseignement. Et Google a réussi au-delà de leurs rêves les plus fous.
L’héritage durable de la communauté du renseignement au sein de la Silicon Valley
Les préoccupations relatives à la protection de la vie privée numérique concernant l’intersection entre la communauté du renseignement et les géants de la technologie commerciale se sont accrues au cours des dernières années. Mais la plupart des gens ne comprennent toujours pas à quel point la communauté du renseignement compte sur les plus grandes sociétés scientifiques et technologiques du monde pour son travail de lutte contre le terrorisme et de sécurité nationale.
Les groupes de défense des libertés civiles ont fait part de leurs préoccupations en matière de protection de la vie privée depuis des années, surtout en ce qui a trait à la Patriot Act. “Au nom de la sécurité nationale, le Patriot Act a été le premier des nombreux changements apportés aux lois de surveillance qui ont permis au gouvernement d’espionner plus facilement les Américains ordinaires en élargissant le pouvoir de surveiller les communications téléphoniques et les courriels, de recueillir les dossiers bancaires et de crédit et de suivre les activités d’Américains innocents sur Internet “, déclare l’ACLU. “Alors que la plupart des Américains pensent qu’il a été créé pour attraper les terroristes, le Patriot Act transforme les citoyens ordinaires en suspects.”
Lorsqu’on leur pose la question, les plus grandes entreprises de technologie et de communication – de Verizon et AT&T à Google, Facebook et Microsoft – disent qu’elles n’offrent jamais délibérément et proactivement leurs vastes bases de données sur leurs clients aux organismes fédéraux de sécurité et d’application de la loi : Ils disent qu’ils ne répondent qu’aux assignations à comparaître ou aux demandes qui sont dûment déposées en vertu du Patriot Act.
Mais même un simple coup d’œil aux documents publics récents montre qu’il y a un tapis roulant de demandes constantes qui pourraient miner l’intention derrière cette promesse de protection de la vie privée. Selon les dossiers de demande de données que les entreprises mettent à la disposition du public, au cours de la période de déclaration la plus récente entre 2016 et 2017, les autorités locales, étatiques et fédérales à la recherche d’informations liées à la sécurité nationale, au contre-terrorisme ou à des préoccupations criminelles ont émis plus de 260 000 assignations, ordonnances judiciaires, mandats et autres demandes légales à Verizon, plus de 250 000 demandes de ce type à AT&T et près de 24 000 assignations, mandats de perquisition ou ordonnances judiciaires à Google. Les demandes de sécurité nationale directe ou de contre-terrorisme ne représentent qu’une petite fraction de l’ensemble de ce groupe de demandes, mais le processus juridique de la Patriot Act est devenu si routinier que les entreprises ont chacune un groupe d’employés qui s’occupent simplement du flux de demandes.
De cette façon, la collaboration entre la communauté du renseignement et les grandes entreprises commerciales de science et de technologie a connu un succès fou. Lorsque les organismes de sécurité nationale ont besoin d’identifier et de suivre les personnes et les groupes, ils savent vers qui se tourner – et le font fréquemment. C’était l’objectif au début. Il a peut-être réussi plus que ce que n’importe qui aurait pu imaginer à l’époque.


Source : https://qz.com/1145669/googles-true-origin-partly-lies-in-cia-and-nsa-research-grants-for-mass-surveillance/

vendredi 31 août 2018

La clé physique d'authentification à deux facteurs de Google est désormais disponible


La clé physique d'authentification à deux facteurs de Google est désormais disponible

La clé physique d'authentification à deux facteurs de Google est désormais disponible
La clé d'authentification à deux facteurs Titan, de Google

 

clef USB, USB, clé d'authentification, identifiants, Google, Titan

André Boily

Pendant un an, les employés de Google ont utilisé avec succès la clé de sécurité Titan, une clé USB ou Bluetooth d'authentification à deux facteurs conçue pour améliorer la sécurité des comptes en ligne de son propriétaire. Cette même clé est maintenant disponible en vente libre.
La clé de sécurité Titan de Google est vendue au prix de 50 $US sur sa boutique en ligne aux États-Unis. Elle inclut une clé Bluetooth et une clé USB.
Celle-ci fut utilisée pendant un an par les employés de Google, ce qui a permis de réduire à néant les arnaques par hameçonnage - une technique employée par les pirates informatiques pour obtenir des données confidentielles par l'envoi de courriels imitant ceux des institutions.
Quiconque recherche une sécurité renforcée pour sécuriser ses comptes de messagerie et autres informations névralgiques peut se procurer la clé Titan.
Conçue selon les normes FIDO - acronyme de Fast Identity Online (https://fidoalliance.org, vidéo), ce standard d'authentification libre vise à renforcer et à simplifier l'authentification double facteurs en utilisant des périphériques USB ou NFC.
Pour rassurer les clients, Google prend soin d'expliquer que le micrologiciel responsable des opérations de chiffrement de la clé Titan ne peut être piraté avant son envoi. Il a été conçu pour résister aux attaques physiques et aux tentatives d'extraction du micrologiciel ou du matériel de chiffrement secret.
Google vise la clientèle des politiciens, des gens d'affaires, des journalistes ou des activistes pour sa clé Titan. Cette dernière est également compatible avec les services en ligne comme Dropbox, Facebook, GitHub, Salesforce, Twitter et plusieurs autres qui font appel aux services FIDO.
Après la distribution aux États-Unis, d'autres marchés seront desservis.

REF.:

samedi 25 août 2018

Galileo : la constellation de satellites bientôt complète

Galileo : la constellation de satellites bientôt complète

Technologie : Ariane doit mettre sur orbite ce mercredi quatre nouveaux satellites permettant à Galileo, le GPS européen, d'être quasiment opérationnel à 100%.




Galileo, GPS, apple, Google, Alphabet

Après plus de 17 ans, le grand projet Galileo est en passe de devenir une réalité. Ce mercredi, une fusée Ariane 5 doit mettre sur orbite les quatre nouveaux satellites (soit 26/30) positionnés à 23 000 kilomètres d'altitude permettant à Galileo, le GPS européen, d'être quasiment pleinement opérationnel à 100%. Rappelons que le service a été ouvert il y a un an et demi, le lancement des derniers satellite doit permettre d'améliorer encore la précision du système.

Le tir de mercredi "marquera la fin d'un cycle démarré en 2011", déclare à l'AFP Stéphane Israël, président d'Arianespace, société de services de lancement. A cette date, "nous aurons lancé les 26 premiers satellites avec une régularité de métronome". Il restera encore 4 satellites à déployer jusqu'en 2021 mais les 6 derniers ont vocation à remplacer la première génération de satellites.
"Galileo est en train de devenir un grand succès car sa précision est bien supérieure" à celle du GPS (américain) et il offre en plus la datation du signal, souligne Jean-Yves Le Gall, président de l'agence spatiale française CNES
Le patron du CNES note une "accélération formidable du nombre d'utilisateurs" de Galileo dans le monde depuis le lancement des premiers services. Galileo est désormais accessible sur les derniers modèles de smartphones, notamment ceux d'Apple et de Samsung.
En février, le nombre d'utilisateurs était estimé à près de 100 millions. En juin, Jean-Yves Le Gall évoquait "200 millions d'utilisateurs" et il "pense" qu'on est désormais proche "des 300 millions".
L'horizon s'éclaircit donc pour le GPS européen qui a connu de nombreuses difficultés depuis ses débuts en 1999 avec l'objectif de mise en service en 2008....
En fait, aucune entreprise privée ne voulait financer le projet à 100% et il a fallu attendre 2007 pour que le plan de financement industriel soit enfin bouclé. Lassée d’attendre le bon vouloir des industriels impliqués, l’Union européenne s’engage à financer sur fonds publics l’infrastructure. Les Vingt-Sept de l'époque décident donc que l’argent public financerait l’infrastructure satellitaire pour un coût de 3,4 milliards d’euros, soit 2,4 milliards supplémentaires par rapport au milliard d’euros déjà injecté, sur un coût total, exploitation comprise, de 10 milliards d’euros.
En 2007, un seul satellite a été lancé et l'année d'ouverture du service est repoussée à 2012. En 2014, les satellites Doresa et Milena ne rejoignent pas l’orbite prévue. La consternation est telle qu'une commission d’enquête est ouverte en collaboration avec la commission européenne et l’agence spatiale Européenne (ESA). Fin 2014, seuls 4 satellites sont concrètement en orbite. A cette date, 4 milliards d'euros ont déjà été dépensés.
En 2015, les choses s'accélèrent enfin. Soyouz met sur orbite, avec cette succès cette fois, deux nouveaux satellites de la constellation, portant donc le total à 6.
Le programme atteint alors son rythme de croisière avec la mise en orbite de deux satellites tous les trois mois. "Nous avons démontré aujourd'hui encore que l'Europe dispose d'un savoir-faire et d'une technologie de pointe et d'une vision et d'une détermination à accomplir de grandes choses", commente alors la commissaire européenne au Marché intérieur et à l'Industrie, Elzbieta Bienkowska. "Détermination" est bien le mot qui caractérise le mieux les acteurs de ce projet...
Fin 2016,  il est enfin possible d'utiliser les données européennes même si le dispositif est encore incomplet. En 2017, un ultime incident fait craindre le pire : on apprenait en effet que plusieurs horloges atomiques de certains satellites du projet étaient « en panne ».
Le système de navigation ne serait cependant directement touché par ces défaillances car les ingénieurs avaient prévu un système de redondance au cas où la situation se présenterait. Chaque satellite est ainsi doté de quatre horloges. L'ESA indiquait que la situation est sous-contrôle même si était est encore incapable d'expliquer les causes de cette épidémie.
Tous les satellites dont les horloges sont touchées par cette épidémie, sont fonctionnels, avait ainsi assuré l'agence.
Aujourd'hui, Galileo est plus stratégique que jamais à l'heure ou la géolocalisation s'infiltre dans de nombreux domaines, transformation numérique oblige. « Quelque 10 % du PIB européen dépendent aujourd’hui des systèmes de positionnement par satellites, et d’ici à 2030, ce pourcentage pourrait grimper à environ 30 % », justifie le Cnes, l’agence spatiale française.


 REF.:

mardi 21 août 2018

Google prévient des attaques potentielles sur G Suite


Google prévient des attaques potentielles sur G Suite


Google, sécurité, Hackers


Technologie : Google vient d'ajouter une nouvelle fonctionnalité dans la console d'administration de G Suite qui avertit les clients des cyberattaques sur leurs comptes.
Les administrateurs de la suite d'applications de productivité G Suite hébergées dans le cloud de Google peuvent désormais recevoir des alertes de la part à propos de tentatives potentielles d'attaques. La société a ajouté une nouvelle fonctionnalité à la console d'administration de G Suite qui déclenchera une alerte par courrier électronique pour les entreprises clientes chaque fois que le système de détection des menaces constate une cyberattaque dirigée par un gouvernement sur les ordinateurs ou les comptes des utilisateurs.

La fonctionnalité est optionnelle. Les administrateurs peuvent choisir de le désactiver ou de le configurer pour envoyer des notifications par défaut aux utilisateurs spécifiques de leur organisation. Lorsque la fonctionnalité est activée pour la première fois, le paramètre par défaut envoie les alertes par courrier électronique à l'administrateur principal de G Suite, mentionne un billet de blog de l'entreprise. Toutefois, les administrateurs peuvent modifier le paramètre par défaut pour spécifier qui dans leur organisation est destinataire des alertes.
L'objectif consiste à informer les administrateurs de toute activité suspecte associée à un gouvernement qui cible les utilisateurs de G Suite de manière à ce qu'ils puissent prendre des mesures pour sécuriser les comptes potentiellement concernés.

De telles attaques arrivent à moins de 0,1 % des utilisateurs

Les exemples d'activité suspecte incluent par exemple un utilisateur de compte Google qui reçoit des e-mails ou des messages de phishing avec des pièces jointes malveillantes, ou des liens vers un site web malveillant conçu pour voler ses mots de passe.
Les actions recommandées par Google pour les administrateurs incluent la réinitialisation des mots de passe des comptes d'utilisateur ou, si nécessaire, l'ajout d'un second facteur pour authentifier les utilisateurs. "Nous envoyons l'alerte pour vous faire savoir que nous pensons que les attaquants (...) tentent d'accéder au compte de l'un de vos utilisateurs" explique Google. De telles attaques arrivent à moins de 0,1 % des utilisateurs du compte Google. Il est donc possible qu'une alerte soit une fausse alerte signale toutefois l'entreprise. Google ne révélera cependant pas la nature de l'activité suspecte afin d'empêcher les pirates de trouver des moyens de contourner les mécanismes de détection.
Depuis 2012, Google avertit les utilisateurs de Gmail de toute activité malveillante issue de d'attaques gouvernementales ciblant leurs comptes. Ce service est donc désormais intégré à la console d'administration G Suite.

REF.:

Google : un nouveau câble transatlantique entre les Etats-Unis et la France


Google : un nouveau câble transatlantique entre les Etats-Unis et la France

Technologie : Le géant du cloud étend encore sa capacité réseau avec la construction d'un nouveau câble sous-marin privé appelé Dunant. Un câble qui sera géré par Google, sans partenariat avec une entreprise de télécommunication.


Google, cable, internet

Le câble va pourvoyer des données entre Virginia Beach aux Etats-Unis et la côte atlantique française. Le géant de la technologie ​​travaille avec TE SubCom à la conception et à la construction de ce câble, qui devrait être disponible fin 2020.

Présentation du câble Dunant par Google.
Dunant (du nom d'Henri Dunant, fondateur de la Croix Rouge) est le 12ème investissement de câble sous-marin pour Google, et le second pour son usage propre. Ce câble sera géré par Google, sans partenariat avec une entreprise de télécommunication. Plus tôt cette année, Google a dévoilé Curie, qui devrait relier le Chili à Los Angeles l'année prochaine. Avec Curie, a été également annoncé des investissements dans deux autres câbles dans le cadre d'un consortiums d'entreprises : Havfrue, reliant les Etats-Unis au Danemark et à l'Irlande, et le câble Hong Kong-Guam.
Les géants du cloud ont investi dans les câbles sous-marins depuis quelques années. Mais Google a été le premier à faire cavalier seul, d'abord avec Curie et maintenant avec Dunant. Par exemple, Facebook a fait équipe avec Google, TE SubCom et Pacific Light Data Communication sur un câble transpacifique.

Rapprocher les centres de données

Dans un article de blog, Jayne Stowell, de Google, a expliqué pourquoi l'entreprise choisissait de construire ces câbles sous-marins en privé. Elle cite les besoins de performance et de capacité. "Les câbles sont souvent construits pour servir un itinéraire très spécifique : lorsque nous construisons en privé, nous pouvons choisir cette route en fonction de ce qui fournira le plus faible temps de latence pour le plus grand segment de clients" écrit-elle. "Dans ce cas, nous voulions une connectivité outre-Atlantique proche de certains centres de données, mais les raisons pourraient également inclure la possibilité d'atterrir dans certains pays, ou de connecter deux endroits auparavant mal desservis, comme ce fut le cas avec Curie."
En plus d'élargir sa bande passante, Google augmente également la capacité de ces centre de données. Lundi, l'entreprise a ouvert une nouvelle région cloud ​​à Los Angeles, et plus tôt cette année l'entreprise a annoncé de nouvelles régions aux Pays-Bas, à Montréal et en Finlande.

REF.:

Android Google : 4,3 milliards d'euros d'amende, la grosse gifle assénée par Bruxelles


Android Google : 4,3 milliards d'euros d'amende, la grosse gifle assénée par Bruxelles

Technologie : Google fait appel de la décision et dénonce un "troublant favoritisme au profit de systèmes propriétaires fermés" de la part des autorités européennes. En cumulant l'amende Google Shopping, c'est donc désormais 6,7 milliards d'euros que l'Europe réclame au géant américain.


Google, amendes


La Commission européenne condamne le géant américain de la technologie à une amende record de 4.342.865.000 euros pour abus de sa position dominante dans la recherche avec Android, son système d'exploitation mobile. Il s'agit du montant le plus élevé jamais imposé par Bruxelles à une entreprise. L'amende a été calculée sur la base de la valeur des revenus générés par les services de publicité de recherche sur les appareils Android mentionne la Commission Européenne.


Google a immédiatement annoncé faire appel de la décision. Sundar Pichai affirme dans un billet de blog qui doit être diffusé dans l'après midi qu'elle ne tient pas compte du fait qu’Android est en concurrence avec iOS (moins de 20 % de parts de marché). Par ailleurs, l'entreprise assure que son écosystème est concurrentiel : constructeurs et opérateurs seraient libres de pré-installer les applications qu'ils souhaitent sur les appareils Android. Et pourraient décider librement d'utiliser ou non les applications Google.

"Troublant favoritisme au profit de systèmes propriétaires fermés"

"Nous pensons que la décision de la Commission témoigne d'un troublant favoritisme au profit de systèmes propriétaires fermés par rapport aux systèmes ouverts" relève le CEO.
"Depuis 2011, Google a imposé des restrictions illégales aux fabricants d'appareils Android et aux opérateurs de réseaux mobiles pour consolider sa position dominante dans la recherche sur Internet" dit tout au contraire un communiqué de la Commission, qui précise que Google devra "mettre fin à ses pratiques illégales dans les 90 jours" sous peine de se voir infliger des astreintes allant jusqu'à 5 % du chiffre d'affaires journalier moyen mondial de sa maison-mère, Alphabet, mentionnent les autorités européennes.
Dans le détail, Google a été reconnu coupable de profiter de la position dominante du système d'exploitation Android (80 % de parts de marché en Europe) pour convaincre ses clients d'utiliser ses applications maison, dont surtout Google Search, le moteur de recherche en ligne de Google.

"Ils ont refusé aux consommateurs européens les avantages d'une concurrence effective"

"Les fabricants d'appareils Android et les opérateurs de réseau ont veillé à ce que le trafic sur les appareils Android soit acheminé vers le moteur de recherche Google, ce qui a permis à Google d'asseoir la domination de son moteur de recherche sur Android" note la Commissaire Margrethe Vestager, chargée de la politique de la concurrence. "Ils ont refusé aux consommateurs européens les avantages d'une concurrence effective (...) ce qui est illégal en vertu des règles antitrust de l'UE."
Et de préciser la charge : "Google a demandé aux fabricants de pré-installer l'application de recherche Google et l'application de navigateur (Chrome), comme condition d'octroi de licences pour l'app store de Google (le Play Store). Google a payé certains grands fabricants et opérateurs de réseaux mobiles pour qu'ils préinstallent exclusivement l'application Recherche Google sur leurs appareils. Google a empêché les fabricants souhaitant pré-installer des applications Google de vendre des smartphones fonctionnant sur des versions alternatives d'Android (les forks) qui n'ont pas été approuvées par Google".
Au total, en à peine un an c'est donc la somme extravagante de 6,7 milliards d'euros que l'Europe réclame au géant américain (l'amende infligée par l'Europe à Google en 2017 est de 2,4 milliards d'euros). A titre de comparaison, cette somme correspond à la dernière enveloppe d'aide octroyée par l'Europe à le Grèce. Avec la dernière salve à 4,34 milliards d'euros, on est cependant bien loin des 110,9 milliards de dollars, somme théorique prise en compte selon les règles de la concurrence européenne pour le calcul de l'amende, et qui correspond aux 10 % du chiffre d'affaires global de l'entreprise.

"Discipliner le comportement abusif de Google"

"C'est une étape importante pour discipliner le comportement abusif de Google par rapport à Android" réagit Thomas Vinje, l'avocat de FairSearch, le lobby à l'origine en 2013 de la plainte qui a déclenché l'affaire. Il lie par ailleurs cette affaire à celle de la vente liée d'Internet Explorer pour laquelle Microsoft avait été condamné en Europe en 2013. "Cela signifie que Google devrait cesser ses pratiques anticoncurrentielles concernant les smartphones, mais aussi dans d'autres domaines - les téléviseurs intelligents, en particulier - où il empêche la concurrence en utilisant les mêmes pratiques."
Il affirme par ailleurs que si "la plainte a traîné pendant cinq ans c'est parce que Google a utilisé tous les stratagèmes pour retarder l'action".
Nul doute que cette décision pèsera un peu plus sur les relations entre les Etats-Unis et l'Union européenne. Le président de la Commission européenne, Jean-Claude Juncker, doit se rendre la semaine prochaine à Washington sur le dossier du commerce international.
Les ennuis de Google en Europe sont par ailleurs loin d'être achevés. Les pratiques publicitaires de Google sont scrupuleusement examinées par les autorités européennes. Elles reprochent à Google depuis le 14 juillet 2016 d'avoir abusé de sa position dominante avec sa régie publicitaire AdSense, qui s'adjuge 80 % du marché de la publicité Display en ligne en Europe.

REF.:

mercredi 8 août 2018

Déja en 1946 on parlait de Google ?

Un Logique nommé Joe (A logic named Joe):


Murray Leinster (1896-1975), de son vrai nom William Fitzgerald Jenkins, est ce qu’on peut appeler un vétéran de la science-fiction étatsunienne : il a en effet commencé à publier au lendemain de la Première Guerre mondiale, et fit preuve d’une vitalité et d’une prolixité remarquables, alignant un bon millier de textes, dont une faible partie a finalement été traduite en France. Il est pourtant quelque peu oublié de nos jours, et la réédition de cette courte nouvelle devrait permettre de porter un regard attentif sur une œuvre qui le mérite.
« Un logique nommé Joe », publié initialement en 1946, est proposé pour la première fois en France par la revue Fiction en 1967, puis repris dans « La Grande Anthologie de la Science-Fiction » pour le volume Histoire de machines (1974), et une troisième fois dans l’excellente anthologie de Patrice Duvic Demain les puces (1986). Cette nouvelle publication, qui francise davantage l’orthographe du principal protagoniste – logic devient ici logique –, permet donc de (re)découvrir un texte dont les éditions antérieures sont toutes épuisées. Le titre énigmatique devient en réalité nettement plus compréhensible quand on remplace logique par ordinateur personnel.
L’histoire imaginée par Murray Leinster est en effet censée se dérouler dans un futur non précisé, où les immenses machines informatiques contemporaines de l’auteur ont été remplacées par des appareils ne prenant pas davantage de place qu’un écran de télévision, et dont disposent tous les foyers, entreprises, administrations… Surtout, ces ordinateurs sont tous reliés entre eux, et en consultant des bases de données centralisées, peuvent répondre à toute question ou résoudre tout service dont aurait besoin son utilisateur(moteur de recherche Google ou Google Home). La prescience de Murray Leinster est ici proprement stupéfiante, car on reconnaît assez bien notre environnement actuel : « Vous voyez le tableau. Vous avez un logic chez vous. Ca ressemble à un poste de télévision, sauf qu’il y a un clavier au lieu de boutons ; vous y tapez ce que vous voulez obtenir. Il est relié à la banque mémorielle (…) Et si vous demandez la météo, ou qui a gagné le tiercé aujourd’hui, ou qui était sous-secrétaire d’État pendant l’administration Garfield, vous l’aurez aussi sur l’écran. A cause des relais de la banque mémorielle. La banque, c’est un grand bâtiment qui contient tous les faits de la création et des enregistrements de toutes les émissions jamais réalisées (…) et tout ce que vous voulez voir, savoir ou entendre, vous tapez et ça vient. » L’effort d’imagination est faible permettant d’y voir les ordinateurs qui nous suivent comme des ombres, le réseau internet et ses data centers…
L’intrigue, comparativement à ce travail de futurologue, peut paraître décalée tellement elle est légère. Murray Leinster, grâce à cette irruption d’une femme fatale dans la vie bien rangée d’un technicien informatique, répondant au doux surnom de Ducky, donne en fait l’impression de vouloir atténuer l’inquiétude véhiculée par sa nouvelle. C’est en effet par le harcèlement dont elle fait preuve que Laurine, son ex-petite amie, permet à Ducky de découvrir l’origine d’un dysfonctionnement majeur du réseau des logiques. Suite à une erreur de fabrication, l’un d’entre eux, Joe, se retrouve en effet dénué de tout blocage, et s’empresse de proposer à tous les utilisateurs de répondre à n’importe quelle question visant à leur faire plaisir. On a là comme un détournement des fameuses lois de la robotique d’Asimov, puisqu’on voit se multiplier les escroqueries, les préparations de meurtres, les vols, jusqu’à la possibilité de mettre au point des bombes.
Murray Leinster expose ainsi toute la tentation que véhicule l’Internet actuel, toutes les dérives dont il est porteur, jusqu’à la transparence totale de la vie privée et les manipulations sur lesquelles il ouvre, trouvant à ce basculement mortifère une réponse assez simple, basée sur l’impossibilité de mentir de la part des programmes informatiques. Il ouvre ainsi de manière extrêmement précoce une réflexion sur la dépendance que l’informatique génère (« Les logics ont transformé la civilisation ! Les logics sont la civilisation ! Sans eux, nous sommes perdus ! »), non sans nourrir possiblement, en arrière-fond, une crainte des régimes totalitaires tels que les percevaient certains auteurs, comme le soviétique Zamiatine ou Orwell, deux ans plus tard.

Un billet de Jean-Guillaume Lanuque (III)

mercredi 1 août 2018

Si Youtube , Blogger et Gmail vous censure opter pour une solution alternative


Les alternatives a Youtube (qui censure beaucoup moins vos opinions):

https://diretube.com/play/
https://steemit.com/
https://peertube.social/
 PeerTube permet à quiconque de créer son propre site de streaming vidéo. Cela peut s'exécuter indépendamment, mais il peut également être lié ou fédéré avec d'autres instances PeerTube pour créer une portée plus large. Tous avec support du streaming P2P."C'est pourquoi PeerTube doit être un logiciel Libre-Libre: même nous ne devrions pas pouvoir" fermer "le code, cela nous donnerait beaucoup trop de pouvoir, ce que nous ne voulons pas".Pour «fédérer» avec d’autres instances de PeerTube, le logiciel utilise le protocole ActivityPub, également utilisé par le célèbre logiciel de réseau social Mastodon. Cela permet de développer la bibliothèque vidéo si nécessaire, mais elle est entièrement facultative.

https://www.bitchute.com/
Mais qu'en est-il s'il y avait une alternative à YouTube, une alternative qui n'impose pas les mêmes types de restrictions aux uploaders? Entrez BitChute, une plateforme vidéo basée sur BitTorrent qui cherche à rendre la liberté à ses utilisateurs."Tout ce que je veux, c'est un site où les gens peuvent dire ce qu'ils veulent", a-t-il déclaré à l'époque. "Je veux un site où les gens peuvent exploiter leur entreprise sans que quelqu'un d'autre intervienne et leur enlève leur contenu lorsqu'ils disent quelque chose qu'ils n'aiment pas."Pour l'instant, BitChute est encore en développement, mais jusqu'à présent, il a impressionné Feross Aboukhadijeh, le diplômé de l'université de Stanford qui a inventé WebTorrent.


https://vk.com/ , pour votre cell .

Pour les blogues, faut pas manquer:
WordPress ,avec presque 26 millions d'abonnés.


Reddit
4Chan(anonyme)
8Chan(anonyme)

Alternative à Google Search (moteur de recherche)

Le moteur de recherche de Google est le service le plus connu et utilisé par des millions d’internautes.
Il existe toutefois des alternatives gratuites et qui ne pratiquent pas le pistage utilisateur.
Voici deux alternatives au moteur de recherche Google :
Alternative à Google Search (moteur de recherche)

Alternative à Gmail

Il existe beaucoup alternatives possibles à Gmail, si vous êtes sensibles aux partages de données, lisez bien les conditions d’utilisation, règles de confidentialité (privacy policies).
Certains services de mails comme GMX ou Inbox usent de la revente de données, parfois anonymisées.
Par exemple Gmail sur iOS ne permet pas plus de 320 Mo par email ,autrement dit on ne veut pas de video dans vos courriel lol ; mais Apple vous donne MailDrop gratuit pour 30 jours avant qu'il efface vos fichiers attachés !


Quelques alternatives à Gmail gratuite et payant :
  • FastMail (payant)
  • Hushmail (payant – $49.98 par an avec 10 Go de données)
  • ProtonMail (gratuit pour un usage de 150 messages par jour et une BAL de 500mo). Les mails sont automatiquement chiffrés.
  • Tutanota (gratuit pour une BAL de 1 Go)
  • Zoho (gratuit pour une BAL de 5 Go – forfait à partir de 2 euros)

Alternative à Google Maps

Google Map est un service de cartographie et de géolocalisation.
Lorsque vous utilisez Google Map sur votre téléphone, le service utilise le GPS de votre SmartPhone afin de vous positionner.
Google utilise cela pour vous proposer de noter des restaurants où vous avez localisé et ainsi alimenter sa base de données.
Les trajets sur Google Maps sont aussi enregistrés et stockés par Google.
Il existe une alternative gratuite à Google Map OpenStreetMap
Alternative à Google Maps
OpenStreetmap gère les trajets, toutefois, certaines informations sur les cartes ne sont pas disponibles comme les lignes de Métro par exemple.
Google Maps va aussi plus loin en coupant ces informations avec les bouchons ou délai d’arriver des bus, ce que ne fait pas OpenStreetMap.


Alternative à Google Drive

Google Drive est un service de synchronisation de fichiers gratuit.
Là aussi, les fichiers peuvent être analysés, voir vous perdez la licence sur ces derniers qui peuvent être utilisés ensuite par Google.
Un peu comme vos photos ou documents que vous envoyez à Facebook car leur appartient par la suite.
Il faut bien là aussi lire les conditions d’utilisation et de licence de ces services.
Dropbox ne semble pas effectué d’analyse de contenu contrairement à Google Drive ou OneDrive.
Vous avez une liste d’autres hébergeurs et services de synchronisation de fichiers sur la page suivante : Stockage de fichiers en ligne (Cloud)
Notamment Hubic d’OVH en gratuit n’effectue aucune analyse de contenu et propose 25 Go en gratuit.

Alternative à Google Docs

Google Docs est un service de bureautique en ligne qui permet de partager des documents aux autres comptes Google.
Des alternatives libres ou gratuits existe, en voici deux :






REF.: T30