Powered By Blogger

Rechercher sur ce blogue

lundi 11 novembre 2019

Siri, Google Assistant et Alexa vulnérables aux attaques… par laser



Siri, Google Assistant et Alexa vulnérables aux attaques… par laser

Une étude rapporte que les assistants vocaux conçus par Google, Apple et Amazon sont susceptibles de subir des attaques par laser.


Siri, Alexa, Google Assistant, Hackers,
 
 
 
Dans une récente étude, des chercheurs démontrent que de nombreux appareils sont vulnérables à un type d’attaque bien particulier. Ce sont les assistants vocaux intégrés à ces dispositifs qui sont susceptibles d’être piratés à l’aide de laser. Outre les produits de la gamme Amazon Echo ou Google Home, Facebook Portal, l’iPhone X et l’iPad 6 font aussi partie du lot.
Si des tests antérieurs ont prouvé que les enceintes connectées pouvaient être victimes de plusieurs types d’attaques, celle-ci peut d’abord sembler un peu improbable. Et pourtant, elle permet d’effectuer -à distance- des actions comme l’ouverture d’une porte d’entrée ou des achats en ligne.
Pour arriver à leurs fins, les chercheurs n’ont pas eu besoin de plus qu’un laser à 18 dollars et un amplificateur à 400 dollars.

Comment le laser peut-il permettre un piratage ?

Si le laser peut permettre le piratage de ces assistants, c’est parce que les variations d’intensité de la lumière sont considérées comme des impulsions que le micro appréhende comme une commande vocale. Il y a un an, ce sont les attaques par ultrasons qui faisaient parler d’elles et qui offraient les mêmes possibilités de piratages aux hackers. Ici, le processus est un peu similaire, car le micro interprète un élément extérieur comme une commande à la voix passée par un utilisateur humain.
Cette attaque par laser peut faire peur, car elle est efficace jusqu’à plus de 100 mètres de distance et passe à travers les fenêtres. Mais il faut tout de même noter que le pirate doit nécessairement avoir l’appareil et le micro dans le champ de vision du laser. De plus, le dispositif réagira forcément par une réponse, que la victime peut donc entendre si elle est présente dans la pièce.
Google et Amazon sont actuellement en train de mener une enquête aux côtés des chercheurs à l’origine de l’étude.

REF.:

Aucun commentaire: