Siri, Google Assistant et Alexa vulnérables aux attaques… par laser
Une étude rapporte que les assistants vocaux conçus par Google, Apple et Amazon sont susceptibles de subir des attaques par laser.
Siri, Alexa, Google Assistant, Hackers,
Si des tests antérieurs ont prouvé que les enceintes connectées pouvaient être victimes de plusieurs types d’attaques, celle-ci peut d’abord sembler un peu improbable. Et pourtant, elle permet d’effectuer -à distance- des actions comme l’ouverture d’une porte d’entrée ou des achats en ligne.
Pour arriver à leurs fins, les chercheurs n’ont pas eu besoin de plus qu’un laser à 18 dollars et un amplificateur à 400 dollars.
Comment le laser peut-il permettre un piratage ?
Si le laser peut permettre le piratage de ces assistants, c’est parce que les variations d’intensité de la lumière sont considérées comme des impulsions que le micro appréhende comme une commande vocale. Il y a un an, ce sont les attaques par ultrasons qui faisaient parler d’elles et qui offraient les mêmes possibilités de piratages aux hackers. Ici, le processus est un peu similaire, car le micro interprète un élément extérieur comme une commande à la voix passée par un utilisateur humain.Cette attaque par laser peut faire peur, car elle est efficace jusqu’à plus de 100 mètres de distance et passe à travers les fenêtres. Mais il faut tout de même noter que le pirate doit nécessairement avoir l’appareil et le micro dans le champ de vision du laser. De plus, le dispositif réagira forcément par une réponse, que la victime peut donc entendre si elle est présente dans la pièce.
Google et Amazon sont actuellement en train de mener une enquête aux côtés des chercheurs à l’origine de l’étude.
REF.:
Aucun commentaire:
Publier un commentaire