/news/techno

Siri, Google Assistant, Alexa

Votre assistant vocal bientôt piraté par la musique que vous écoutez?

TVA Nouvelles

Des chercheurs ont découvert qu’il était possible de trafiquer la musique que vous écoutez afin d’y insérer des commandes inaudibles à l’oreille humaine, mais qui enverraient des directives reconnues par les assistants vocaux.

De plus en plus populaires, les assistants vocaux comme Siri, Google Assistant et Alexa ne sont pas sans failles, s’il faut en croire le travail de chercheurs américains et chinois, qui sont parvenus à commander des actions grâce à des sons impossibles à reconnaître pour l’humain.

Ces assistants sont normalement activés par une commande vocale simple comme «Ok Google» ou «Dis Siri». Or, des chercheurs des universités Berkeley et Georgetown ont démontré en 2016 qu’ils pouvaient insérer des «bruits blancs», inaudibles pour l’humain, qui activaient le mode avion d’un appareil ou encore ouvraient un onglet web, par exemple.

Puis, ce mois-ci, ces chercheurs ont poussé l’audace plus loin. Ils affirment être en mesure d’encoder des commandes à l’intérieur d’enregistrements musicaux ou vocaux. Pendant que vous écoutez votre musique favorite, votre assistant vocal, lui, pourrait ajouter un item à votre panier d’achats sur un site web, et ce, à votre insu.

L’un des auteurs de l’étude, Nicholas Carlini, explique que s’il n’y a aucune preuve que ces techniques ont quitté leur laboratoire, ce pourrait être une question de temps avant qu’une personne parvienne à imiter leurs réalisations.

«Mon hypothèse, c’est que des personnes mal intentionnées ont déjà engagé des gens pour imiter ce que nous faisons», a-t-il confié au New York Times.

«Attaque dauphin»

En août 2017, des chercheurs chinois étaient également parvenus, grâce à l’émission d’ultrasons, à déverrouiller un iPhone et de lui faire exécuter une commande. L’attaque sonore, baptisée «Dolphin Attack» («Attaque du Dauphin»), n’était alors seulement efficace que si la distance entre l’émetteur et le téléphone était faible. Des chercheurs de l’Illinois sont ensuite parvenus à recréer l’expérience en plaçant les deux objets à huit mètres de distance, mais sans interférence entre les deux (un mur, par exemple).

Interrogé par le Times, Google a indiqué qu’elle travaillait constamment à renforcer la sécurité de ses produits et que son assistant vocal était muni d’une fonction permettant de brouiller une commande audio indétectable à l’oreille humaine. Chez Apple, on note que pour activer Siri, un iPhone ou iPad doit d’abord être déverrouillé. Quant à son haut-parleur intelligent, le HomePod, celui-ci est conçu de façon à ce que certaines commandes sensibles comme déverrouiller une porte ne puissent être réalisées.

FILES-US-IT-LIFESTYLE-APPLE

AFP

N’empêche, les chercheurs espèrent que leurs techniques ne tomberont pas dans les mains de pirates, ce qui pourrait avoir des conséquences catastrophiques en matière de fraudes ou même de vols physiques.

«Nous voulons démontrer que c'est possible, explique Nicholas Carlini. Nous espérons que d'autres personnes se diront ensuite “Ok, c'est possible, maintenant essayons de régler le problème”».

Dans la même catégorie