À l’ère du numérique, la crainte que nos smartphones nous écoutent à notre insu revient régulièrement dans le débat public. Ces derniers mois, plusieurs affaires judiciaires relancent la polémique, notamment en France, où deux plaintes ont été déposées contre Apple pour des soupçons d’écoutes illégales via son assistant vocal Siri. Ces cas interrogent sur les pratiques réelles des géants du numérique en matière de collecte de données audio.
En 2025, une plainte a été déposée auprès du procureur de Paris visant Apple, accusé d’avoir permis à ses assistants vocaux Siri d’enregistrer des conversations privées en dehors de toute activation volontaire par l’utilisateur. L’accusation s’appuie notamment sur des témoignages et fuites internes révélant que des extraits audio pouvaient être transmis à des sous-traitants pour être analysés sans consentement explicite de l’utilisateur, comme l’avaient déjà évoqué des enquêtes du Guardian en 2019.
Selon la CNIL (Commission nationale de l’informatique et des libertés), ce type de pratique pourrait contrevenir au RGPD si l’utilisateur n’est pas suffisamment informé, ou si les données sont traitées sans finalité clairement définie. Apple affirme, pour sa part, avoir renforcé la confidentialité de Siri avec iOS 15 en intégrant un traitement local de la voix directement sur l’appareil pour de nombreuses commandes, réduisant ainsi les envois vers ses serveurs.
Les assistants vocaux comme Siri, Google Assistant ou Alexa fonctionnent selon un mécanisme de « wake word » – un mot-clé comme « Dis Siri » ou « OK Google » qui déclenche l’enregistrement. En théorie, aucun son n’est conservé sans déclenchement volontaire. En pratique, des erreurs d’activation peuvent survenir. Une étude menée par l’Université Northeastern (2018) a montré que certains assistants s’activent jusqu’à 19 fois par jour de manière involontaire.
Ces fragments, bien que souvent courts, peuvent contenir des données sensibles. Une fois transmis aux serveurs, ils peuvent être utilisés pour entraîner les intelligences artificielles, sauf si l’utilisateur a refusé cette option dans ses paramètres. Depuis plusieurs années, Amazon, Google et Apple permettent de supprimer manuellement ou automatiquement les enregistrements vocaux.
Le RGPD impose aux entreprises de recueillir un consentement clair et éclairé pour toute collecte de données personnelles. En parallèle, le Digital Markets Act et le Digital Services Act, en vigueur depuis 2024, imposent une plus grande transparence sur l’usage des données et renforcent les droits des utilisateurs européens vis-à-vis des plateformes numériques.
Des enquêtes similaires ont été menées en Allemagne, aux Pays-Bas et en Irlande, où les régulateurs se penchent sur la question des assistants vocaux. Ces procédures pourraient aboutir à des sanctions financières importantes si des violations du RGPD sont confirmées.
Action | Effet |
---|---|
Désactiver l’assistant vocal | Empêche toute écoute passive |
Vérifier les autorisations micro dans les paramètres | Réduit les risques d’accès involontaire |
Supprimer l’historique vocal régulièrement | Efface les données stockées sur les serveurs |
Activer les options de traitement local (si disponible) | Empêche l’envoi des commandes vocales à distance |
Malgré les efforts affichés, la transparence reste partielle et difficilement accessible pour le grand public. Peu d’utilisateurs savent comment leurs données sont collectées ou comment désactiver les fonctions intrusives. Ces affaires soulignent une nécessité croissante : celle de fournir des interfaces claires, des options activables en un clic et un véritable contrôle des utilisateurs sur leurs données personnelles.
Alors, les smartphones nous écoutent-ils vraiment ? Techniquement, ils peuvent enregistrer brièvement votre voix – intentionnellement ou non – mais l’usage qui en est fait dépend fortement de la plateforme et des choix de l’utilisateur. Une chose est sûre : la vigilance et la maîtrise des réglages de confidentialité restent les meilleures protections.