INFOTHEMA

Auteur Sujet: Apple admet écouter certaines conversations privées via Siri  (Lu 484 fois)

Animateur

  • Administrator
  • Hero Member
  • *****
  • Messages: 2978
    • Voir le profil


Un ancien sous-traitant de l'entreprise a révélé que des contractuels sont chargés d'écouter des enregistrements réalisés par l'outil de commande vocale Siri à l'insu des utilisateurs. Une manœuvre qui serait destinée à « améliorer les performances » du dispositif, mais qui contraste avec la position stricte d'Apple en matière de respect des données personnelles.

Des « innombrables cas » d'enregistrements délicats

Après  Google , Microsoft et Amazon, c'est au tour du géant à la pomme croquée d'être sur le banc des accusés en raison de son indiscrétion. Selon un article paru vendredi dans « The Guardian », des sous-traitants d'Apple auraient pour mission d'analyser les bandes sonores enregistrées par Siri par erreur. Un mode opératoire confirmé par l'entreprise, qui avance faire cela afin de comprendre pourquoi l'assistant vocal intelligent, présent sur les  iPhone ainsi que sur les Mac, s'active parfois sans que cela ne lui ait été demandé.

Mais à en croire le lanceur d'alerte ayant informé le quotidien britannique, cela aurait également amené les salariés chargés d'analyser les dysfonctionnements à entendre des bribes de conversations parfois sensibles et à accéder de manière opaque aux données personnelles des utilisateurs.

Des « innombrables cas » d'enregistrements délicats

D'après la source du « Guardian », qui a elle-même été employée par l'un des sous-traitants de la firme, le nombre de conversations enregistrées pourrait être conséquent, en raison de la fréquence à laquelle Siri se déclenche par erreur. En effet, « le son d'une fermeture éclair » serait suffisant, à lui seul, pour activer l'assistant vocal.

Plus inquiétant encore, le fait que le contenu des discussions relèverait souvent du domaine de la vie privée - voire intime - selon l'ancien salarié. « Il y a eu d'innombrables cas d'enregistrements de discussions privées entre médecins et patients, de transactions commerciales, de transactions apparemment criminelles, de rencontres sexuelles… Ces enregistrements sont accompagnés de données de l'utilisateur indiquant parfois sa localisation ou des données de contact » a-t-il déclaré.

« Apple sous-traite et il y a beaucoup de rotation des effectifs » a confié le lanceur d'alerte, avant d'affirmer que les personnes amenées à étudier les dysfonctionnements de l'application de commande vocale ne sont « pas encouragées à prendre en compte la dimension privée des conversations qu'ils examinent ». Souvent, ce seraient sur les Apple Watch et les  HomePod , ces enceintes connectées, que la dictée vocale se mettrait accidentellement en route.

Une politique relative aux données personnelles pourtant restrictive

Face à la polémique, la réponse d' Apple n'a pas tardé. Dès le début de semaine, l'entreprise s'est justifiée en déclarant que seulement une « petite partie » des activations de Siri étaient analysées afin de perfectionner la reconnaissance vocale. Elle a également avancé qu'uniquement 1 % des enregistrements audio étaient effectivement écoutés par des êtres humains, tout en assurant qu'il était quasiment impossible d'associer les bandes-son en question à des individus en raison de « strictes exigences de confidentialité ».

Apple a toujours mis en avant une position plus stricte que ses concurrents sur le plan des données personnelles. Pas plus tard qu'en janvier dernier, à l'occasion de la CES (Consumer electronics show), l'entreprise avait d'ailleurs placardé des affiches géantes à Las Vegas, sur lesquelles on pouvait lire « Ce qu'il se passe sur votre iPhone reste sur votre iPhone ». De la même manière, quelques années auparavant, en 2016, le successeur de Steve Jobs, Tim Cook, avait accordé une interview télévisée au cours de laquelle il affirmait qu'Apple ne lisait jamais les mails et iMessages des utilisateurs.
Un potentiel embarras juridique

Mais il n'y a pas que sur le plan éthique que la firme basée à Cupertino est incommodée. Si les révélations du « Guardian » sont si embarrassantes, c'est également parce qu'elles posent la question du respect des normes juridiques en matière de protection de données. Pour les enceintes HomePod, par exemple, Apple avait assuré que les commandes vocales ne seraient pas exploitées et que toutes les données seraient anonymisées et chiffrées.

« S'il s'avère, au terme d'une enquête en bonne et due forme, qu'Apple a vraiment réalisé un manquement aux obligations de transparence, on pourrait considérer qu'il y a une violation des lois » analyse Oriana Labruyère, avocate spécialisée en protection des données. « On pourrait alors imaginer une condamnation à l'image de celle adressée à Google par la CNIL en janvier dernier, pour utilisation de données personnelles sans consentement » poursuit-elle, avant de souligner le fait que dans le cas de Siri, les données pourraient être particulièrement sensibles en raison du contexte de conversations privées dans lequel elles ont été récupérées.

RGPD : la CNIL compte montrer les muscles

Un avis partagé par un membre de l'association oeuvrant pour la défense des libertés numériques La Quadrature du Net et connu sous le pseudonyme « Klorydryk ». révèle aussi que les Gafam sont plus humanisés qu'on ne le croit. « Les Gafam nous avaient fait des promesses sur le plan technique » estime-t-il. « L'une d'entre elles consistait à ce que les données soient surtout traduites par des robots… Pourtant, de nombreux cas, comme le fait que des tiers soient ici employés par Apple, nous prouvent que ce n'est pas vrai, ce dont on se doutait déjà après le scandale autour des écoutes réalisées par Amazon grâce à Alexa. »

Source lesechos.fr - ANOUK HELFT

Membre de l'APRIL (www.april.org) / Membre du bureau Association "Debian Facile"  (https://debian-facile.org)// Membre du FabLab de Lannion (www.fablab-lannion.org)