(San Francisco) En 2021, Apple s’est retrouvée au cœur d’une controverse à propos d’un projet visant à scanner les iPhone à la recherche de documents relatifs à des agressions sexuelles d’enfants. Les experts en protection de la vie privée ont mis en garde contre les risques d’abus de la part des gouvernements, et les réactions ont été si vives qu’Apple a fini par abandonner le projet.

Deux ans plus tard, Apple doit faire face aux critiques de défenseurs de la sécurité des enfants et d’investisseurs qui demandent à la société de faire davantage pour protéger les enfants contre les abus en ligne.

Un groupe de défense des enfants, Heat Initiative, a recueilli 2 millions de dollars pour une nouvelle campagne publicitaire nationale demandant à Apple de détecter, de signaler et de supprimer les contenus pédopornographiques d’iCloud, sa plateforme de stockage en ligne.

Dans le courant de la semaine, l’association publiera des annonces numériques sur des sites web populaires auprès des décideurs politiques à Washington, tels que Politico. Elle posera également des affiches à San Francisco et à New York : « Des contenus pédopornographiques sont stockés sur iCloud. Apple l’autorise. »

Ces critiques sont le reflet d’une situation difficile à laquelle Apple est confrontée depuis des années. La société a fait de la protection de la vie privée un élément central de son discours sur l’iPhone auprès des consommateurs. Mais cette promesse de sécurité a contribué à faire de ses services et de ses appareils, dont 2 milliards sont utilisés, des outils utiles pour le partage d’images d’abus pédosexuels.

L’entreprise est prise en étau entre les groupes de défense des enfants, qui veulent qu’elle en fasse davantage pour empêcher la diffusion de ces contenus, et les experts en protection de la vie privée, qui veulent qu’elle maintienne la promesse d’appareils sécurisés.

Un groupe de deux douzaines d’investisseurs gérant près de 1000 milliards de dollars américains d’actifs (plus de 1300 milliards canadiens) a également demandé à Apple de déclarer publiquement le nombre d’images illicites qu’elle détecte dans ses appareils et ses services.

Deux investisseurs – Degroof Petercam, un gestionnaire d’actifs belge, et Christian Brothers Investment Services, une société d’investissement catholique – soumettront ce mois-ci une proposition d’actionnaires qui exigerait qu’Apple fournisse un rapport détaillé sur l’efficacité de ses outils de sécurité pour protéger les enfants.

« Apple semble coincée entre la protection de la vie privée et l’action », a déclaré Matthew Welch, spécialiste des investissements chez Degroof Petercam. « Nous pensions qu’une proposition réveillerait le gestionnaire et l’amènerait à prendre cette question plus au sérieux. »

Apple répond

Apple n’a pas tardé à répondre aux défenseurs de la sécurité des enfants. Au début du mois d’août, ses responsables de la protection de la vie privée ont rencontré le groupe d’investisseurs, a indiqué M. Welch. Puis, jeudi, la société a répondu à un courriel du groupe Heat Initiative par une lettre qui défendait sa décision de ne pas scanner iCloud. Elle a fait parvenir cette correspondance à Wired, une publication spécialisée dans les technologies.

Dans la lettre d’Apple, Erik Neuenschwander, directeur de la protection de la vie privée des utilisateurs et de la sécurité des enfants, a déclaré que l’entreprise avait conclu qu’il n’était « pas possible en pratique » de scanner les photos iCloud sans « mettre en péril la sécurité et la vie privée de [ses] utilisateurs ».

« L’analyse d’un type de contenu, par exemple, ouvre la porte à une surveillance de masse et pourrait susciter le désir de rechercher d’autres systèmes de messagerie cryptée », a déclaré M. Neuenschwander.

Apple, a-t-il ajouté, a créé une nouvelle fonction par défaut pour tous les comptes d’enfants qui déclenche un avertissement s’ils reçoivent ou essaient d’envoyer des images de nudité. Cette fonction a pour but d’empêcher la création de nouvelles images pédopornographiques et de limiter le risque que des prédateurs exercent des pressions sur des enfants ou les fassent chanter pour obtenir de l’argent ou des images de nu. Ces outils ont également été mis à la disposition des développeurs d’applications.

En 2021, Apple a déclaré qu’elle utiliserait une technologie appelée « hachage d’images » pour repérer les contenus illicites sur les iPhone et dans iCloud.

Mais l’entreprise n’a pas communiqué ce projet aux experts de la protection de la vie privée, ce qui a renforcé leur scepticisme et alimenté les craintes que les gouvernements n’abusent de cette technologie, a déclaré Alex Stamos, directeur de l’Observatoire de l’internet de Stanford au Cyber Policy Center, qui s’est opposé à cette idée.

L’année dernière, l’entreprise a discrètement abandonné son projet de scanner iCloud, prenant par surprise les groupes de protection de l’enfance.

Vie privée

Apple s’est attiré les louanges de groupes de défense de la vie privée et de la sécurité des enfants pour ses efforts visant à limiter la création de nouvelles images de nudité sur iMessage et d’autres services. Mais M. Stamos, qui a salué la décision de la société de ne pas scanner les iPhone, a déclaré qu’elle pouvait faire davantage pour empêcher les gens de partager des images problématiques dans le nuage.

« Vous pouvez avoir une vie privée si vous stockez quelque chose pour vous-même, mais si vous partagez quelque chose avec quelqu’un d’autre, vous n’avez pas la même vie privée », a déclaré M. Stamos.

Les gouvernements du monde entier font pression sur Apple pour qu’elle agisse. L’année dernière, le commissaire australien chargé de la sécurité électronique a publié un rapport critiquant Apple et Microsoft pour ne pas avoir fait davantage pour surveiller de manière proactive leurs services afin de détecter les contenus illicites.

Aux États-Unis, Apple a fait 160 signalements en 2021 au National Center for Missing and Exploited Children (Centre national pour les enfants disparus et exploités), un centre d’échange désigné par le gouvernement fédéral pour les contenus illicites. Google a fait 875 783 signalements, tandis que Facebook en a fait 22 millions. Ces signalements ne reflètent pas toujours des contenus réellement illicites ; certains parents ont vu leur compte Google suspendu et ont été signalés à la police pour des images de leurs enfants qui n’étaient pas de nature criminelle.

Cet article a été publié à l’origine dans The New York Times.

Lisez l’article original (en anglais ; offert en abonnement payant)