Plus tard cette année
, Apple déploiera une technologie qui permettra à l'entreprise de détecter et de signaler aux forces de l'ordre les contenus connus d'abus sexuels sur des enfants d'une manière qui, selon elle, préservera la confidentialité des utilisateurs.
Apple a déclaré à TechCrunch que la détection de matériel pédopornographique (CSAM) est l'une des nombreuses nouvelles fonctionnalités visant à mieux protéger les enfants qui utilisent ses services contre les dommages en ligne, y compris des filtres pour
bloquer les photos potentiellement sexuellement explicites
envoyé et reçu via le compte iMessage d'un enfant. Une autre fonctionnalité interviendra lorsqu'un utilisateur essaiera de rechercher des termes liés à CSAM via Siri et Search.
La plupart des services cloud - Dropbox, Google et Microsoft pour n'en nommer que quelques-uns - analysent déjà les fichiers utilisateur à la recherche de contenu susceptible de violer leurs conditions d'utilisation ou d'être potentiellement illégal, comme CSAM. Mais Apple a longtemps résisté à l'analyse des fichiers des utilisateurs dans le cloud en donnant aux utilisateurs la possibilité de crypter leurs données avant qu'elles n'atteignent les serveurs iCloud d'Apple.
Apple a déclaré que sa nouvelle technologie de détection CSAM - NeuralHash - fonctionne à la place sur l'appareil d'un utilisateur et peut identifier si un utilisateur télécharge des images connues d'abus d'enfants sur iCloud sans déchiffrer les images jusqu'à ce qu'un seuil soit atteint et une séquence de vérifications pour vérifier que le contenu est effacé. .
La nouvelle des efforts d'Apple a été divulguée mercredi lorsque Matthew Green, professeur de cryptographie à l'Université Johns Hopkins, a révélé l'existence de la nouvelle technologie dans
une série de tweets
. La nouvelle a rencontré une certaine résistance de la part de certains experts en sécurité et défenseurs de la confidentialité, mais aussi d'utilisateurs habitués à l'approche d'Apple en matière de sécurité et de confidentialité que la plupart des autres entreprises n'ont pas.
Apple essaie de calmer les craintes en préservant la confidentialité grâce à plusieurs couches de cryptage, conçues d'une manière qui nécessite plusieurs étapes avant de passer entre les mains de l'examen manuel final d'Apple.
NeuralHash va
atterrir dans iOS 15
et
macOS Monterey
, dont la sortie est prévue dans un mois ou deux, et fonctionne en convertissant les photos sur l'iPhone ou le Mac d'un utilisateur en une chaîne unique de lettres et de chiffres, connue sous le nom de hachage. Chaque fois que vous modifiez légèrement une image, cela change le hachage et peut empêcher la correspondance. Apple dit que NeuralHash essaie de s'assurer que des images identiques et visuellement similaires, telles que des images recadrées ou modifiées, donnent le même hachage.
En savoir plus sur TechCrunch
La nouvelle technologie Apple avertira les parents et les enfants des photos sexuellement explicites dans Messages
Apple dévoile les nouvelles fonctionnalités de confidentialité d'iOS 15 à la WWDC
Les dernières fonctionnalités d'accessibilité d'Apple sont destinées aux personnes ayant des différences entre les membres et la voix
Pourquoi Apple a raison de résister au FBI
Avant qu'une image ne soit téléchargée sur iCloud Photos, ces hachages sont comparés sur l'appareil à une base de données de hachages connus d'images d'abus d'enfants, fournie par des organisations de protection de l'enfance comme le National Center for Missing & Exploited Children (NCMEC) et d'autres. NeuralHash utilise une technique cryptographique appelée intersection d'ensembles privés pour détecter une correspondance de hachage sans révéler la nature de l'image ni alerter l'utilisateur.
Les résultats sont téléchargés sur Apple mais ne peuvent pas être lus seuls. Apple utilise un autre principe cryptographique appelé partage de secret de seuil qui lui permet uniquement de déchiffrer le contenu si un utilisateur franchit un seuil d'images d'abus d'enfants connus dans ses photos iCloud. Apple ne dirait pas quel était ce seuil, mais a dit - par exemple - que si un secret est divisé en mille morceaux et que le seuil est de dix images de contenu pédopornographique, le secret peut être reconstruit à partir de n'importe laquelle de ces dix images.
C'est à ce stade qu'Apple peut déchiffrer les images correspondantes, vérifier manuellement le contenu, désactiver le compte d'un utilisateur et signaler les images au NCMEC, qui est ensuite transmis aux forces de l'ordre. Apple affirme que ce processus est plus soucieux de la confidentialité que l'analyse de fichiers dans le cloud, car NeuralHash ne recherche que des images d'abus d'enfants connues et non nouvelles. Apple a déclaré qu'il y a une chance sur un milliard de faux positifs, mais qu'un processus d'appel est en place au cas où un compte serait signalé par erreur.
Apple a
détails techniques publiés
sur son
site Internet
sur le fonctionnement de NeuralHash, qui a été examiné par des experts en cryptographie et salué par les organisations de protection de l'enfance.
Mais malgré le large soutien des efforts de lutte contre les abus sexuels sur les enfants, il existe toujours un élément de surveillance que beaucoup se sentiraient mal à l'aise de confier à un algorithme, et
certains experts en sécurité appellent
pour plus de discussions publiques avant qu'Apple ne déploie la technologie auprès des utilisateurs.
Une grande question est pourquoi maintenant et pas plus tôt. Apple a déclaré que sa détection CSAM préservant la confidentialité n'existait pas jusqu'à présent. Mais des entreprises comme Apple ont également subi des pressions considérables de la part du gouvernement américain et de ses alliés.
affaiblir ou dérober le cryptage
utilisé pour protéger les données de leurs utilisateurs afin de permettre aux forces de l'ordre d'enquêter sur des crimes graves.
Les géants de la technologie ont refusé les tentatives de dissimulation de leurs systèmes, mais se sont heurtés à une résistance contre les efforts visant à bloquer davantage l'accès du gouvernement. Bien que les données stockées dans iCloud soient cryptées de manière à ce que même Apple ne puisse pas y accéder, a rapporté Reuters
l'année dernière
qu'Apple a abandonné un plan de cryptage des sauvegardes téléphoniques complètes des utilisateurs sur iCloud après que le FBI se soit plaint que cela nuirait aux enquêtes.
L'annonce du nouvel outil de détection CSAM d'Apple, sans débat public, a également fait craindre que la technologie ne soit utilisée de manière abusive pour inonder les victimes d'images d'enfants maltraités, ce qui pourrait entraîner le signalement et la fermeture de leur compte, mais Apple a minimisé les inquiétudes et a déclaré un examen manuel. examinerait les preuves d'une éventuelle mauvaise utilisation.
Apple a déclaré que NeuralHash serait déployé aux États-Unis dans un premier temps, mais ne dirait pas si, ni quand, il serait déployé à l'échelle internationale. Jusqu'à récemment, des entreprises comme Facebook étaient obligées de
éteindre
leurs outils de détection de la maltraitance des enfants à travers l'Union européenne après que la pratique a été interdite par inadvertance. Apple a déclaré que la fonctionnalité est techniquement facultative dans la mesure où vous n'êtes pas obligé d'utiliser iCloud Photos, mais ce sera une exigence si les utilisateurs le font. Après tout, votre appareil vous appartient, mais pas le cloud d'Apple.