des outils pour la protection des enfants pointées par des ONG

[ad_1]

Le 6 août 2021, Apple a dévoilé deux nouvelles fonctionnalités pour protéger les enfants des contenus pornographiques et pour repérer les contenus pédopornographiques. L’annonce a suscité de vives réactions chez certains groupes de militants pour la protection de la vie privée. Ces derniers craignent une extension des usages de ces nouveaux outils.

Face à cette polémique, Apple a publié une FAQ pour apaiser les craintes. « Soyons clairs, cette technologie est limitée à la détection d’abus sexuel sur enfant stocké dans iCloud et nous n’accéderons à aucune demande d’un gouvernement pour l’étendre », soutient Apple dans sa FAQ (pdf).

Mais pour les groupes militants c’est une porte dérobée qui pourrait servir à d’autres utilisations. Les groupes de protection de la vie privée s’inquiètent d’une extension de l’utilisation de ces fonctionnalités, notamment par des gouvernements autoritaires pour trouver des dissidents politiques ou par des gouvernements anti-LGBT afin de réprimer l’expression sexuelle.

Apple s’est déjà plié à des demandes de gouvernements

« Même une porte dérobée bien établie, soigneusement réfléchie et de portée limitée reste une porte dérobée […] Nous avons déjà vu cette dérive en action. L’une des technologies conçues à l’origine pour scanner et scruter les images d’abus sexuels sur des enfants a été réaffectée à la création d’une base de données de contenus “terroristes” à laquelle les entreprises peuvent contribuer et accéder dans le but d’interdire ces contenus », relève l’ONG de protection des libertés sur Internet Electronic Frontier Foundation rapporté par The Verge.

Apple affirme que des mesures de protection ont été mises en place pour empêcher le système d’accéder à des images autres que pornographiques. La marque à la pomme explique que les images interdites ont été fournies par le centre national pour les enfants disparus et exploités (NCMEC) et d’autres organismes de protection de l’enfance. Elle assure qu’aucunes autres images ne seront ajoutées et qu’elles resteront les mêmes pour tous les iPhone et iPad pour éviter un ciblage personnalisé des utilisateurs, par exemple en fonction de leur position géographique.

« Nous avons déjà été confrontés à des demandes de changements par les gouvernements et portant atteinte à la vie privée des utilisateurs, et nous avons fermement refusé ces demandes. Nous continuerons à les refuser à l’avenir », indique la firme de Cupertino. Pourtant, sur d’autres sujets Apple s’est déjà pliée aux demandes de gouvernements. Ainsi, FaceTime n’est pas accessible dans les pays qui n’autorisent pas les appels chiffrés.

Des fonctionnalités basées sur le machine learning

En Chine, les données d’Apple sont stockées par une entreprise de télécommunication publique et l’entreprise américaine a supprimé des milliers d’applications de l’App Store. Par ailleurs, la FAQ ne répond pas à une question des militants : comment l’entreprise procède pour que son outil détecte dans les messages seulement les images sexuellement explicites ?

« Tout ce qu’il faudrait pour élargir la fine porte dérobée qu’Apple est en train de construire, c’est une expansion des paramètres de machine learning pour rechercher d’autres types de contenu, ou une modification des paramètres de configuration pour analyser, non seulement les comptes des enfants, mais aussi ceux de n’importe qui », nuance l’Electronic Frontier Foundation. L’ONG pointe également que les technologies de machine learning ne sont pas infaillibles. Un exemple est l’algorithme de détection de Tumblr qui supprimait également des photos de nourriture ou d’animaux.

La première fonctionnalité, intitulée « sécurité des communications » utilise le machine learning pour identifier et brouiller les images à caractère sexuel reçues par un enfant dans l’application « Messages ». Si un enfant de moins de 12 ans reçoit ou envoie ce type d’images, les parents sont automatiquement avertis. La seconde, se penche sur les contenus à caractère pédopornographique. Cette fonctionnalité détecte les téléchargements de contenus à caractère pédopornographique dans iCloud. Dès qu’un élément de ce type est identifié, Apple alerte les autorités compétentes.

[ad_2]

Source link