Technologie
Cybersécurité: le système CSAM d’Apple est "invasif", selon une étude
16/10/2021 - 09:00
SNRTnewsLes experts ont déclaré qu'ils avaient commencé leur étude avant qu'Apple n'annonce ses plans CSAM en août, après que l'UE a publié l'année dernière des documents indiquant que le gouvernement souhaitait mettre en œuvre un programme similaire qui non seulement analysait le CSAM, mais aussi le crime organisé et le terrorisme sur des appareils cryptés. Les chercheurs ont également déclaré qu'ils pensaient qu'une proposition visant à autoriser cette technologie dans l'UE pourrait être présentée dès cette année.
La façon dont la technologie fonctionne est qu'elle numérise les photos sur les appareils iphone avant qu'elles ne soient envoyées et cryptées sur le cloud. Ces photos sont ensuite comparées à une base de données d'images CSAM connues.
Bien qu'Apple ait essayé à plusieurs reprises de clarifier le fonctionnement de la fonctionnalité et a publié de nombreuses FAQ, les experts en sécurité et en confidentialité ont insisté sur le fait qu'Apple avait construit une "porte dérobée" dont les gouvernements et les forces de l'ordre pourraient abuser pour surveiller les citoyens, même ceux respectueux des lois.
"L'expansion des pouvoirs de surveillance de l'État dépasse vraiment la ligne rouge", a déclaré Ross Anderson, professeur d'ingénierie de la sécurité à l'Université de Cambridge et membre du groupe.
"Cela permet de scanner un appareil privé personnel sans aucune cause probable pour quoi que ce soit d'illégitime", a ajouté un autre membre du groupe, Susan Landau, professeur de cybersécurité et de politique à l'Université Tufts. "C'est extraordinairement dangereux. C'est dangereux pour les affaires, la sécurité nationale, la sécurité publique et la vie privée", a-t-elle souligné.
Mis à part les problèmes de surveillance, ont déclaré les chercheurs, leurs résultats ont indiqué que la technologie n'était pas efficace pour identifier les images d'abus sexuels sur des enfants. Quelques jours après l'annonce d'Apple, les gens avaient indiqué des moyens d'éviter la détection des images en les modifiant légèrement, ont-ils noté.
Apple a essayé d'apaiser ces craintes en promettant qu'il ne laisserait pas les gouvernements utiliser ses outils de cette façon. Ces promesses n'ont pas apaisé les experts à l'époque, et certains chercheurs ont affirmé qu'ils étaient capables de désosser l'algorithme et de le tromper pour qu'il enregistre des faux positifs.
Au milieu du contrecoup, Apple a interrompu son programme début septembre. Cependant, appuyer sur pause n'est pas la même chose que débrancher la prise. Au lieu de cela, Apple a déclaré qu'il faudrait un peu plus de temps pour affiner la fonctionnalité, mais n'a pas fourni de détails sur ce à quoi ressemblerait ce processus de révision ou quel serait son nouveau calendrier de publication.
Articles en relations
Technologie
Monde
Technologie