Apple et sécurité

La meilleure sécurité c’est le combo machine à écrire + la cheminée

les deux sont a baffer, ok Apple donne pas la méthode mais après avoir refusé et cassé les burnes du FBI, venir réclamer comment ils ont fait et penser que les autres la bouche en coeur allaient leur donner …

Ils ont rien “réclamé” stop relayer les infos de merde aussi…

C’est comme tous les guignols qui s’affolaient sur l’injustice de Nintendo d’avoir viré une meuf hier… “because harcèlement et gnagnanga”. Y’en a pas un qui creusé pour piger qu’à la base qu’elle était viré pour avoir fait des tofs à moitié à poil avec des produits NINTENDO, et qu’elle faisait du NSFW régulièrement en taf secondaire. Quelle bonne idée…

Bref. Si Apple demande un truc (c’est déjà pas réclamer), c’est aussi pour bien montrer que le FBI se fout de la gueule du monde depuis le début.

2 « J'aime »

Surtout que normalement les « white hat » sont sensés communiquer les failles qu’ils trouvent pour améliorer la sécurité par la suite.
Si tu communiques pas les failles, ça indique donc de quel côté tu te trouves :stuck_out_tongue:
Enfin c’est vrai qu’il ne faut pas être naif. Si d’aventure un jour ils communiquent comment c’est passé, ça voudra dire qu’ils ont trouvé un autre moyen.

1 « J'aime »

D’après certaines news de l’époque, c’est exactement ce qu’envisageait les allemands après le scandale d’espionnage par la NSA sur ses alliés (da bum tss.mp3). :smile: Scandale qui n’aura eu aucune suite et aura fait bien moins de bruit qu’un smartphone.

Petit déterrage à la suite des annonces d’Apple qui veut scanner les téléphones à la recherche de contenu pédoporn.
Sans que j’y comprenne grand chose, je suis tombé sur une analyse du papier technique qu’ils ont publié - et c’est pas un communique de presse.
L’auteur garde quelques réserves (quid des pays totalitaires ou du contrôle externe), mais techniquement Apple ne va pas venir mater toutes vos photos de vacances par-dessus votre épaule.

3 « J'aime »

Très bon thread en effet, merci @JeeP
Je me permets de partager ce lien qui rend le truc plus simple à lire:

J’ai repensé à la pseudo analyse du mec de Hacker Factor que je commentais dans un autre thread. Il écrivait:

Apple’s technical whitepaper is overly technical – and yet doesn’t give enough information for someone to confirm the implementation […] if it looks really technical, then it must be really good. Similarly, one of Apple’s reviewers wrote an entire paper full of mathematical symbols and complex variables.

J’en avais conclu qu’il faisait pas mal d’erreur, ce thread le confirme :rofl:

Si je devais réagir au thread ça serait sur sa conclusion où il mentionne 2 failles possibles:

Sur le principe c’est vrai mais au-dessus il écrit que le protocole masque les hashs dans une table (remplie de faux hashs masqués aussi) et ce n’est que les index qui intéressent Apple.
Ca me parait difficile du coup de générer des images qui match un hash étant donné que les hashs ne sont pas connus.

2eme point:

La 1ere partie est fausse étant donné que les images sont fournies par le National Center for Missing and Exploited Children (NCMEC).

Par contre la 2eme partie est vraie mais je vois plus une faille du côté du NCMEC que d’Apple. Est-ce que cette organisation est à l’abri d’une modification de la base à son insu?
Je suppose que le check manuel du côté d’Apple avant tout « dénonciation » au NCMEC (et pas aux autorités directement) devrait rendre cette faille inefficace.

3 « J'aime »

Apple utilise Slack :

Si Schneier dit que c’est pas un bonne idée, j’aurais tendance à le croire. Faudra voir comment Apple va répondre quand on verra débarquer les images innofensives qui déclencheront les alertes.

https://www.schneier.com/blog/archives/2021/08/apples-neuralhash-algorithm-has-been-reverse-engineered.html

1 « J'aime »

Edward Snowden est bien remonté contre Apple :

Je c/c rapidement ces 2 articles là que je n’ai pas lu (encore) à défaut de link tous les tweets qu’il a fait sur le sujet (que j’ai lu là pour le coup mais trop chiant à c/c, sorry).

Deja prévu. En gros, le système upload le hash et un « visual derivative », c’est en gros une copie de l’image transformée (j’ai lu « blurred thumbnail » quelque part). Si jamais cette image produit le même hash, le serveur regarde si le « visual derivative » de ton image est identique au « visual derivative » du CSAM.
Donc aucune image qu’on voit passer en ce moment ne va trigger ce second contrôle

Autre point qui semble oublié, la fameuse table de hashs que les gens pensent avoir trouvé dans la dernière version d’iOS n’est pas la bonne. Elle est elle-même cryptée et remplie de faux.

Dans le texte que tu cites ils appellent ça un « second independant perceptual hash ». Donc un hash grossièrement basé sur le visuel de l’image si j’ai bien compris. Ça pourrait être une image en petit et flouté, mais bon, au final ça reste un deuxième hash, c’est juste qu’il ne pourra pas y avoid de collisions si les images ne sont pas très similaires.
Du coup il me semble que c’est un système mis en place surtout pour gérer les cas où deux image très différentes se retrouvent avec le même neuralhash (ce qui est d’autant plus possible vu que le match de 2 neuralhashs est basé sur un seuil limite et pas un match parfait) - mais ce n’est pas adapté pour se défendre contre des attaques malveillantes où les images sont générées dans le but de créer des collisions.

Tu peux déjà voir dans le lien sur les collisions cité par l’article que j’ai partagé (Working Collision? · Issue #1 · AsuharietYgvar/AppleNeuralHash2ONNX · GitHub) que des gens arrivent à créer des collisions avec des images qui ressemblent « en gros » à d’autres images - du coup il y a fort à parier que d’ici pas longtemps, on pourra creer des images dont les deux neuralhashs ainsi que les « visual derivatives » sont des match, mais où l’image ne ressemblera que vaguement à l’image ciblée (juste assez pour passer le deuxième hash). Du coup on peut s’attendre à des reviewers humains chez Apple débordés par une grande quantité de faux-positifs générés juste pour faire chier. Quand en face tu as des petits malins, je ne pense pas que si un seul hash ne marche pas, la solution soit de mettre 2 hashs…

Un autre point intéressant qu’on peut voir dans le lien donné ci-dessus est que si tu rajoutes une bordure de 1000 pixels random autour de ton image originale (sans rien changer d’autre), son neuralhash change complètement. Du coup, si quelqu’un veut pouvoir stocker des photos CSAM sur ses device Apple sous forme regardable facilement sans se faire chopper, il sait comment faire…

Donc au final je vais continuer de me fier à la conclusion de Schneier: « This was a bad idea from the start, and Apple never seemed to consider the adversarial context of the system as a whole ».

Je ne parierais pas dessus car cette fois les hashs sont côté serveur, que personne ne les connaît, que l’iphone ne sait pas ce qui match et qu’en plus il upload régulièrement des dummys pour ne pas qu’on puisse tester quelles images trigger le seuil.

C’est un tout autre problème et c’est en effet assez décevant, tout comme le fait de pouvoir à priori cropper l’image.

1 « J'aime »

Je suis pas sur de comprendre pourquoi tu crois que c’est pas trivial de se procurer/generer une tetra chiée de hash de la DB CSAM pour produire autant de conflit que l’on veut… les hash… tout le monde avec 20 minutes de darkweb en connait une grosse partie. Ce qu’on sait pas par contre en effet c’est si il y a plein d’images dans la DB qui ne sont PAS du child porn mais par exemple des memes politiques ou des images avec des marqueurs pour en suivre la propagation, si la Chine ou les US demandent gentiment par l’intermédiaire des forces de « l’ordre ». Comme ils ont déjà demandé, et obtenu, de ne pas encrypter les backups avec une clef générée cote client.

D’autant qu’avec des générateurs de collision qui sont dispos en 20 minutes, peuvent être fait sur des images quasiment arbitraire, meme avec des miniatures floutées et une autre passe avec un algo « independent », ca va etre lolilol de produire des trucs identiques. Et si t’es vraiment decide a envoyer quelqu’un en prison pour child porn, y a meme moyen de faire encore plus beton et avec des moyens très abordable (quelques milliers d’Euros) a base de studio photo et des demoiselles majeures qui coopèrent, il est plus que très probable de pouvoir garantir un flag de dizaines de photos et un juge techno ignare qui fout des gens au trou, meme avec un review humain.

C’est pas comme si il y avait pas un historique, y a qu’a regarder le fameux « SEND DUNES! » en Angleterre a base de conneries de techno justiciers qui marchent a moitie. Toute cette histoire pour obtenir un truc dangereux, inutile, qui va se faire trouer dans tous les sens par principe et au final n’avoir que le cote invasif qui reste, c’était bien la peine. C’est comme NVIDIA avec ses cartes « unhackable »… par principe, ca se fait trouer direct…

Et finalement écrire une application qui chaque fois que t’ouvre une photo que tu veux être sur ne matchera jamais quoi que soit dans la DB la resauve immédiatement en rajoutant du bruit (connement une marge de 4% tout autour faite de bruit arbitraire, mais on peut faire plus malin avec la photo elle meme), te garantissant ainsi de pouvoir matter et sauvegarder ce que tu veux avec 100% la garantie de ne pas te faire prendre par cet algo en bois, ca me prendrait… allez 3 heures mais c’est parce que il me faudrait apprendre de l’objective-C. Et si t’as un site qui hoste du contenu illicite, ca peut meme se faire cote serveur a la volée, chaque download d’image étant garantie complètement unique et avec un hash qui matche rien du tout grace a un peu d’entropie bien placée de maniere encore une fois plus que triviale.Et c’est pas comme si ils pouvaient planquer l’algo si ils veulent le faire tourner cote client pour éviter d’uploader toutes les images du monde chez eux.

Bref… de la merde. Ce truc ne vas choper que les idiots peu actifs ou les innocents, et ouvrir la porte a plein d’abus pour tout le monde sauf les vrais criminels.

3 « J'aime »

Je trouve que tu juges le truc à l’emporte pièce surtout à la lecture de l’article juste au-dessus de ton post.

Anyway, faut revenir au débat de base : ne rien faire ne va pas être possible bcp plus longtemps et les solutions qui seront imposées par nos « têtes pensantes » seront au niveau du reste = nulles à chier.

Au moins ils tentent un truc, à mon avis pour tenter de (re) proposer les backups chiffrés sans se faire emmerder avec des prétextes en carton comme l’autre fois… C’est pas le cas de bcp de monde…

Parceque je ne parle pas des NeuralHash là. Je suis d’accord que n’importe qui peut se les procurer en les calculant directement depuis du contenu CSAM.
Par contre, le hash côté serveur sur le visual derivative personne ne le connaît.

Sauf que ton contenu n’est pas dans la base CSAM et là encore ne trigger normalement pas le visual derivative et ne déclenche pas une review humaine.

Mais c’est quoi l’alternative? Parceque ne rien faire comme Amazon sur son contenu S3 ou Glacier ne va probablement pas pouvoir être tenable très longtemps encore.

2 « J'aime »

J’espère sincerement que tu as raison sur les intentions d’Apple ! L’avenir le dira.

Bien sur que si il y est, voir premier point. Faire un conflit sur une image qui non seulement apparaît identique grace a un conflit de hash, mais aussi suffisamment identique visuellement, j’ai pas besoin d’autre chose pour avoir une grosse liste de hash presents dans la base CSAM et vérifiés qui peut nuire. Bref, c’est détournable et encore une fois trivialement contournable pour ceux qui ont vraiment un truc a cacher.

J’ai lu l’article, y a rien qui tient. J’aime bien que c’est moi qui soit disant fait des jugement a l’emporte piece alors que la tech tient pas la route malgré les pirouettes du doc. Et le doc qui n’adresse pas le truc fondamental: on a aucune preuve et aucun moyen de verifier qu’ils ne cherchent que de la pédopornographie. Mais le pire, c’est le postulat foireux de chez le marchand de postulat foireux, qu’on essaye de fourguer discretos, comme un lettre a la poste: « ouai mais ne rien faire ca va pas être possible! Au moins eux ils essayent un truc. ».

Alors oui mais non.

Genre sans ce truc qui est prouvable inutile, trivial a contourner et dangereux pour tout le monde qui est pas un pédo avec deux sous du jugeote, on arrivera plus jamais a stopper les pédophiles. On a fait mieux comme argument quand 1/ ne pas utiliser ce truc dangereux ce nest en aucun cas « ne rien faire » 2/ on arrive déjà a faire.

Je releve le commentaire minable sur S3 et glacier juste pour dire que S3 implémente la crypto avec des clef clients. Ils peuvent donc pas regarder meme si ils voulaient. Pourquoi? Parce que c’est une demande réglementaire des industries protegees comme les données médicales ou financière, réglementation imposée par… le législateur :slight_smile: ha ben merde alors… faudrait savoir! Ca parait donc tenable très longtemps. Surtout que imagine: les dossier médicaux de millions d’enfants en clair pour tout le reste de leur vie sur internet dans des pays a l’assurance médicale privée et a but lucratif on y pense? On peut jouer au meme jeu de l’autre cote… (ou plus concrètement et efficacement: les transactions bancaires des sénateurs en question…).

Et le link d’une lettre signee par Hawley, Cornyn et Graham, merci. Je prend. Car faut vraiment avoir aucun contexte et pas savoir qui c’est (chanceux). Avec un minimum de context politique US des derniers mois on peut avoir connaissance des guignols en questions et de leur désir inassouvible de servir la soupe aux attaques répétées de Trump contre tout ce qui critique Trump en ligne. Et son but avoué de détruire/affaiblir la Section 230 a base d’excuses du genre « OUAI MAIS LES PEDOS » ca fait justement a 300% mon argument sur le danger terrifiant de la chose et de son exploitation par des regimes politiques peu scrupuleux. Promis, Trump il en avait rien a cogner de la pédopornographie, il va chez les amis pour ca et il fait ses propres photos qui sont pas dans la basse CSAM. Par contre les gens qui le critiquent, ca l’énerve rapidement. Comme Winny et Xi Jinping. Mais comme depuis la nuit des temps l’argument qui arrête tous les arguments pour faire avaler n’importe quoi quand il s’agit de truc invasif c’est « MAIS C’EST LA SEULE SOLUTION POUR SAUVER LES NENFANTS! FAITES QQCH! ». Bah non, non seulement on peut et on doit faire beaucoup contre les pedos mais on peut le faire sans des outils ultra invasifs avec un potentiel d’abus astronomique. A d’autres donc.

7 « J'aime »

Leurs intentions n’ont aucune importance. « On refusera de rajouter des trucs qui soit pas du pr0n de gamins » dit la FAQ. Mais ils disent aussi : « we comply with every laws and regulations of the countries in which we operate ». Ha bah et quand les bonnes intentions et les lois des pays répressifs, ou des démocraties qui partent en couilles, sont en conflit ils font quoi? Ils suivent les lois. Les bonnes intentions servent a rien.

6 « J'aime »