lundi 27 novembre 2017

Exodus Privacy et le Vrac du lundi

Exodus Privacy.png

En vedette : Exodus Privacy

Vendredi, un nouveau projet est sorti du bois : Exodus Privacy, un projet libre mené par une association loi 1901 française pour voir quels mouchards sont dans les applications mobiles pour Android. Comme on s’en doutait, ils sont nombreux. Exodus génère des rapports sur chaque application et chaque mouchard. Déjà, la couverture presse est impressionnante, en France et à l’international :

Deux chercheurs du Privacy Lab de l’université de Yale (USA) expliquent en quoi il est problématique de voir toutes ces applications mobiles multiplier les mouchards via les AppStores :

Or ces magasins, comme Google Play, ont construit leur business autour, notamment, de la publicité ciblée. Cette priorité n’est pas compatible avec la vie privée et la sécurité. Exodus révèle des pratiques troublantes en matière de vie privée dont Google est pleinement conscient, quand il ne les encourage pas.

Les rapports d’Exodus ont permis de débusquer deux mouchards qui avaient réussi à se glisser dans l’application Qwant pour Android. Qwant a immédiatement réagi en corrigeant l’application.

Bravo à l’équipe d’Exodus, dont le travail est très utile. Vivement qu’ils puissent faire les mêmes analyses sur les applications iOS !

Pour trouver Exodus Privacy :

En vrac :

vendredi 17 novembre 2017

En vrac du vendredi

vendredi 27 janvier 2017

En vrac pour le week-end

Un peu de lecture pour le week-end :

mardi 11 octobre 2016

En vrac du mardi

lundi 23 mai 2016

En vrac du lundi

Rogny les Sept Ecluses

Rogny les Sept Ecluses

Un peu de lecture pour oublier la pluie !

Je dois dire ma réelle fierté d’avoir été rapporteur de la loi relative au renseignement, car il s’agit d’une grande loi de liberté.

  • Soon We Won’t Program Computers. We’ll Train Them Like Dogs (“bientôt, nous ne programmerons plus les ordinateurs, nous les dresserons comme des chiens”), un article intéressant sur le changement de paradigme autour du logiciel. Au lieu de programmer des ordinateurs en leur donnant des instructions suivies très précisément, nous faisons des logiciels quasiment génériques qui, soumis à des jeux de données massifs, “apprennent” à reconnaitre des tendances, des associations. On pense bien sûr à la reconnaissance de formes, mais c’est déjà quelque chose qu’on utilise depuis longtemps (par exemple avec les algorithmes baysiens qui filtrent les spams des emails). Ça pose un problème éthique majeur dans la mesure où ce qui influence les résultats de l’algorithme, c’est plus le jeu de données qui est fourni lors de l’apprentissage que l’algorithme lui-même. Cela va dans certains cas générer un biais illégal (raciste ou sexiste ou religieux, par exemple) qui n’est pas du à l’algorithme. Exemple sorti de mon imagination (donc pas forcément vrai) : une compagnie d’assurance pourrait faire de meilleurs tarifs aux femmes qu’aux hommes parce qu’elles ont un taux d’accident moindre. C’est sexiste, et rien de cela n’est du à l’algorithme, seulement au jeu de données. Voir aussi en français : Demain, la fin du code ? ;

- page 1 de 13