Mot-clé - privacy

Fil des billets

mercredi 22 juin 2016

En vrac du mercredi

Fleur.jpg

vendredi 3 juin 2016

En vrac du vendredi

Parc André Citroën

Parc André Citroën

  • Inquiétante vague de départs de chez OwnCloud… En quelques jours, 4 personnes ont annoncé leur départ : l’évangéliste, et trois développeurs importants. Cela suit le départ de Frank Karlitschek, le fondateur du projet, fin avril. Tous annoncent vouloir rester “dans la communauté OwnCloud”. Est-ce une figure de style façon Mozilla, ou est-ce l’annonce d’un fork potentiel ? La phrase du fondateur, “I am the ownCloud project lead until the community says otherwise” annonce plutôt un conflit autour de la communauté, ce qui évoque un fork (clonage du projet suite à des divergences au sein de la communauté). Mise à jour: il s’agit bien d’un Fork appelé NextCloud. Explications de son fondateur. De son coté, ownCloud annonce la fermeture de la branche US de la société et affirme vouloir préempter la communauté. Bref, le futur s’annonce mouvementé et très incertain pour les projets siamois ownCloud et NextCloud… À suivre !
  • Pour une république algorithmique : nationalisons le code !. Un papier intéressant d’Olivier Ertzscheid sur le deep learning. C’est important car cela permet de comprendre les problèmes posés par ces algorithmes apprenants dont les décisions sont liées aux données fournies lors de l’apprentissage. Cela fait que :
    • les résultats peuvent créer des discriminations illégales (racisme, sexisme etc.)
    • on est incapable d’expliquer la méthode qui a amené l’algorithme à prendre une décision. (Attention à ne pas reproduire des situations évoquant Le procès de Kafka).
  • Why you should bet big on privacy (“Pourquoi vous devriez parier gros sur la vie privée”).  ;
  • Enquête sur l’algo le plus flippant de Facebook ;

lundi 23 mai 2016

En vrac du lundi

Rogny les Sept Ecluses

Rogny les Sept Ecluses

Un peu de lecture pour oublier la pluie !

Je dois dire ma réelle fierté d’avoir été rapporteur de la loi relative au renseignement, car il s’agit d’une grande loi de liberté.

  • Soon We Won’t Program Computers. We’ll Train Them Like Dogs (“bientôt, nous ne programmerons plus les ordinateurs, nous les dresserons comme des chiens”), un article intéressant sur le changement de paradigme autour du logiciel. Au lieu de programmer des ordinateurs en leur donnant des instructions suivies très précisément, nous faisons des logiciels quasiment génériques qui, soumis à des jeux de données massifs, “apprennent” à reconnaitre des tendances, des associations. On pense bien sûr à la reconnaissance de formes, mais c’est déjà quelque chose qu’on utilise depuis longtemps (par exemple avec les algorithmes baysiens qui filtrent les spams des emails). Ça pose un problème éthique majeur dans la mesure où ce qui influence les résultats de l’algorithme, c’est plus le jeu de données qui est fourni lors de l’apprentissage que l’algorithme lui-même. Cela va dans certains cas générer un biais illégal (raciste ou sexiste ou religieux, par exemple) qui n’est pas du à l’algorithme. Exemple sorti de mon imagination (donc pas forcément vrai) : une compagnie d’assurance pourrait faire de meilleurs tarifs aux femmes qu’aux hommes parce qu’elles ont un taux d’accident moindre. C’est sexiste, et rien de cela n’est du à l’algorithme, seulement au jeu de données. Voir aussi en français : Demain, la fin du code ? ;

- page 4 de 24 -