Flicage-brouillon

Fil des billets

mercredi 4 mars 2015

Flicage-brouillon - Partie 3 chapitre 22 - Le logiciel libre

Le logiciel libre est une condition nécessaire (mais pas suffisante) pour avoir le contrôle et la maîtrise de l’informatique que nous utilisons. En effet, il est possible d’accéder au code du logiciel libre pour l’analyser, l’auditer, comprendre son fonctionnement et finalement se l’approprier en le modifiant si nécessaire. Cette transparence du logiciel libre est garante de la confiance que l’on pourra lui accorder.

À l’inverse, le logiciel propriétaire est une boite noire : on ne sait pas exactement ce qui est fait par ce logiciel. L’utilisateur en est réduit à croire sur parole le fournisseur du logiciel, lequel, pour différentes raisons, peut avoir introduit dans le produit fourni des portes dérobées, soit pour des raisons mercantiles, soit sous la pression de services de renseignements, soi à son insu.

Si le logiciel libre est infiniment supérieur au logiciel propriétaire pour ce qui est de la transparence, il a d’autre défis à relever, en particulier autour de l’ergonomie et du modèle commercial.

l’expérience utilisateur

Bien trop souvent, les logiciels libres souffrent d’un déficit d’ergonomie. Dans le jargon informatique, on parle d’« expérience utilisateur » (UX, User Experience) imparfaite. Ca n’est pas simplement un problème d’esthétique, mais plutôt de simplicité et d’intuition quand il s’agit d’accomplir une tâche avec le logiciel en question. Ce sont des questions qui touchent à la facilité d’usage, à l’évidence de l’interface, au fait que l’utilisateur n’a pas à réfléchir (ou le moins possible) pour se servir de l’outil.

C’est un sujet difficile à aborder pour la plupart des projets de logiciels libres, et ce pour plusieurs raisons.

D’une part, les développeurs de logiciels ont tendance à avoir internalisé le fonctionnement du logiciel sur lequel ils travaillent. Du coup, pour eux, il est évident qu’il faut passer par l’étape 1 avec de faire l’étape 2 puis la 3. C’est normal, ils ont eux-même conçu le logiciel. Ils connaissent son fonctionnement de l’intérieur.

Par contre, l’utilisateur final n’a pas cette connaissance intime du produit et de son architecture. Il a donc besoin d’être guidé autant que possible, besoin qu’on ne lui offre pas trop d’options inutiles à cette étape du processus.

Par ailleurs, les développeurs ont souvent un parti-pris pour des approches qui sont très efficaces mais qui peuvent rebuter l’utilisateur final. Je prends un exemple : la ligne de commande, ce mode d’interaction avec l’ordinateur qui consiste à taper des commandes dans un « terminal » au lieu de cliquer sur des boutons avec une souris. La ligne de commande peut-être formidable de puissance par sa concision. Elle peut aussi être reproduite facilement et programmée dans des « scripts ». Pour toutes ces raisons, elle est souvent très appréciée des développeurs. Mais voilà, elle rebute l’immense majorité des utilisateurs. C’est une parfaite illustration de ce fossé qu’il faut combler entre développeurs et utilisateurs, faute de quoi l’investissement réalisé par le projet libre pour créer une bonne technologie ne deviendra pas un bon produit capable de concurrencer des logiciels propriétaires.

Pour cela, il faut avoir que l’expérience utilisateur soit une préoccupation permanente au sein du projet de logiciel libre, et ce dès le début de ce projet.

Imaginer de voir travailler des développeurs et des UX designers ensemble pour faire du logiciel libre n’est pas quelques chose d’impossible. L’expérience utilisateur a été un grand facteur de différenciation pour le navigateur Web Firefox, ce qui lui a permis de concurrencer Internet Explorer. La distribution GNU/Linux Ubuntu a fait de l’ergonomie son cheval de bataille et a permis son adoption par des personnes qui n’auraient pas pu, auparavant, utiliser Linux.

Des applications Web libres comme l’outil de blog Dotclear et plus récemment, Known ont brillamment démontré que libre et ergonomie n’étaient pas antinomiques. Dans les deux cas, cela a été rendu possible par la collaboration de UX designers et de développeurs.

L’épineux problème du business model

L’utilisation de logiciels libres implique une (petite) contrainte pour l’utilisateur : comprendre comment le logiciel en question est financé. Puisqu’a priori ça n’est pas via la collecte de données personnelles, comment le projet peut-il vivre ? Certains projets, comme Dotclear, cité plus haut, sont 100% non-lucratif et reposent sur le travail de bénévoles. Cela peut permettre à un tel projet de survivre, pour peu que l’équipe soit motivée. Malgré quelques aléas, Dotclear va bientôt fêter ses 12 ans.

A l’inverse, le projet Wikipédia, qui est un projet libre (d’encyclopédie plutôt que logiciel), a besoin de revenus pour payer l’infrastructure (serveurs, location de data-center, connexion à Internet) et ses permanents. Pour cela, Wikipédia fait régulièrement des appels aux dons. Cela en fait une encyclopédie gratuite… pour laquelle il faut faire des dons.

De nombreux projets de logiciels libres reposent sur les dons, et il appartient aux utilisateurs de ces logiciels de donner régulièrement pour que les projets soient pérennes. Pour ma part, je donne quelques dizaines d’euros par mois à ces projets. C’est toujours moins que mon abonnement Internet, et tout aussi important. Je vous encourage à donner en fonction de vos moyens, mais si tout le monde donnait 3 EUR par mois, nos logiciels seraient bien meilleurs !

mardi 3 mars 2015

Flicage-brouillon - Partie 3 chapitre 21 - 7 principes pour reprendre le contrôle

Pour reprendre la main sur l’informatique, il faut inventer des systèmes informatiques contrôlables par l’utilisateur et seulement par lui. Appelons ces systèmes des SIRCUS (Systèmes Informatiques Redonnant le Contrôle aux UtilisateurS[1].

Pour qu’un SIRCUS puisse exister, il faut reprendre la main autant que possible sur chacun des composants : le matériel, le logiciel et les réseaux qui relie les différents composants.

J’établis là quelques grands principes qui faut explorer pour parvenir à une solution idéale. Notons qu’il n’est pas nécessaire d’avoir une solution parfaite pour commencer à avancer dans cette direction.

Trois principes de base : le fondement technologique

1 - Du logiciel libre

Commençons par l’essentiel : le logiciel. Pour que l’utilisateur sache ce qu’il fait (transparence), pour pouvoir le modifier si nécessaire, pour que nous en ayons le contrôle, le logiciel doit impérativement être un logiciel libre.

2 - Le contrôle du serveur

Ensuite, il faut contrôler le matériel sur lequel tourne le logiciel. Pour le PC et le téléphone, cela semble aller de soi. Mais si on veut disposer des fonctionnalités de type Cloud, avec des données accessibles en permanence depuis plusieurs appareils, il faut un serveur, une machine constamment connectée à Internet. La solution consiste idéalement à héberger soi-même son propre serveur. C’est ce qu’on appelle l’auto-hébergement.

3 - Du chiffrement, encore du chiffrement !

Enfin, puisque des données vont transiter entre notre serveur et nos appareils (PC, smartphone, tablette), il faut qu’elles soient protégées des oreilles indiscrètes. Pour cela, il faut utiliser du chiffrement (parfois appelée « cryptographie »), qui permet de rendre les données incompréhensibles pour les personnes non autorisées, soit quand elles sont stockées, soit quand elles transitent sur le réseau.

4 - Éliminer le problème de fond : le profilage nécessaire à la publicité ciblée

La publicité ciblée est la source du profilage de tous les internautes. Comme le dit Bruce Schneier, chercheur en sécurité, « La surveillance est le modèle commercial de l’Internet. Nous construisons des systèmes qui espionnent les gens en échanges de services. C’est ce que les entreprises appellent du marketing ». Il faut trouver un modèle économique pour l’Internet qui ne repose pas sur le profilage des utilisateurs qui échappe à leur contrôle.

Aller plus loin que les solutions existantes

Pour être adoptés, les futurs outils respectueux de la vie privée devront satisfaire à 3 conditions (respectivement les 5e, 6e et 7e principes) :

  • 5 - Proposer une ergonomie parfaite, qui intègre les contraintes de la cryptographie
  • 6 - Être compatible avec les systèmes existants et à venir
  • 7 - Apporter un plus produit concret et visible immédiatement qui les différenciera des offres actuelles.

Je vous propose d’explorer, dans les chapitres qui suivent, ces grands principes que nous tous, que nous soyons citoyens, développeurs, start-ups ou politiques, devrons explorer pour construire une informatique où l’utilisateur a le contrôle de ses données et où la technologie est au service de l’humain.

Note

[1] On me pardonnera le côté capillotracté de l’acronyme, que j’ai voulu facile à retenir.

samedi 28 février 2015

Flicage-brouillon - Partie 2 chapitre 20 - Les services de renseignements

Les services de renseignements existent depuis longtemps, et l’on peut comprendre l’importance de leur mission qui participe à la sécurité nationale. Le code de la Défense précise qu’ils doivent « identifier l’ensemble des menaces et des risques susceptibles d’affecter la vie de la Nation, notamment en ce qui concerne la protection de la population, l’intégrité du territoire et la permanence des institutions de la République ».

Cette mission est respectable et nécessaire dans le cadre démocratique, dans la mesure où elle est légale et ciblée.

La surveillance de masse, comme expliqué au chapitre 8 ( « la vie privée dans la loi ») du présent ouvrage, est illégale et contraire à l’éthique.

Pourtant, la tentation de la surveillance de masse est grande, comme le fantasme de surveiller tout le monde, tout le temps, pour arriver au risque zéro et prévenir les problèmes avant qu’ils n’arrivent.

Mais le risque zéro, c’est surtout zéro liberté. C’est un état policier.

La surveillance de masse est-elle efficace ?

Il semblerait que surveiller toute la population ne soit pas la solution au problème du terrorisme, prétexte évoqué pour justifier la surveillance de masse. Ainsi, en décembre 2013, un membre de la Maison Blanche avouait que les milliards de dollars investis par la NSA dans l’écoute des américains n’avait pas empêché le moindre acte terroriste.

Plus récemment, en France, lors des attentats islamistes de janvier 2015, il est apparu que deux des trois djihadistes avaient été surveillés par la police pendant plusieurs années. D’aucuns, pour excuser l’inefficacité des services pour empêcher ces attentats, expliquent qu’il y a trop de monde à surveiller, que c’est comme chercher une aiguille dans une botte de foin. Mais avec la surveillance généralisée, on espère que multiplier la quantité de foin va faciliter la recherche de l’aiguille ?

La centralisation des données favorise la surveillance de masse

Pour un état, il est impossible car trop coûteux de surveiller chaque individu : il faudrait mettre des micros, des caméras, des capteurs partout, puis centraliser les données pour enfin les analyser.

Pourtant, cette tache titanesque est rendue possible par la coopération active de presque tout le monde : en nous équipant nous-mêmes de capteurs (smartphones et autres), en mettant les données générées dans quelques grands silos qui sont économiquement rentables (Google, Facebook, FitBit, opérateurs télécom et autres), nous rendons économiquement possible la surveillance de masse en abaissant son coût. Au lieu d’organiser la collecte de données, ce qui serait trop coûteux, les services de renseignement peuvent se contenter de parasiter un système auquel nous participons et que nous finançons sans mesurer les conséquences.

La situation en France

Depuis les révélations Snowden, on en sait infiniment plus sur la surveillance de masse dans les pays anglo-saxons, USA (avec la NSA) et le Royaume-Uni (avec le GCHQ) et leurs alliés (Australie, Canada et Nouvelle-Zélande), mais qu’en est-il en France ?

Il est difficile de le dire, compte tenu du peu d’information disponible publiquement.

On sait toutefois que la tentation de généraliser les écoutes est grande, comme partout dans le monde, même si la France n’a pas les budgets comparables à ceux des USA. A défaut de reprendre le budget, pourquoi ne pas s’inspirer des idées américaines ?

Ainsi, aux USA, la NSA n’a en théorie pas le droit d’espionner les citoyens américains. Pour contourner le problème, elle utilise plusieurs stratagèmes :

  • La NSA fait changer les lois pour permettre d’étendre la surveillance. La France suit déjà l’exemple de la NSA avec la récente Loi de Programmation Militaire, qui étend les pouvoirs de censure administrative.
  • La NSA demande à son allié, le Royaume-Uni, d’utiliser les ressources de son agence le GCHQ pour espionner les citoyens américains là où la NSA ne peut pas le faire. La France fait-elle de même avec l’Allemagne ou le Royaume-Uni ? On l’ignore, mais c’est très probable.
  • Il arrive aussi que la NSA ignore la loi tout en affirmant ne pas la violer. En France, on sait que c’est déjà le cas. Par exemple, on apprend dans un article du Canard Enchaîné qu’une douzaine d’équipements appelés IMSI-Catchers sont utilisés pour écouter toutes les conversations téléphoniques mobiles aux alentours, y compris les SMS et le trafic Internet. Comme le précise le Canard, « L’IMSI-Catcher n’a jamais été autorisé pour les écoutes administratives car ce système est jugé bien plus attentatoire aux libertés qu’une interception téléphonique classique[1] ». La CNCIS (Commission Nationale de Contrôle des Interceptions de Sécurité) « s’est émue mezza voce de ces violations de la loi ».

Que faire face à la surveillance de masse ?

Pour empêcher la surveillance de masse, deux approches complémentaires doivent être utilisées.

Politique et institutions

Ici, la démarche est celle d’un citoyen informé et acteur de la vie politique : il faut se tenir informé (si vous lisez cet ouvrage, c’est que vous avez probablement déjà cette démarche !), ne pas succomber aux discours sécuritaires qui, jouant sur l’émotion, mènent à des lois liberticides. Il faut s’assurer que les institutions fonctionnent bien.

Je ne vais pas m’étendre sur ce sujet, qui dépasse le thème de cet ouvrage, mais je suggère juste de se rapprocher d’une association appelée la Quadrature du Net, qui fait un travail remarquable d’information et d’action sur le sujet. Au passage, j’encourage mes lecteurs à donner à la Quadrature du Net pour qu’elle puisse continuer son action dans le temps avec encore plus de force.

Construire des systèmes résilients qui nous protègent

Au delà de la loi et de la politique, il est possible d’imaginer des systèmes informatiques qui rendraient très difficiles la surveillance de masse. C’est ce que je vous propose d’aborder dans la troisième partie de ce livre.

Note

[1] Numéro du 4 février 2015, page 3 : “La loi sur les écoutes court-circuitée par un drôle de gadget”.

- page 5 de 13 -