Mon ami Pierre Col (celui qui aime les motos rouges qui vont trop vite) tient un blog sur ZDNet.fr. Son dernier billet explique pourquoi le filtrage d'Internet est coûteux et inefficace, démonstration à l'appui.

Son article m'a donné envie d'aller plus loin et de démonter les deux mythes que les politiques trop crédules envers les lobbyistes considèrent à tort comme des solutions possibles : le filtrage par liste noire et le filtrage par liste blanche. Kezako ? Disons que parmi les différents dispositifs destinés à s'assurer que les citoyens ne font pas de bêtises, certains pensent qu'il faut "filtrer Internet". C'est à dire qu'à chaque fois que quelqu'un va se connecter à un site pour en afficher le contenu sur son ordinateur, il va falloir s'assurer :

Dans le cas présent, l'approche entre "refuser l'accès à un site interdit" (approche "Liste noire") est très différente de celle qui "n'autorise l'accès que sit le site est autorisé" (approche "liste blanche"). Ca tient principalement à trois facteurs :

  1. Internet est immense et en évolution permanente (et c'est sa plus grande qualité)
  2. On peut se "promener"[1] dans Internet.
  3. Le chiffrement existe et il est nécessaire

Ces deux derniers points seront publiés dans un article à venir.

Internet est immense et en évolution permanente

Comment faire comprendre à quelqu'un qui n'est pas spécialiste du problème cette immensité qu'est le Web ? J'ai cherché dans le dossier de presse de Google (format PDF), et voici quelques chiffres qui donnent le vertige :

nous devons faire face à l’expansion permanente du Web. Lorsque nous avons commencé, en 1998, Google indexait autour de 25 millions de pages par jour. Aujourd’hui, nous en sommes à des milliards de pages chaque jour. Autant dire que les bottes de foin dans lesquelles nous cherchons nos aiguilles sont devenues gigantesques.[2] (...) aujourd’hui, (nos) robots indexent des milliards de milliards[3] de pages[4]. Pourtant, la tâche est loin d’être achevée. En effet, à chaque exploration du Web par le robot Googlebot, environ 10 à 20 % du contenu est entièrement nouveau !

Dans ces "bottes de foins virtuelles", on va demander au gouvernement français de trier le bon grain de l'ivraie. Quand on pense qu'on a pas été capable en Europe de faire un moteur de recherche concurrent de Google malgré les sommes englouties, on peut imaginer le succès d'une entreprise de filtrage de l'Internet. On me dira que certains logiciels vendus aux entreprises permettent de faire un tel filtrage. C'est vrai, mais c'est particulièrement inefficace et grossier. J'ai ainsi deux anecdotes personnelles qui démontrent cela :

  1. Lors d'un passage dans l'aéroport de San Francisco, un point d'accès Wifi est ouvert. Je me connecte en attendant mon avion et je vais lire mes blogs préférés. Parmi ceux-là, celui de Laurent Gloaguen. Je n'ai pas pu : l'accès était interdit. Pas "moralement conforme". Peut-être parce que Laurent est homosexuel ? Parce qu'il a posé nu sur son blog ? Je ne l'ai jamais su. L'accès à ce site m'était interdit pour des raisons arbitraires. (En plus, interdire un blog gay à San Francisco, faut vraiment pas être à l'écoute de ses utilisateurs, mais je m'égare)
  2. Un blog de geek, celui de mon ami et maintenant collègue Paul Rouget (qui parle essentiellement de code JavaScript et de développement de logiciels Libres) a du changer de nom de domaine. Pourquoi ? Parce que l'ancien, sexyLizard.org était considéré comme obscène par les filtres.

Dans le cadre d'une liste blanche, on va chercher à valider qu'il ne contient rien d'interdit avant de le mettre dans la liste. Mais l'avalanche de nouveaux sites, de nouvelles pages ne permet pas de faire cela de façon assez rapide et assez fiable. Soit on va laisser des sites interdits passer, soit on va empêcher plein de sites de toucher leur public en France juste parce que la mise à jour est lente.

Dans le cadre d'une liste noire, le problème n'est pas plus facile. Car les sites illégaux (téléchargement d'oeuvres contrairement aux désirs du créateur, pédo-pornographie et autre) changent d'adresse en permanence, bien plus que les sites légitimes...

Voilà pourquoi l'idée de filtrer Internet est une dépense d'autant plus coûteuse qu'elle est vouée à l'échec.

Dans une suite à venir de ce billet, je donnerai d'autres arguments qui sont liés à la structure même du Net et au besoin de sécurité des applications légitimes.

Et vous, chers lecteurs : que pensez vous du filtrage d'Internet ? Ca vous paraît faisable et sensé ?

Notes

[1] Je manque d'idées pour expliquer ce concept, j'appelle donc mes lecteurs au secours. Comment expliquer la notion d'Onion Routing et le tunneling à des politiciens ?

[2] Page 2

[3] l'emphase est de mon fait

[4] Page 8