Il est un cas de figure où des données personnelles peuvent être utilisées contre l’utilisateur sans même qu’elles ne quittent les ordinateurs de la société qui les détient. Facebook l’a démontré de façon brillante : des chercheurs ont utilisé le réseau social Facebook pour mener à très grande échelle une expérience psychologique auprès de presque 700 000 utilisateurs, et à leur insu. Cette expérience porte sur la façon dont Facebook filtre ce qui est affiché à chacun. En effet, les utilisateurs du service reçoivent plus de contenu (photos, vidéos, messages, articles, publicités) qu’ils ne peuvent en consommer. Pour éviter la saturation des utilisateurs, Facebook n’affiche qu’une partie de ce contenu. Pour cela, il utilise un algorithme (un logiciel) qui va faire des choix pour l’utilisateur. Cet algorithme est paramétrable : Facebook peut le modifier très simplement pour afficher différents types de contenu en fonction du type d’utilisateur.

Dans le cadre de l’expérience qui nous intéresse, Facebook a choisi exactement 689’003 personnes et les a séparées en deux groupes. Au premier groupe, Facebook a surtout montré du contenu positif et joyeux (en retirant les mauvaises nouvelles), et le groupe a réagi en publiant des réactions plus positives que la moyenne. Au second groupe, Facebook a au contraire supprimé les messages positifs pour ne conserver que les message négatifs et tristes. Très logiquement, l’humeur des cobayes involontaires du 2e groupe a été affectée de façon négative. De ce fait, ils ont répondu avec plus de messages négatifs. Facebook a mesuré cela en analysant le contenu des messages publiés par les utilisateurs.

Les chercheurs travaillant avec Facebook qui ont fièrement publié leurs travaux sur le sujet, avec le titre « Preuve par l’expérience d’une contagion émotionnelle à grande échelle à travers les réseaux sociaux » n’ont probablement pas anticipé une réaction aussi négative que celle qu’ils ont reçue. En effet, l’idée de manipuler les émotions de 700’000 personnes sans les prévenir n’a pas été bien perçue par les cobayes et la presse.

Le problème ne s’arrête pas là. En novembre 2010, lors des élections dites « Mid-Term » aux USA, Facebook a lancé une autre expérimentation sur son service, visant à répondre à une question simple : «  un réseau social peut-il encourager les gens à voter ? ». Facebook a donc mis en place un certain nombre de fonctionnalités pour ses utilisateurs américains en âge de voter : une image avec un lien menant vers une carte indiquant où trouver les bureaux de vote, un bouton permettant à l’utilisateur d’indiquer qu’il a voté, et les photos de profils de 6 amis ayant déjà voté.

L’expérience porte sur 61 millions de personnes soit quasiment la taille de la population française, et les résultats sont significatifs : on estime que 340 000 personnes supplémentaires sont allées voter suite à la démarche de Facebook, ce qui est très sensible, compte tenu du fait que George W Bush a remporté les élections présidentielles en 2000 à 537 voix près !

Il est louable de pousser les citoyens à voter, c’est sain pour la démocratie. Mais n’oublions pas que Facebook sait tout de nos intérêts, de nos lectures, et de nos opinions politiques. On peut sans peine imaginer que Mark Zuckerberg, le patron de Facebook, décide de favoriser un candidat par rapport à un autre, par exemple en poussant à voter les électeurs proches de ce candidat, tout en restant neutre auprès des électeurs du candidat qu’il ne veut pas voir gagner. Si l’élection est très serrée, Facebook peut tout à fait faire basculer les résultats dans un sens ou un autre.

Dans ce cas imaginaire, nos données n’ont pas quitté les serveurs de Facebook, mais elles ont été utilisées contre la démocratie, à l’insu des utilisateurs, avec l’aide de leurs données…