Magazine Humanitaire

Comment les algorithmes nous enferment dans une bulle intellectuelle

Publié le 05 octobre 2016 par Frédéric Joli
DR

DR

NEWS NEWS NEWS Cet été, suite au vote pour le Brexit, la rédactrice en chef du grand quotidien anglais The Guardian (centre gauche)Katharina Viner, a publié un long article intitulé « Comment la technologie a perturbé la vérité ».  Pourquoi ? Enquête (publiée dans Le Monde Idées)

Au début de son texte éditorial, Katharina Viner s’inquiète du fait que pendant la campagne électorale les journaux et les politiciens pro-Brexit ont accumulé les fausses informations, l’outrance et les mensonges pour se faire entendre. Elle regrette que le respect des « faits » ai subi une « sévère dévaluation » au cours d’une campagne « idéologique », fondée sur des « points de vue » et des « émotions » et non des argumentations sourcées : préoccupée, elle parle du « premier vote majeur de la politique de la post-vérité ».  

Mais surtout, elle s’alarme de la vitesse avec lesquelles ces news biaisées et ces contre-vérités circulent sur Internet et les médias sociaux : « A l’ère numérique, écrit-elle, il est plus facile que jamais de publier des fausses informations rapidement partagées et prises pour des vraies. » Pour elle, les algorithmes sélectifs de Google et des réseaux, qui filtrent les nouvelles pour les internautes, jouent un rôle décisif dans ces flux « en cascade ». En ne retenant que des informations fondées sur les demandes passées et préférentielles des internautes, ces algorithmes échantillonnent des parti-pris et des informations partisanes confortant leurs avis habituels et ceux de leurs groupes d’amis. Ce faisant, ils les confinent dans leur « vision du monde » et leurs « croyances » tout en faisant « passer (celles-ci) pour des faits », si bien qu’aujourd’hui nous avons « moins de chances d’être exposés à une information qui nous stimulerait ou élargirait notre vision du monde, et donc moins de chance de tomber sur des faits qui réfuterait des informations fausses partagées par d’autres ». 

DR

DR

La théorie de la « bulle filtrante »

La rédactrice-en-chef s’appuie ici de façon explicite sur la théorie de la « bulle cognitive » ou « bulle filtrante » fabriquée par les algorithmes. Cette théorie a été élaborée en 2011 par l’essayiste Eli Pariser, cofondateur des sites de pétitions Move.on et Avaaz, et du site Upworty (les informations qui comptent). D’après ses analyses, les algorithmes de Google sélectionnent leurs recherches pour chaque internaute en s’appuyant sur 57 signaux différents comme l’âge, le sexe, l’histoire des dernières recherches, la géolocalisation, la navigateur utilisé, la marque d’ordinateur, la résolution de l’écran, le temps passé à telle recherche en ligne, les services visités, la fréquence et les choix des clics, les publicités regardées, les achats faits, les raccourcis mis en place, etc. Cette personnalisation de détail fait que Google et les sites commerciaux associés nous proposent en permanence des liens, des sites et des publicités allant dans le sens de nos choix habituels.

Il donne une exemple frappant : deux personnes opposées politiquement, l’une de droite, l’autre de gauche, lancent une recherche Google avec le mot « BP ». La première reçoit, classés en tête de recherche, des informations sur les possibilités d’investir dans la British Petroleum. La seconde sur la dernière marée noire qu’elle a causée. Pariser en conclut que l’algorithme de Google, en criblant les comportements en ligne de deux personnalités, a identifié leur posture politique. Cette sélection étant permanente, dans tous les domaines – politique, lecture, voyages, culture, etc – Google et ses associés finissent par les confiner dans ce qu’il appelle une bulle cognitive. Eli Pariser s’en alerte : « Les filtres de personnalisation servent une sorte d’autopropagnade invisible : nous endoctriner avec nos propres idées, amplifier nos désirs pour des choses familières, et nous laissant inconscients des dangers cachés des territoires inconnus. »

Ce filtrage invisible, régulièrement affiné par Google – ses algorithmes sont réajustés 600 fois par an dans le plus grand secret – est encore plus développé, dit Pariser, sur les réseaux sociaux. Ainsi Facebook utilise l’algorithme EdgeRank, sans cesse sophistiqué, pour déterminer la visibilité des pages et des amis partagés sur chaque «fil d’actualités». Il les choisit en fonction de trois critères : l’affinité exprimée par le score des « J’aime » et des « Partage » et la fréquentation; la richesse des contenus (photos, vidéos, fréquence); la fraîcheur chronologique. Selon des moyennes publiées par Facebook en 2014, un internaute pourrait recevoir 1500 publications nouvelles à chaque fois qu’il ouvre son compte. Pour éviter l’inflation, 300 sont sélectionnées par EdgeRank, constituant une sphère de messages provenant des proches actifs.

edgerank

Un univers narcissique et lissé

Pour Eli Pariser, cet enfermement silencieux dans une bulle personnalisée se produit autant au niveau des personnes que des contenus. L’essayiste a ainsi constaté que sa page Facebook a rapidement vu disparaître ses amis conservateurs. Du fait qu’il échangeait peu avec eux, ou ne « likait » pas leurs posts, leurs actualisations ont disparu. Or, s’il ne « partageait » pas leurs opinions, il ne voulait pas pour autant voir leur présence et leurs idées s’escamoter.

Au niveau des contenus, tous les textes, les liens, les pages, les vidéos, les événements qui le faisaient peu réagir ont rapidement été éliminés – sans compter toutes les pages jugées choquantes par un Facebook pudibond. Il s’est donc retrouvé isolé dans un univers en ligne où ses seuls centres d’intérêts dominent : un univers narcissique et lisse. Pour Pariser, ce rétrecissement est inquiétant car les internautes utilisent de plus en plus Facebook et les réseaux sociaux pour accéder à quantité d’informations tant culturelles que politiques. Une étude de l’université d’Oxford (R.U) menée en juin dans 26 pays, auprès de 50 000 personnes, confirme ses dires : 51 % des internautes ont déclaré « s’informer » avec les réseaux sociaux, qui constituent la première source d’informations pour 12 % d’entre eux – 28 % chez les 18-24 ans.

Ce filtrage informatif lui fait craindre un isolationnisme intellectuel et culturel, générant une étroitesse d’esprit mais aussi une absence de confrontation d’idées préjudiciable à « la vie civique ». « Cette bulle filtrante, écrit-il, crée l’impression que notre petit intérêt personnel est la seule chose qui compte ». Nous vivons dans un cocon à notre convenance, où plus personne ni aucune nouvelle désagréable ne nous dérange, sans cesse confortés dans nos opinions, rassurés par nos selfies, encerclé de publicités flattant nos désirs. Nous en devenons plus perméables à la propagande et à la manipulation, du fait que nous nous informons auprès de proches et d’amis, dont nous faisons circuler les messages, les post, les vidéos et les hashtags sans les discuter.

Pour Pariser, comme pour Katharina Viner, en plus des effets de bulle cognitive, l’information émotionnelle, les campagnes de parti pris, les fausses informations, les trolls politiques, se répandent ainsi, en circuit fermé, selon des réseaux affinitaires – parfois, ils sont initiés depuis l’extérieur, par des « wars roms » de militants qui multiplient les interventions sur les réseaux, cherchant à créer des effets viraux sur des thèmes partisans.

DR

DR

Un enfermement algorithmique

En mai, le gouvernement français lui-même s’est ému de ces phénomènes de microbulles propagandistes et de leurs effets sur les dérives violentes des adolescents. Suite à un réunion du Comité Interministériel pour la Prévention de la Délinquance et la Radicalisation (CIPDR), il a dénoncé l’« enfermement algorithmique » après avoir constaté la radicalisation islamiste rapide de jeunes sur des réseaux Internet militants et le visionnage de plus en plus en plus exclusif de messages sectaires, complotistes et racistes. « La visualisation préalable d’un contenu vu ou aimé, dit le rapport, conduit mécaniquement à ce que la personne concernée s’en voit proposer 10 de nature similaire, puis 10 autres, jusqu’à ce que l’offre présentée soit parfois entièrement consacrée à ces contenus de haine. »

S’il a inventé le concept, Eli Pariser n’est pas le premier à déplorer l’existence de bulles fitrantes. Cass Sunstein, un professeur de droit à Harvard, s’en inquiétait déjà en 2002 dans son essai Republic.com (Princeton Press). Il rappelle que le principe juridique de « forum public » s’applique à la vie urbaine : les rues, les parcs, les kiosques, les librairies sont ouverts à la diversité, des gens d’opinion opposée s’y affichent, manifestent bruyamment dans le centre ville, s’adressent à tous par hauts parleurs, distribuent des tracts, présentent des journaux et des livres contradictoires. Si bien que les habitants se trouvent cesse confrontés à la diversité des expressions.

Cette agora vivante développe, soutient Sunstein, un « éventail d’expériences communes » contradictoires, hétérogènes, qui diminue la fragmentation sociale et réduit les incompréhensions irréductibles parmi la population. Or, cette règle du forum public, si elle est formellement préservée sur Internet où tous les points de vues cohabitent, sur d’innombrables plateformes, en pleine liberté, est remise en cause par les effets de filtre des algorythmes. Ils réduisent transforment, pense Sustein, « le citoyen en consommateur », en lui reproposant en permanence tout ce que, peu ou prou, il désire, réfléchit et consomme – biens, produits culturels, idées, offres politiques – finissant par le couper du « forum public » : de la vie civique commune.

Le côté obscur de de cette comptabilité ultrapersonnalisée pour consommateur souverain c’est, selon l’expression de Nicholas Negroponte, le fondateur du Medialab du MIT, le Dayly me : le journal quotidien égocentré et autistique, qui satisfait toutes mes envies, conforte toutes mes idées, même les plus inquiétantes. La bulle cognitive parfaite.

Facebook relativise

La direction de Facebook a répondu aux théoriciens de la bulle filtrante en publiant en mai 2015 une étude publiée dans la revue Science par trois chercheurs de leur équipe scientifique. Elle porte sur 10,1 millions d’utilisateurs ayant déclaré leur orientation politique sur leur profil, et s’est intéressée aux « hardnews » (« actualités, politique, économie »). Ils ont constaté qu’elles forment « 7%% » des publications. Parmi celles-ci, les Internautes publient 23% de posts de personnes d’un autre bord, et postent des textes différents de leur couleur politique. Il faut donc relativiser l’importance de la bulle.

Etudiant le rôle sélectif de l’algorithme sur les publications politiquement opposées, les chercheurs de Facebook observent que celui-ci les diminue de 5% à 8% seulement. En fait, concluent-ils, ce sont les internautes qui, majoritairement, filtrent leur page d’actualité : « C’est le choix individuel qui restreint le plus l’exposition à des contenus opposés » affirme l’étude. Autrement dit : on fait un mauvais procès à l’algorithme de Facebook.

Eli Pariser leur a répondu sur le site Backchannel. Il fait remarquer que Facebook reconnaît le filtrage de l’algorithme, et qu’il n’a rien de négligeable : jusqu’à 8 % des pages politiques. Il constate qu’en redoublant les choix des internautes, il ne les encourage pas à sortir de leur bulle : 23 % de posts dissemblables, c’est peu. Il s’interroge sur le fait que l’étude concerne 9 % des usagers de Facebook – les politisés – et s’interroge sur tous les autres. Qu’advient-il des points de vue politiques chez eux ? Enfin, il s’inquiète des 7 % de hardnews désignés par l’étude : c’est très peu. Et c’est pour lui l’information la plus importante de l’étude. Car les réseaux, dit-il, s’ils jouaient pleinement leur rôle, devraient aussi permettre de discuter et d’échanger sur des « sujets sociaux importants ».

Dans le data center de Facebook, à Luleå (Suède). STEFAN BLADH En savoir plus sur http://www.lemonde.fr/idees/article/2016/09/15/sur-internet-l-invisible-propagande-des-algorithmes_4998063_3232.html#53t7gw2kkq2kIevz.99

Dans le data center de Facebook, à Luleå (Suède). STEFAN BLADH

Le Big Data cerne les individus et les renvoie à leurs désirs

Chercheur au Laboratoire des usages d’Orange, Dominique Cardon, auteur d’A quoi rêvent les algorithmes ? (Seuil, 2015), estime que les effets de bulle des algorithmes sont décuplés depuis l’arrivée du Big Data et la mesure permanente, de plus en plus détaillée, des comportements individuels en ligne. « Chaque jour, rappelle-t-il, 3,3 milliards de requêtes sont effectuées sur les 30 000 milliards de pages indexées par Google ; plus de 350 millions de photos et 4,5 milliards de “like” sont distribués sur Facebook », générant des colossales bases de données sur toutes les activités numériques des internautes.

Désormais, le moindre mouvement en ligne (achat, visite, clic, choix) est répertorié, classé, analysé, rentabilisé. Pour Dominique Cardon, cette comptabilité géante des désirs, cette « raison calculatoire » que les dirigeants de la Silicon Valley prétendent neutre, scientifique et servicielle, nous fait entrer dans ce qu’il appelle « une société des comportements » qui pratique la reconduction méthodique des conduites existantes.

Tout en prétendant donner aux individus « les moyens de se gouverner eux-mêmes », ­résume-t-il, l’effet miroir des algorithmes les réduit à leur seul « conformisme », « les assignant à la reproduction automatique de la société et d’eux-mêmes ». Ce « comportementalisme radical » les empêche de se déployer, de se diversifier, de s’ouvrir à d’autres univers, de se confronter aux positions communes ou contradictoires.

Dominique Cardon considère qu’il faut désormais encourager la « diffusion d’une culture statistique dans le public » et l’aider à mener « une radiographie critique des algorithmes ». « Il n’y a pas de raison de penser que les utilisateurs ne parviennent pas à socialiser les calculateurs » et à « les domestiquer ». « Déjà, des collectifs d’appropriation citoyenne se multiplient pour auditer les algorithmes », assure-t-il. Il est temps d’ouvrir « la boîte noire » et d’en finir avec « le guidage automatique ». Cette mobilisation de chercheurs et des citoyens pour reconsidérer les algorithmes a commencé. En France Christophe Benavent, professeur de marketing digital à Paris Ouest, appelle sur son blog au principe de transparence et de redevabilité sur la manière dont ils fonctionnent. Olivier Ertzscheid, enseignant en sciences de l’information à l’Université de Nantes veut remettre en cause « l’ordre moral réglementaire » institué par les algorithmes.

Défense du pluralisme

Dans Republic.com, en 2000, déjà, Cass Sunstein rappelait que dans les sociétés démocratiques les compagnies de câble numériques sont tenus par des régles de « must carry » – un devoir de transport – pour des programmes locaux et des contenus diversifiés. De la même manière, les fréquences radios et télévisées sont obligées de s’ouvrir à des émissions éducatives. La règle de l’équité du temps de parole politique sur les grands médias publics – et même privés, comme en France – est aussi un des principes de la vie citoyenne. Sans réclamer que les gouvernements imposent de telles règlementations, le juriste estime que les grandes sociétés du Web pourraient travailler à s’auto-réguler et à ouvrir des «trottoirs électroniques communs», dans l’intérêt d’une information pluraliste et di dialogue démocratique.


Retour à La Une de Logo Paperblog

A propos de l’auteur


Frédéric Joli 39938 partages Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte l'auteur n'a pas encore renseigné son compte