Cet article est la retranscription de l'épisode du podcast #QSNTALKS - Episode 76 : Les réseaux sociaux dans la tourmente
Cet épisode a été diffusé sur le podcast le 18 décembre 2024

Dans cet article :
▶️ LinkedIN sanctionné pour non respect du RGPD
▶️ Meta face à la Commission Européenne
▶️ TikTok assigné en justice en France
▶️ Les failles dans la modération et leurs conséquences
▶️Les raisons de la chute de X (ex-Twitter)
🎧 Un constat s'imposera dans cet article : les réseaux sociaux doivent désormais réapprendre à mériter la confiance.
Une amende historique pour des violations flagrantes
Commençons par LinkedIN et le volet réglementaire auquel la plateforme se heurte. 310 millions d'euros. Ce montant astronomique a récemment marqué l'histoire des sanctions infligées pour non-respect du RGPD (Règlement Général sur la Protection des Données), entré en vigueur dans l'Union européenne le 25 mai 2018.
La Data Protection Commission (DPC) irlandaise a visé LinkedIn pour plusieurs infractions majeures, mettant en lumière une problématique cruciale : l'obsession des géants du numérique pour les données personnelles, souvent au mépris des règles établies.
Les motifs détaillés
Le verdict était implacable, et pour cause :
Absence de consentement explicite : Depuis toujours, LinkedIn collectait et utilisait des données personnelles à des fins publicitaires sans demander clairement l'autorisation des utilisateurs. Par exemple, les informations de navigation sur le web , donc en dehors de LinkedIN, étaient systématiquement exploitées pour des campagnes ciblées, transformant chaque utilisateur en produit marketing.
Rendez-vous dans les paramêtres de confidentialité de votre profil et vous pourrez constater que par défaut, la plateforme collecte de nombreuses informations, permettant à l'utilisateur de signifier son désaccord,certes , alors que le principe du RGPD exige que par défaut les données ne puissent pas être collectées et que l'utilisateur doit en connaissance donner son accord. Cela fait des années que j'observe la stupéfaction des participants à mes formations en découvrant cette pratique.
Opacité des pratiques : La plateforme n'a jamais vraiment brillé par sa transparence.
Lors de l'entré en vigueur du RGPD en Europe, LinkedIN a modifié les paramètres de confidentialité des profils en rendant accessible de nombreuses informations qui ne l'étaient pas jusque-là comme les informations de navigation sur le web et le ciblage publicitaire.
Non-respect des droits des utilisateurs : En rendant visible ces informations, LinkedIN faisait mine de se conformer aux exigences du RGPD. Car dans les faits, comme je viens de le dire, l'utilisation de données personnelles ne doit pas être autorisé par défaut. La plateforme bafoue donc allègrement les exigences du RGPD depuis sa mise en place et les droits de ses utilisateurs.
Les conséquences
Une telle sanction ne se limite pas à une simple perte financière pour LinkedIn. Il faut espérer qu'elle provoque une onde de choc dans l'écosystème numérique. Toutefois, il faut souhaiter que la sanction soit réellement dissuasive pour la plateforme dont le chiffre d'affaires dépassait 15 milliards de dollars en 2023. Car à ce jour, les paramètres de confidentialité sont toujours inchangés.
La plateforme devrait se méfier de ne pas trop éroder la confiance de ses utilisateurs pour ne pas vivre ce que je détaillerai un peu plus tard au sujet de X. La protection des données personnelles est devenue un enjeu central, et les utilisateurs, désormais mieux informés et sensibilisés, sont de plus en plus vigilants sur ce point.
Selon une étude publiée par la CNIL, 65 % des utilisateurs européens se disent préoccupés par l'usage de leurs données personnelles sur les réseaux sociaux. Et LinkedIn, autrefois perçu comme un réseau " sérieux ", n'échappe plus à ce scepticisme croissant.
Si LinkedIn a payé cher son manque de transparence, il n'est pas le seul à sentir le souffle des régulateurs européens sur la nuque. Depuis l'entrée en vigueur du RGPD, les géants des réseaux sociaux, longtemps intouchables, découvrent que les règles du jeu peuvent aussi changer à leurs dépens. Et cette pression ne cesse de croître
Facebook et Instagram : la fin de la publicité sur-mesure ?
Meta, par exemple, au travers de Facebook et Instagram, a été contraint de repenser entièrement leur modèle économique en Europe. En cause ? L'obligation de limiter la personnalisation des publicités, jusqu'ici leur arme fatale pour séduire les annonceurs.
Pendant des années, Meta a capitalisé sur l'analyse des données de ses utilisateurs pour livrer des campagnes chirurgicales : âge, intérêts, localisation, préférences de navigation... tout était exploité pour maximiser les résultats. Mais la Commission européenne, armée du RGPD, a décidé de rappeler à l'ordre ces pratiques jugées invasives, imposant des restrictions drastiques.
Conséquence immédiate : Les utilisateurs européens peuvent désormais refuser la personnalisation des publicités basée sur leurs comportements en ligne. Ce changement a un impact direct sur l'efficacité des campagnes, et donc sur les revenus publicitaires.
Un impact économique sans précédent
Le modèle publicitaire des réseaux sociaux repose sur un échange implicite : les utilisateurs " offrent " leurs données en échange de services gratuits. Mais lorsque les règles du jeu changent, ce système montre ses limites.
Chiffres clés : Selon un rapport du journal Le Monde, Meta a enregistré une perte estimée de 20 % de ses revenus publicitaires en Europe suite aux restrictions imposées par le RGPD. Et ce n'est probablement qu'un début.
De part ces changements dans le potentiel de ciblage, les annonceurs européens réduisent leurs investissements.
Pour Meta, cela se traduit par une nécessité d'innovation... ou de concessions. Moins de ciblage signifie moins de performance. Et moins de performance, c'est moins d'annonceurs prêts à dépenser des budgets pour des campagnes moins efficaces.
Meta tente de contrer le RGPD et donc sa capacité à exploiter les données de ses utilisateurs, en proposant des réseaux à 2 vitesses : l'utilisateur gratuit accepte par défaut que ses données soit collectées et exploitées, mais adhérer à un forfait payant permet la confidentialité de ses données.
La Commission européenne a exprimé des préoccupations quant à ce modèle " payer ou consentir ". Elle estime que cette approche pourrait enfreindre le Digital Markets Act (DMA).
Le Comité européen de la protection des données (EDPB) a également critiqué cette pratique, affirmant que la protection des données est un droit fondamental qui ne doit pas se transformer en " option payante ".
Plusieurs associations de consommateurs à travers l'Europe ont déposé des plaintes contre ce modèle mis en place par Meta.
Face à ces réactions, Meta pourrait donc être contraint de revoir son modèle économique en Europe
TikTok et l'effet " rabbit hole " : des algorithmes sous surveillance
Passons maintenant à TikTok, avec ses vidéos addictives et ses recommandations infinies, qui est sans doute le maître du " binge-watching " digital.
En France, la plateforme est sous le feu des projecteurs judiciaires pour des accusations gravissimes : incitation au suicide et troubles alimentaires chez les jeunes.
Les faits : une assignation en justice pour contenus dangereux
En effet, une assignation en justice en France met en cause la plateforme pour avoir exposé des adolescents à des contenus extrêmement nocifs, notamment des vidéos sur l'automutilation, les troubles alimentaires, et même le suicide.
Selon une étude menée par le Centre de lutte contre la haine en ligne (CCDH), l'algorithme de TikTok recommandait des contenus liés à l'automutilation et aux troubles alimentaires aux jeunes utilisateurs, amplifiant ainsi leur exposition à ces sujets sensibles. Selon l'étude, Une fois qu'ils interagissent avec une vidéo liée aux troubles alimentaires, ils reçoivent en moyenne 25 % de recommandations supplémentaires de contenu similaire en moins d'une heure.
Le problème, c'est que l'algorithme n'a pas de conscience. Il ne fait pas la différence entre un utilisateur curieux et un utilisateur en détresse. Il se contente de maximiser le temps passé sur la plateforme, quitte à ignorer les conséquences sur les utilisateurs.
Au-delà de la France, une étude menée par l'Université de Bath en Angleterre a par ailleurs montré que 32 % des adolescents ressentent une détresse psychologique après une exposition prolongée à des vidéos similaires sur les réseaux sociaux.
L'effet " rabbit hole " : une descente incontrôlée
Ce principe de recommandation des algorithmes est bien connu des spécialistes des réseaux sociaux, sous le nom d'effet " rabbit hole " (ou terrier de lapin). Une fois qu'un utilisateur interagit avec un type de contenu, l'algorithme affine ses recommandations pour l'enfermer dans un univers de vidéos similaires. Mais ce qui pourrait sembler inoffensif dans le cadre de vidéos humoristiques ou de danse devient hautement problématique lorsqu'il s'agit de sujets sensibles.
🎧l'écoute de l'épisode 66 de QSNTALKS pour tout comprendre à l'effet rabbit hole 👉 https://podcast.ausha.co/qsntalks-le-podcast-des-reseaux-sociaux-et-de-l-ereputation/episode-66-l-effet-rabbit-hole-sur-les-reseaux-sociaux-decryptage
📰ou la lecture de sa transcription sur le blog 👉 https://blog-ereputation.com/2024/03/08/leffet-rabbit-hole-sur-les-reseaux-sociaux-decryptage/
La transparence sur les algorithmes est un sujet récurrent car les biais sont nombreux pour les utilisateur.
Une propagation fulgurante de désinformations et contenus haineux
Selon une enquête de la BBC, les fausses informations ont six fois plus de chances d'être partagées que des informations vérifiées. Ce phénomène est accentué par les algorithmes, qui amplifient les contenus polarisants, même lorsque ceux-ci véhiculent des propos violents ou mensongers.
Exemple frappant : Lors des élections américaines de 2020, des études ont montré que des théories du complot ou les allégations de fraude électorale ont prospéré grâce à l'amplification algorithmique sur des plateformes comme Facebook et Twitter.
Une incapacité chronique à modérer efficacement
La promesse des plateformes de " modérer leurs contenus " s'effondre face à la réalité : il est tout simplement impossible de surveiller des milliards de publications quotidiennes. Et ce n'est pas faute d'avoir essayé : des armées de modérateurs humains, appuyées par l'intelligence artificielle, ont été déployées. Mais le volume et la vitesse d'apparition des contenus nocifs sont écrasants.
Chiffres clés :
Un rapport de The Guardian a révélé que même avec des efforts accrus, Meta modère moins de 50 % des contenus haineux signalés sur Facebook. Pire, certains contenus restent accessibles pendant des mois, accumulant des millions de vues avant d'être supprimés.
Les algorithmes d'IA, censés détecter les contenus problématiques, ne sont pas non plus infaillibles. Une vidéo peut être supprimée pour une blague mal comprise ou un terme explicite pris hors contexte, tandis qu'un discours de haine soigneusement maquillé restera en ligne.
Des impacts sociétaux dévastateurs
Cette incapacité de contrôle a des conséquences bien réelles.
Polarisation accrue des opinions : Les algorithmes nous enferment dans des bulles de filtres, nous exposant uniquement à des opinions similaires aux nôtres. Résultat ? Un dialogue public de plus en plus fragmenté et un climat de méfiance généralisée.
Selon une étude de l'Université de Stanford, la polarisation politique a augmenté de 30 % aux États-Unis entre 2012 et 2020, en grande partie à cause des réseaux sociaux.
Amplification des comportements extrêmes : La répétition de contenus haineux ou radicaux crée une normalisation progressive de ces discours. Ce mécanisme contribue à la montée des violences verbales et physiques.
Une gestion opaque, un problème systémique
Le véritable problème ? Tant que la colère rapporte plus que la conversation constructive, il est peu probable que les plateformes révisent fondamentalement leurs algorithmes. Le régulateur a encore beaucoup à faire sur le sujet.
Une modération insuffisante et des manipulations d'algorithmes
Depuis son rachat par Elon Musk, X soulève des questions sur son intégrité par son laxisme en matière de modération et la manipulation de ses algorithmes.
Les élections américaines de 2024 : l'algorithme, un joueur politique ?
Lors des dernières élections américaines, selon plusieurs analystes, dont un rapport du New York Times, l'algorithme de X a priorisé des contenus liés à Donald Trump et Elon Musk au détriment d'une diversité d'opinions politiques. Cette stratégie aurait saturé les fils d'actualité d'une grande partie des utilisateurs avec des publications pro-Trump ou des prises de position d'Elon Musk.
La main (très visible) deElon Musk : Le propriétaire de X, en multipliant les prises de position sur des sujets politiques sensibles, a effectivement lui-même alimenté cette machine. Les interactions autour de ses publications ont été massivement boostées par les algorithmes.
Mon propre fil d'actualité n'a pas été épargné par ce phénomène à l'approche des élections alors même que je ne participait à l'election.
Conséquences : la crédibilité de X en chute libre
X est désormais perçu comme un média partisan. Une étude réalisée par Pew Research a d'ailleurs révélé que 56 % des utilisateurs réguliers considèrent que la plateforme manque d'impartialité depuis son rachat.
Fuite des annonceurs : Les annonceurs n'ont pas tardé à réagir. Des marques majeures comme Pfizer et General Motors ont drastiquement réduit leurs dépenses publicitaires, d'autres ont carrément stoppé toutes dépenses publicitaires comme Disney, IBM, Sony, Apple.
L'impact n'est pas neutre : selon un rapport de Reuters, les revenus publicitaires de X ont chuté de 40 % au cours de l'année 2024, une baisse sans précédent pour un réseau social de cette envergure.
Départ de la plateforme: Des entreprises et médias influents ont également quitté la plateforme, dénonçant un environnement devenu toxique. Par exemple, Disney, Apple, Paramount, Balenciaga, le club de football allemand du Werder Brême, The Guardian en Angleterre, La Vanguardia en Espagne, Ouest-France ou GreenPeace France. Du côté des célébrités ayant fait le choix de quitter la plateforme, on peut citer Gigi Hadid, Jim Carrey, Whoopi Goldberg, Stephen King ou Barbara Streisand.
Une plateforme au bord de la crise de confiance
X est aujourd'hui un cas d'école des dangers d'une stratégie de modération laxiste et de la manipulation des algorithmes. Le fait notamment que des médias quittent la plateforme envoie un message fort : X n'est plus un espace sûr pour informer ou débattre, ce qui sape encore davantage la crédibilité de la plateforme
En conclusion Les réseaux sociaux entrent probablement dans une ère de turbulencesLeur quête de croissance les a menés à négliger certains aspects pour privilégier leur intérêt. Entre amendes records, procès et exode des annonceurs, ils paient le prix d'une certaine arrogance.
Les turbulences diverses que rencontrent LinkedIn, Meta, TikTok et X sont peut-être une opportunité. Une opportunité pour ces plateformes de redéfinir leurs priorités, de choisir entre un avenir durable ou un lent effondrement.
Il est temps aussi de repenser notre rapport aux réseaux sociaux. Pas pour les abandonner, mais pour exiger d'eux ce qu'ils nous doivent : transparence, éthique et respect. La réponse sera déterminante pour leur avenir.
Je suis Frédéric Foschiani, Fondateur de QSN-DigiTal, agence spécialiste des réseaux sociaux et de l'eReputation
▶️ Expert des réseaux sociaux
▶️ Consultant en réseaux sociaux
▶️ Formateur en réseaux sociaux
▶️Conférencier
🔵J'interviens sur tous les sujets liés à l'utilisation des réseaux sociaux : visibilité, image, veille, ventes, recrutement, marque-employeur, employee advocacy, relation client,...
🔵Définition ou audit de votre stratégie, community management, création de contenus (visuel, rédactionnel, vidéo, podcasting), gestion de campagnes sponsorisées, IA générative pour les réseaux sociaux,...
🚀Demande Frédéric Foschiani en contact sur LinkedIN
