Facebook et Google ont fait pression sur des experts de l’UE

Alexia Barakou

EU experts pressured to soften fake news regulations, say insiders

Google et Facebook ont engagé « un bras de fer » et fait pression sur un groupe d’experts afin d’assouplir les directives européennes sur la désinformation et les fake news, d’après des témoignages exclusifs de sources internes recueillis par Investigate Europe.

Le « Groupe d’experts de haut niveau de la Commission européenne sur les fausses informations et la désinformation en ligne » avait été constitué l’an dernier, après la diffusion massive de fake news lors du referendum sur le Brexit et de l’élection de Donald Trump aux Etats-Unis. Leur tâche ? Trouver comment éviter la propagation d’informations erronées, en particulier à des moments-clé – par exemple les élections européennes très disputées de cette semaine.

Mais certains de ces experts affirment que des représentants de Facebook et Google ont sapé le travail du groupe constitué de chercheurs, d’entrepreneurs de presse et de militants.

Les deux géants du numérique se sont en particulier opposés aux propositions qui les auraient contraints à plus de transparence sur leur modèle économique. Selon plusieurs sources internes interrogées par IE, le fait que ces plateformes financent les institutions qui emploient certains experts du groupe a pu influencer ces derniers, et aider Facebook et Google à rendre les recommandations du groupe moins contraignantes à leur égard.

Ces accusations interviennent après de nombreuses révélations sur les campagnes de désinformation massive (liées, pour beaucoup, à la Russie et à des groupes d’extrême-droite) visant les élections européennes. Le comportement de ces plateformes, rapporté par ces sources internes, a été qualifié de « scandaleux » par des politiques européens et des militants anti-corruption.

L’une de ces élues, la députée allemande Ska Keller, a demandé que Facebook « joue cartes sur tables ».

« La désinformation est une menace pour la démocratie », a-t-elle déclaré. « La Commission n’aurait pas dû céder [face à ces plateformes] ; elle aurait dû insister pour continuer les discussions à propos des outils de régulation de la concurrence, afin de limiter le pouvoir de ces plateformes et la désinformation qu’elles peuvent contribuer à diffuser. »

« Nous avons été victimes de chantage »

Cela semblait presque trop beau pour être vrai : un ensemble de règles qui allaient aider l’Union européenne à prendre des mesures efficaces contre la désinformation en ligne, et s’assurer que les géants du net qui les diffusent prennent leurs responsabilités. L’enquête d’Investigate Europe démontre que, de fait, tout cela était « trop beau pour être vrai ».

L’adoption d’un « Code européen de bonnes pratiques contre la désinformation » a été annoncée en septembre dernier comme une première mondiale : pour la première fois, des plateformes en ligne acceptaient de s’auto-réguler en se pliant à des normes communes. Ce code faisait suite au rapport du « Groupe d’experts de haut niveau » publié en mars 2018. « Je suis très heureuse qu’il reflète tous nos principes : transparence, diversité, crédibilité et inclusion » avait déclaré la commissaire européenne à l’Économie et à la Société numérique Mariya Gabriel à propos de ce rapport.

Certains des experts en question n’ont pas perçu les choses de la même manière. En mars 2018, lors de la troisième réunion du groupe, « les plateformes ont entamé un âpre bras-de-fer en coulisses pour influencer les autres experts » estime l’un des membres du groupe. Deux d’entre eux ont accepté de témoigner auprès d’Investigate Europe à condition de rester anonymes – en raison d’une clause de confidentialité signée par tous les experts.

Une troisième membre, la directrice générale du Bureau européen des unions de consommateurs (BEUC), Monique Goyens, est plus directe : « Nous avons été victimes de chantage » affirme-t-elle.

Les trente-neuf membres du groupe se sont réunis pour la première fois en janvier 2018. Parmi eux : des représentants de grandes entreprises de presse (comme Bertelsmann en Allemagne ou le groupe de télévision britannique Sky), d’importantes ONG (comme Reporters sans frontières ou Wikimedia), des scientifiques, ainsi que des employés de Facebook et de Google.

Les choses se sont envenimées lorsque Goyens et d’autres membres du groupe ont proposé de réfléchir à la possibilité d’avoir recours aux politiques européennes de régulation de la concurrence pour lutter contre les fake news. Une telle décision aurait permis à la commissaire européenne à la Concurrence d’examiner les modèles économiques des géants du numérique pour déterminer s’ils pouvaient structurellement favoriser la course à la désinformation. « Nous voulions savoir si les plateformes abusaient de leur pouvoir de marché », explique Goyens.

Elle se souvient que lors de la pause qui a suivi, le lobbyiste en chef de Facebook Richard Allan (qui faisait lui aussi partie du groupe) lui a glissé : « Nous sommes heureux d’apporter notre contribution mais si vous poursuivez sur cette voie, nous allons être en désaccord ».

Allan a exprimé plus clairement le fond de sa pensée à un autre membre du groupe. « Il a menacé de stopper le soutien financier de Facebook à des projets scientifiques et universitaires si nous ne stoppions pas les discussions à propos des outils de régulation de la concurrence », témoigne-t-il.

Facebook a refusé de commenter ces incidents. Le vote qui avait été proposé sur les outils européens relatifs à la concurrence n’a finalement jamais eu lieu.

Mise à jour, 22 mai 2019: Dans une déclaration transmise à Buzzfeed News, Facebook réagit : « Il s’agit du compte-rendu biaisé d’une discussion technique à propos de la meilleure manière pour un groupe interprofessionnel de résoudre les problèmes liés aux fausses informations. Nous pensons que le Code de conduite constitue une vrai avancée, et nous attendons de pouvoir travailler avec les institutions européennes pour le mettre en œuvre. »

Conflits d’intérêts?

Les géants du numérique avaient d’autres moyens de peser sur les décisions du groupe d’experts. Tous les experts « n’ont pas été informés du fait que certains [de leurs collègues] avaient un conflit d’intérêts car ils travaillaient pour des organisations qui percevaient de l’argent de ces plateformes », assure Goyens.

« Les gens de Google n’ont pas beaucoup eu à se battre pour défendre leurs positions », ajoute un autre membre du groupe sous couvert d’anonymat : « Nous avons vite compris qu’ils avaient des alliés autour de la table ».

Au moins dix organismes qui comptaient des représentants au sein du groupe d’experts ont touché de l’argent de Google. L’Institut Reuters pour l’étude du journalisme, rattaché à l’Université d’Oxford, en fait partie. D’ici à 2020, l’Institut aura reçu près de 10 millions d’euros de Google pour financer sa publication phare, le « Digital News Report ». Google est l’un des 14 bailleurs de fonds de cet important projet, né en 2015. L’Institut a déclaré cette relation de financement à la Commission européenne lorsqu’il a postulé pour faire partie du groupe d’experts.

Plusieurs autres institutions présentes dans le groupe ont également reçu de l’argent du fonds « Digital News Initiative » de Google, parmi lesquelles le Poynter Institute (une école de journalisme basée en Floride) et l’association First Draft News.

Interrogé sur le processus de sélection et les potentiels conflits d’intérêts au sein du groupe, le cabinet de la commissaire Gabriel a assuré qu’il avait examiné très scrupuleusement les candidatures d’organismes disant avoir reçu des fonds de Google afin d’éliminer les candidats qui « auraient des intérêts de nature à compromettre – ou pouvant être vus comme de nature à compromettre – leur capacité à agir de manière indépendante », précise un membre du cabinet.

Divina Frau-Meigs, professeure de sciences de l’information et de la communication à l’Université Paris 3 Sorbonne Nouvelle, également membre du groupe d’experts, insiste sur l’intégrité des chercheurs du groupe – qui, estime-t-elle, ont travaillé honnêtement et scrupuleusement.

Mais elle trouve néanmoins problématiques les liens financiers entre les plateformes et certains autres membres du groupe : « C’est une relation de dépendance très subtile. Il est difficile de se pencher sur la plateforme qui vous finance – même sans contrepartie. Ce lien financier vous rend suspect d’une forme d’autocensure ».

« Il est de notoriété publique que Google, Facebook et d’autres entreprises du numérique donnent de l’argent à des universitaires et des journalistes » relève la députée allemande Ska Keller. « C’est un problème, car ils peuvent menacer de couper ces fonds si ces universitaires ou journalistes les critiquent dans l’une de leurs publications ».

Frau-Meigs souligne l’importance d’un financement indépendant pour les universités et les médias. « Google et Facebook financent ces partenariats directement via leur département marketing – et pas à travers des fondations, plus neutres », ajoute-t-elle.

Pour la professeure, le fait que les plateformes en ligne soutiennent financièrement des universitaires et des journalistes n’est pas forcément un problème en soi – tant que cela se fait de manière transparente –, mais l’absence de critères clairs et d’une entité de financement distincte (telle qu’une fondation) en est un. Cela peut mener à des situations complexes et opaques, ainsi que l’a démontré le cas du groupe d’experts. « Les plateformes ne devraient pas exercer leur influence comme elles le font aujourd’hui », conclut Frau-Meigs.

Un code bancal

À sa création, le groupe « de haut niveau » sur les fake news et la désinformation en ligne avait de grandes ambitions. La commissaire Gabriel, alertée par le référendum sur le Brexit et l’élection de Trump, annonçait dès l’automne 2017 : « La question des fake news n’est pas nouvelle, mais la vitesse et l’étendue de leur diffusion en ligne sont sans précédent ». La création d’un groupe permettra « de trouver des solutions communes à ce phénomène en pleine expansion », promettait-elle.

Le Code de bonnes pratiques adopté par la Commission européenne en septembre contenait certainement des recommandations pertinentes. Il reconnaissait la nécessité d’améliorer le contrôle des placements de publicités, de garantir la transparence concernant les publicités à caractère politique et les publicités dites « engagées », de mettre en place des règles et des avertissements clairs concernant les robots – afin qu’ils ne soient pas confondus avec des humains –, et de réduire la visibilité des informations mensongères en rendant les contenus fiables plus accessibles, tout en s’assurant que les utilisateurs aient accès à plusieurs sources d’information différentes présentant des points de vue « contrastés ».

Il comportait toutefois un « oubli » de taille : le mécanisme proposé par Goyens et d’autres, qui aurait forcé les plateformes à être plus transparentes sur leur modèle économique, et aurait par conséquent pu aider les législateurs à déterminer si ces modèles pouvaient permettre ou encourager la désinformation. Les géants du net ont tout fait pour éviter qu’il soit retenu, selon les membres du groupe avec lesquels Investigate Europe a pu s’entretenir.

Un an après, les conséquences de cette obstruction apparaissent clairement. Le Code de bonnes conduites repose sur la seule base du volontariat. Aucune loi n’a été adoptée. Hormis les discours musclés, il n’existe aucun moyen de faire pression sur les plateformes pour qu’elles remplissent leurs devoirs. Elles se sont engagées à prendre des mesures plus fortes pour lutter contre les faux comptes, à privilégier les sources fiables et à indiquer clairement aux utilisateurs pourquoi ils voyaient des publicités à caractère politique (et qui les finançaient) ; mais en réalité, les progrès ont été limités.

Le Code de bonnes pratiques a été vivement critiqué par le Conseil consultatif mis en place par la Commission européenne pour faire le suivi des mesures concrètes prises suite au rapport du groupe d’experts. Ce conseil, composé de représentants de médias, de la société civile et d’universitaires, a estimé que le code « ne contenait aucune approche commune, aucun engagement clair et significatif, aucun objectif mesurable ou indicateur-clé de performance (KPI) – donc aucune possibilité d’évaluer les éventuels progrès –, et aucun outil d’exécution et de conformité. »

« Ça n’est absolument pas de l’auto-régulation ; et par conséquent, malgré les efforts des plateformes, ce n’est pas un Code de bonnes pratiques »

La Commission européenne elle-même a fait savoir qu’elle n’était pas satisfaite de ces résultats. « La Commission a besoin d’informations plus systématiques pour pouvoir évaluer les efforts déployés par les plateformes en ligne pour contrôler les placements de publicité, et mieux comprendre l’efficacité des actions prises contre les robots et les faux comptes », ont déclaré quatre commissaires dans un communiqué publié en mars.

Comme l’a révélé Investigate Europe cet été, les outils déployés par l’UE contre la désinformation restent largement inefficaces. En mars, alors même que la campagne pour les élections au Parlement européen avait commencé, Facebook et Google tentaient désespérément de faire fonctionner leurs nouvelles mesures de transparence dans les publicités.

L’argent n’est pas un problème

Pendant des années, Facebook et Google ont défendu leurs intérêts avec virulence à Bruxelles. Selon le registre des lobbyistes de l’UE, Facebook a consacré au moins 3.5 millions d’euros à ses employés dans la capitale européenne en 2018, et Google plus de 6 millions.

Quand il s’agit de certains sujets, ces sociétés sont prêtes à mettre encore davantage la main à la poche. Ainsi, l’an dernier, Google a dépensé près de 31 millions d’euros de lobbying pour s’opposer à un projet de réforme des droits d’auteurs – selon les calculs de l’association britannique de professionnels de la musique UK Music.

« Le Code de bonnes pratiques, c’était des conneries. C’était juste un cache-sexe. Tout ça était une diversion, c’était couru d’avance. Il s’agissait juste [pour les plateformes] de gagner du temps » résume Goyens.

Dans les 44 pages du rapport final du groupe d’experts, qui était supposé ouvrir la voie au Code de bonnes pratiques, aucune mention des outils de régulation de la concurrence qui avaient pourtant été si largement évoqués dans les discussions. Quant à la possibilité qu’il existe un lien entre le modèle économique des géants du numérique et l’étendue sans précédent des campagnes de désinformation, elle figure bien dans le rapport : dans les 80 maigres mots d’une note de bas de page.

Nous avons également demandé à Google de commenter ces révélations, mais la société n’a pas souhaité le faire.

Cet article fait partie de notre enquête de long cours sur la désinformation : « la machine à désinformer ». Faites défiler pour en savoir plus et lire l’un des articles publiés chez nos médias partenaires.