Oana Goga : de la désinformation à la transparence, la science comme levier démocratique
Date:
Mis à jour le 06/06/2025
Dès le lycée, je savais que voulais travailler sur Internet. J’ai toujours trouvé l’innovation technologique d’internet fascinante et je désirais y participer. Dans mon pays d’origine, la Roumanie, la recherche était souvent perçue comme un "choix par défaut", réservé à ceux qui ne décrochaient pas de bons postes d’ingénieurs. En France, j’ai découvert une autre réalité.
Je suis d’abord venue en France pour un stage de type Erasmus, puis comme ingénieure de recherche chez Inria et à l'ENS de Lyon. C’est là que j’ai compris que c’étaient les chercheurs qui menaient la recherche. J’ai donc recalibré mon parcours pour entamer une thèse. Cela n’a pas été simple. Personne ne voulait me prendre en thèse au début. J’ai donc refait un master, j’ai eu d’excellentes notes, et cela m’a ouvert des portes.
J’ai commencé une thèse en 2009 sur le thème de la mesure de la vitesse d’Internet. Mais rapidement, au bout de quelques mois, j’ai eu l’impression de ne pas avoir choisi le bon sujet et d’arriver à la fin d’une époque : les grandes avancées techniques avaient déjà eu lieu pour Internet. Et, en parallèle à ces réflexions, Google, Facebook, les réseaux sociaux prenaient de l’ampleur… et je voyais surgir de nouveaux risques dans les travaux, notamment sur la vie privée.
J’ai donc décidé, non sans crainte, de changer radicalement de sujet de thèse pour me consacrer aux risques posés par les réseaux sociaux. Ce n’était pas un sujet "sérieux" à l’époque. Il m’est arrivé d’avoir 11 rejets sur deux papiers, c’était très dur. Mais j’ai aussi rencontré des personnes clés, comme Krishna P. Gummadi, directeur au Max Planck Institute en Allemagne, qui a cru en mes travaux. C’est lui qui m’a donné les outils et la confiance pour aller plus loin.
C’est une des leçons de mon parcours : l’environnement et les personnes qu’on rencontre peuvent tout changer. Il suffit qu’un chercheur ou une chercheuse reconnu vous dise : "Tu es capable", et cela devient possible.
J'aspirais déjà à aller assez haut dans mes recherches, j’ai toujours voulu être une très bonne chercheuse et j’aspirais à publier dans les meilleures conférences. Jusqu’à ce que Krishna P. Gummadi me dise cette phrase : "Ce que tu dois viser, ce n’est pas de publier dans les meilleures conférences, c’est d’obtenir les meilleurs papiers dans les meilleures conférences". Un déclic. Je travaille toujours avec cet état d’esprit encore aujourd’hui.
Je me suis longtemps considérée comme chanceuse. Pendant mes premières années, je n’ai pas ressenti de difficultés particulières. C’est une période où le travail était très individuel et reposait beaucoup sur ton encadrant. Si ton encadrant est bien, tout va bien, tu avances. Cela a été mon cas.
Mais curieusement, les choses se sont compliquées une fois que j’étais en poste et que j'ai commencé à devoir interagir avec plus de monde. Je n’étais pas toujours prise au sérieux, notamment quand je signalais des blocages administratifs qui m’empêchaient de faire de la recherche. Et ce n’étaient pas toujours des hommes, d’ailleurs.
Ce n’est qu’avec le temps, en m’affirmant comme chercheuse, que j’ai pu poser des limites. Quand on gagne en assurance scientifique, on doute moins de la légitimité de ses besoins. On apprend à être plus directe, à imposer son autorité.
En France, il y a beaucoup d'initiatives pour aider les femmes scientifiques en France, par exemples, pour le recrutement dans les instituts ou pour rendre les femmes plus visibles. Je pense avoir bénéficié du travail des générations précédentes.
J’étudie les risques liés aux plateformes en ligne : désinformation, vie privée, publicité politique, impact sur la santé mentale… J’essaie d’apporter des données concrètes et rigoureuses sur ces phénomènes. Ces problématiques sont très centrales dans la société actuelle, mais au début de ma carrière, nous n’étions que trois à étudier les réseaux sociaux.
J’ai été l’une des premières à m’intéresser à la publicité politique en ligne, avant même l’affaire Cambridge Analytica. J’ai développé un outil collaboratif pour collecter des exemples de publicités ciblées et comprendre pourquoi elles étaient adressées à certains profils. L’objectif était d’apporter plus de transparence. Beaucoup de mes travaux sont arrivés assez tôt dans les débats, au moment où les législateurs avaient besoin de prendre rapidement des décisions. J’ai été entendu par la Commission européenne lors de la rédaction du Digital Services Act. Grâce à nos publications, j’ai pu demander que des obligations de transparence soient inscrites dans la loi. Ce qui est désormais le cas.
Nous avons aussi montré que la définition même de "publicité politique" est problématique : dans 50% des cas, selon le contenu ou le contexte, les gens n’ont pas la même perception. L’implémentation informatique est donc très complexe. Par exemple, pour les publicités qui parlent des problèmes d’intérêt général pour la société comme l’avortement ou l’immigration, la frontière peut être fine entre une publicité politique ou humanitaire. On ne peut pas juste interdire ou restreindre sans risquer de nuire aussi à la société civile. En revanche, on peut donc demander plus de transparence.
Il y a beaucoup de méthodologie de mesure et d’expériences scientifiques qui se basent les dons de données individuels et la participation citoyenne. C'est souvent la seule façon de pouvoir faire des audits externes de la démocratie, sans être dépendants des plateformes et de ce qu'elles nous donnent. J’aimerais qu’il existe de grandes campagnes de sensibilisation sur le sujet, d’ici là, pour ceux qui souhaitent, je mets en place un panel européen pour surveiller la désinformation. Chacun peut s’inscrire sur notre liste de diffusion pour recevoir les informations.
Nous avons deux grands axes. D’abord, détecter les campagnes coordonnées d’influence en ligne. L’idée n’est pas de dire si une information est vraie ou fausse, mais d’analyser les dynamiques globales : si des groupes organisés diffusent un agenda politique sous différents canaux, on peut le détecter. Ce sont des travaux sensibles, mais essentiels.
Le deuxième axe vise à comprendre et mesurer si les algorithmes publicitaires exploitent les biais cognitifs de façon prédictive. Je travaille avec des économistes pour élaborer cette méthodologie de mesure rigoureuse. Nous recrutons des volontaires, identifions leurs biais via des tests, puis regardons si les algorithmes repèrent ces biais et les exploitent dans leurs publicités. Parmi nos méthodes, nous mettons par exemple en compétition des publicités pour voir ce que choisit l’algorithme. Les premiers résultats montrent que, oui, l’algorithme peut exploiter ces biais de façon prédictive.
Plus largement, il faut aussi choisir ses batailles. On ne peut pas tout étudier. Dans l’équipe Cedar à laquelle j’appartiens, quatre doctorants travaillent avec moi et je travaille aussi avec les chercheuses Ioana Manoslescu et Oana Balalau. J’ai décidé de me concentrer sur Facebook et YouTube, car ce sont les plateformes les plus influentes, même si les données sont plus complexes à obtenir. Nous avons aussi mené des travaux sur les mineurs, sur la désinformation… Mais aujourd’hui, je pense qu’une partie du travail doit aussi être portée par les législateurs. La science peut alerter, documenter, mesurer, proposer. Mais à un moment, il faut que les règles changent.