Visuel
Serena Villata
© Université Côte d’Azur
Biographie

Chercheuse au CNRS et au centre Inria de l'Université te d'Azur, Spécialiste en Intelligence Artificielle et, plus précisément, du traitement automatique du langage naturel et de l'analyse et génération automatique d’arguments. Lauréate 2021 du prix Jeune chercheur Inria – Académie des sciences.

Directrice scientifique adjointe du 3IA Côte dAzur, et membre du Comité National Pilote dEthique du Numérique (CNPEN)

Semaine contre le racisme dans l'enseignement supérieur : entretien avec Serena Villata, chercheuse au CNRS et spécialiste en Intelligence Artificielle
Interview
  • Vous êtes chercheuse dans le domaine de l’intelligence artificielle, et vous avez reçu le prix Jeune chercheur Inria pour vos créations d’outils capables d’analyser la structure logique de textes, de discours, de tweets, pour repérer les fake news. En quoi ces outils sont-ils prometteurs pour détecter et prévenir des propos discriminants ou haineux en ligne?

Le nombre de fausses nouvelles et de messages abusifs ne cesse d'augmenter ces dernières années, ce qui rend difficile pour les modérateurs humains de les vérifier tous. L'avantage de faire appel à des algorithmes d'IA est qu'ils peuvent permettre de surmonter ce problème, en effectuant une première classification de ces contenus dangereux et en laissant la décision finale de la modération aux humains. Ceci afin de détecter ces contenus nuisibles. En ce qui concerne la prévention, une étape importante consiste à éduquer les utilisateurs sur les conséquences dangereuses de la diffusion de fausses nouvelles, de contenus non vérifiés ou de messages haineux. Nous abordons ces questions en engageant les utilisateurs dans des contre-récits et des explications, avec pour objectif final de développer l'esprit critique de l'utilisateur.

  • Vos outils permettent notamment d'identifier les internautes victimes de misogynie, d’homophobie, de racisme ou de toute autre forme de haine en ligne. Vous les mettez en application dans le cadre d’un projet auprès des étudiants (projet OTESIA). Quels éléments vous apporte cette mise en application?

Dans le cadre du projet OTESIA, nous nous rendons dans des écoles (collèges et lycées) pour parler des algorithmes d'IA qui visent la détection des discours de haine. La démarche comprend deux étapes : dans un premier temps, nous demandons aux étudiants, de faire un jeu de rôle dans un contexte de la cyber-haine où ils interagissent via un système de messagerie en ligne. Puis une sociologue leur explique les conséquences de ces conversations dans la vie réelle, les dangers, et plus généralement la problématique de la cyber-violence. Nous menons ces expériences dans les écoles pour collecter des données textuelles en français afin de créer un jeu de données annoté pour entraîner nos algorithmes de détection des discours de haine à identifier automatiquement ce type de contenu.

  • Comment se prémunir contre les marges d’erreur dans l’analyse des discours, plus importantes que dans l’analyse d’images, puisqu’il s’agit d’analyser un contexte d’énonciation, et ainsi contre le risque de censure abusive ?

Les algorithmes dIA, et de TALN plus particulièrement, même s'ils atteignent des performances exceptionnelles, sont toujours sujets à des erreurs, en particulier pour des tâches telles que la détection des arguments fallacieux, la contre-argumentation et la détection des discours haineux. Cependant, notre objectif n'est pas de laisser la décision finale entre les mains de la machine mais de laisser le contrôle aux humains afin d'éviter de limiter la liberté d'expression ou la surcensure. Les algorithmes doivent soutenir les humains dans la tâche de détection afin de leur permettre de prendre des décisions meilleures et plus informées.

  • Une majorité d’algorithmes sont construits, testés et vendus par des hommes, occasionnant des biais discriminants dans les usages. Un des axes de votre travail est l’engagement pour une IA éthique. Etre présente comme chercheuse en tant que femme, est-ce déjà un levier d’action contre cette discrimination ? 

Je ne considère pas mon activité de chercheuse scientifique comme un levier d’action contre cette discrimination. J'espère que mon parcours pourra inspirer des jeunes femmes à travailler sur des sujets scientifiques, car nous avons vraiment besoin de plus de femmes dans ce domaine. Malheureusement, les biais peuvent être injectés dans les données et dans les algorithmes, tant par les hommes que par les femmes, car ils sont intrinsèques à la société humaine.

  • Cela vous semblerait important que les chercheurs soient associés à l’éducation aux médias et à l’information ? De quelle manière envisager des partenariats entre chercheurs et professionnels de la médiation ?

Je soutiendrais fortement l'implication des chercheurs dans cette démarche d'éducation des utilisateurs en ligne, car ils ont un rôle majeur à jouer étant donné leurs recherches sur les dernières avancées de la technologie, et étant eux des acteurs de la sphère publique. Cette démarche d'éducation pourrait par exemple être promue par les principaux acteurs publics de la recherche technologique en France comme l'Inria, le CNRS et les instituts 3IA (ANITI, MIAI, PR[AI]RE, 3IA Côte d’Azur).

  • Disposer d’outils capables de déceler les fake news, c’est une première étape pour réguler la désinformation en ligne. Quelles seraient les autres étapes essentielles selon vous ?

L'étape suivante consiste à développer l'esprit critique de l'utilisateur. L'idée est qu'il ne suffit pas d'identifier et de signaler une fake news, mais qu'il est nécessaire d'expliquer à l'utilisateur pourquoi il s'agit d'une fake news. Cette explication a pour but de faire comprendre à l'utilisateur qu'il s'agit d'une fake news et donc d'éviter de diffuser un contenu aussi dangereux en ligne. Nous abordons cette question en engageant l'utilisateur dans un dialogue argumenté pour présenter ses contre-arguments contre la fausse nouvelle identifiée, en montrant le côté trompeur de ce contenu.

Propos recueillis par Mathilde Larrieu le 10/03/2022