Conférence exceptionnelle " L'IA sous surveillance : traquer les biais et les atteintes aux droits "
Une conférence exceptionnelle vous attend !
L'IA sous surveillance : traquer les biais et les atteintes aux droits
Mercredi 10 décembre 2025 de 17h00 à 18h30
![]() | ![]() |
| Benoit Rottembourg Docteur en mathématiques appliquées Equipe-projet REGALIA, Inria | Jean-Michel Loubes Directeur de Recherche, Equipe-projet REGALIA, Inria |
![]() | ![]() |
| Victor Le Pochat Case Handler, European Commission, DG-Connect, DMA-Unit | Jeanne Mouton Case Handler, European Commission, DG-Connect, DMA-Unit |
Résumé
Les algorithmes d’intelligence artificielle jouent un rôle de plus en plus déterminant dans nos interactions avec les entreprises. Qu’il s’agisse de choisir un billet de train, d’acheter un produit sur un site de commerce en ligne ou d’ouvrir un compte bancaire à distance, nos décisions sont influencées par des recommandations et des mécanismes qui orientent une part significative de nos choix.
Ces pratiques algorithmiques, alimentées par des données comportementales souvent très fines, manquent fréquemment de transparence, voire de neutralité. À notre insu, elles peuvent véhiculer des biais, et lorsqu’elles sont déployées par des acteurs dominants sur leur marché, elles risquent d’engendrer des pratiques anticoncurrentielles. Sur les réseaux sociaux ou via des agents conversationnels, des défaillances algorithmiques peuvent même menacer la santé mentale ou la démocratie. Identifier ces risques, garantir la conformité ou détecter les manquements représente un défi majeur – non seulement pour les concepteurs et les déployeurs de ces algorithmes, mais aussi pour les autorités chargées de superviser ces marchés.
Cette présentation réunira trois perspectives distinctes :
- Le point de vue du concepteur d’algorithmes, présenté par Jean-Michel Loubes, Directeur de recherche à l’Inria et responsable de la nouvelle équipe-projet Regalia. À travers l’exemple des réseaux de neurones profonds, nous explorerons les origines des biais algorithmiques qui, parfois, amplifient des biais historiques présents dans les données. Nous aborderons les méthodes de réparation possibles ainsi que leur impact sur les performances.
- Le point de vue de l’auditeur technique : comment débusquer des biais cachés, notamment lorsque l’algorithme constitue une « boîte noire » pour l’auditeur ? Benoît Rottembourg, ingénieur chez Regalia, montrera comment des méthodes d’optimisation simples permettent de détecter des biais contextuels (ou intersectionnels) dans des algorithmes de détection de fraude, tout en illustrant les limites de l’approche.
- Le point de vue de l’autorité de régulation, représenté par Jeanne Mouton et Victor Le Pochat, tous deux Case Handlers au sein de l’unité DMA (Digital Markets Act) de la DG CONNECT (Direction générale des réseaux de communication, du contenu et des technologies) de la Commission européenne. Ils présenteront le règlement sur les marchés numériques (DMA) et ses outils de mise en œuvre. A travers un exemple théorique de biais algorithmiques sanctionnables au titre du DMA, ils illustreront la manière dont de telles problématiques peuvent être investiguées. Ils détailleront un cas concret d’application du DMA, à travers les récentes décisions relatives aux spécifications d’interopérabilité d’Apple. En conclusion, ils expliqueront comment l’équipe DMA collabore avec des experts en science des données et en technologie.
Résumé
Artificial intelligence algorithms play an increasingly significant role in how we interact with businesses. Whether selecting a train ticket, purchasing a product on an e-commerce site, or opening an online bank account, our decisions are shaped by recommendations and influences that guide a substantial portion of our choices.
These algorithmic practices, fuelled by often highly granular behavioural data, frequently lack transparency—or even neutrality. Unbeknownst to us, they may harbour biases, and when deployed by dominant market players, they can lead to anti-competitive practices. On social media or as conversational agents, algorithmic malfunctions can pose threats to mental health or even democracy. Identifying these risks, ensuring compliance, or detecting non-compliance in these algorithms represents a major challenge—not only for those who design and deploy them but also for the authorities tasked with overseeing these markets.
In this presentation, we will bring together three distinct perspectives:
- The algorithm designer’s perspective, presented by Jean-Michel Loubes, Research Director at Inria and head of the new Regalia project team. Using deep neural networks as a case study, we will explore the origins of algorithmic biases that sometimes amplify historical biases in data. We will discuss possible remediation methods and their impact on performance.
- The technical auditor’s perspective: How can hidden biases be identified, particularly when the algorithm is a "black box" to the auditor? Benoit Rottembourg, engineer at Regalia, will demonstrate how simple optimization methods can detect contextual (or intersectional) biases in fraud detection algorithms and the limits of the approach.
- The regulatory authority’s perspective, represented by Jeanne Mouton and Victor Le Pochat, both case handlers within the DMA unit of DG CONNECT, the Directorate-General for Communications Networks, Content and Technology at the European Commission. They will present the Digital Markets Act and its enforcement toolbox. They will use a theoretical example of algorithmic biases that could be sanctioned under the DMA to explain how such issues can be investigated. Following this, they will present a concrete example of DMA enforcement through the recent Apple interoperability specification decisions. They will conclude with an explanation of how the DMA team collaborates with data scientists and technologists.
Deux options d'inscription :
- En présentiel, au Centre Inria de Paris, 48 rue Barrault, 75013 Paris - L' évènement sera suivi d'un cocktail.
- En distanciel, format webinaire.
| Ticket | Sales end date | Left | Price |
|---|---|---|---|
|
PRESENTIEL - Membre Inria+alumni et Inria
Centre Inria de Paris - 13ème
Une pièce d'identité pourra vous être demandée à l'accueil
|
12.08.25
17:00
|
121
|
Free
|
|
DISTANCIEL / Livestorm - Membre Inria+alumni et Inria
(lien de connexion à vous transmettre séparément, à l'adresse mail d'inscription - lien personnel)
|
12.08.25
17:00
|
-
|
Free
|
|
DISTANCIEL / Livestorm - Partenaires / invités
(lien de connexion à vous transmettre séparément, à l'adresse mail d'inscription - lien personnel)
|
12.08.25
17:00
|
-
|
Free
|
|
PRESENTIEL - Partenaires / invités
Centre Inria de Paris - 13ème
Une pièce d'identité pourra vous être demandée à l'accueil
|
12.08.25
17:00
|
48
|
Free
|



