Conférence exceptionnelle " L'IA sous surveillance : traquer les biais et les atteintes aux droits "

CD
CP
ML
PW
CR
108 attendees and 3 interested
Centre Inria de Paris
48, rue Barrault
75013 PARIS
48, rue Barrault 75013 PARIS

See map

Online
Sorry, this content is not available in English

Une conférence exceptionnelle vous attend !

L'IA sous surveillance : traquer les biais et les atteintes aux droits

Mercredi 10 décembre 2025 de 17h00 à 18h30


Benoit Rottembourg
Docteur en mathématiques appliquées
Equipe-projet REGALIA, Inria
Jean-Michel Loubes
Directeur de Recherche,
Equipe-projet REGALIA, Inria
Victor Le Pochat
Case Handler, European Commission, DG-Connect, DMA-Unit
Jeanne Mouton
Case Handler, European Commission, DG-Connect, DMA-Unit


Résumé

Les algorithmes d’intelligence artificielle jouent un rôle de plus en plus déterminant dans nos interactions avec les entreprises. Qu’il s’agisse de choisir un billet de train, d’acheter un produit sur un site de commerce en ligne ou d’ouvrir un compte bancaire à distance, nos décisions sont influencées par des recommandations et des mécanismes qui orientent une part significative de nos choix.

Ces pratiques algorithmiques, alimentées par des données comportementales souvent très fines, manquent fréquemment de transparence, voire de neutralité. À notre insu, elles peuvent véhiculer des biais, et lorsqu’elles sont déployées par des acteurs dominants sur leur marché, elles risquent d’engendrer des pratiques anticoncurrentielles. Sur les réseaux sociaux ou via des agents conversationnels, des défaillances algorithmiques peuvent même menacer la santé mentale ou la démocratie. Identifier ces risques, garantir la conformité ou détecter les manquements représente un défi majeur – non seulement pour les concepteurs et les déployeurs de ces algorithmes, mais aussi pour les autorités chargées de superviser ces marchés.

Cette présentation réunira trois perspectives distinctes :

  1. Le point de vue du concepteur d’algorithmes, présenté par Jean-Michel Loubes, Directeur de recherche à l’Inria et responsable de la nouvelle équipe-projet Regalia. À travers l’exemple des réseaux de neurones profonds, nous explorerons les origines des biais algorithmiques qui, parfois, amplifient des biais historiques présents dans les données. Nous aborderons les méthodes de réparation possibles ainsi que leur impact sur les performances.
  2. Le point de vue de l’auditeur technique : comment débusquer des biais cachés, notamment lorsque l’algorithme constitue une « boîte noire » pour l’auditeur ? Benoît Rottembourg, ingénieur chez Regalia, montrera comment des méthodes d’optimisation simples permettent de détecter des biais contextuels (ou intersectionnels) dans des algorithmes de détection de fraude, tout en illustrant les limites de l’approche.
  3. Le point de vue de l’autorité de régulation, représenté par Jeanne Mouton et Victor Le Pochat, tous deux Case Handlers au sein de l’unité DMA (Digital Markets Act) de la DG CONNECT (Direction générale des réseaux de communication, du contenu et des technologies) de la Commission européenne. Ils présenteront le règlement sur les marchés numériques (DMA) et ses outils de mise en œuvre. A travers un exemple théorique de biais algorithmiques sanctionnables au titre du DMA, ils illustreront la manière dont de telles problématiques peuvent être investiguées. Ils détailleront un cas concret d’application du DMA, à travers les récentes décisions relatives aux spécifications d’interopérabilité d’Apple. En conclusion, ils expliqueront comment l’équipe DMA collabore avec des experts en science des données et en technologie.

Résumé

Artificial intelligence algorithms play an increasingly significant role in how we interact with businesses. Whether selecting a train ticket, purchasing a product on an e-commerce site, or opening an online bank account, our decisions are shaped by recommendations and influences that guide a substantial portion of our choices.

These algorithmic practices, fuelled by often highly granular behavioural data, frequently lack transparency—or even neutrality. Unbeknownst to us, they may harbour biases, and when deployed by dominant market players, they can lead to anti-competitive practices. On social media or as conversational agents, algorithmic malfunctions can pose threats to mental health or even democracy. Identifying these risks, ensuring compliance, or detecting non-compliance in these algorithms represents a major challenge—not only for those who design and deploy them but also for the authorities tasked with overseeing these markets.

In this presentation, we will bring together three distinct perspectives:

  1. The algorithm designer’s perspective, presented by Jean-Michel Loubes, Research Director at Inria and head of the new Regalia project team. Using deep neural networks as a case study, we will explore the origins of algorithmic biases that sometimes amplify historical biases in data. We will discuss possible remediation methods and their impact on performance.
  2. The technical auditor’s perspective: How can hidden biases be identified, particularly when the algorithm is a "black box" to the auditor? Benoit Rottembourg, engineer at Regalia, will demonstrate how simple optimization methods can detect contextual (or intersectional) biases in fraud detection algorithms and the limits of the approach.
  3. The regulatory authority’s perspective, represented by Jeanne Mouton and Victor Le Pochat, both case handlers within the DMA unit of DG CONNECT, the Directorate-General for Communications Networks, Content and Technology at the European Commission. They will present the Digital Markets Act and its enforcement toolbox. They will use a theoretical example of algorithmic biases that could be sanctioned under the DMA to explain how such issues can be investigated. Following this, they will present a concrete example of DMA enforcement through the recent Apple interoperability specification decisions. They will conclude with an explanation of how the DMA team collaborates with data scientists and technologists.




Deux options d'inscription :

  • En présentiel, au Centre Inria de Paris, 48 rue Barrault, 75013 Paris - L' évènement sera suivi d'un cocktail.
  • En distanciel, format webinaire.
Evènement Inria Alumni
Ticket Sales end date Left Price
PRESENTIEL - Membre Inria+alumni et Inria
Centre Inria de Paris - 13ème Une pièce d'identité pourra vous être demandée à l'accueil
12.08.25
17:00
121
Free
DISTANCIEL / Livestorm - Membre Inria+alumni et Inria
(lien de connexion à vous transmettre séparément, à l'adresse mail d'inscription - lien personnel)
12.08.25
17:00
-
Free
DISTANCIEL / Livestorm - Partenaires / invités
(lien de connexion à vous transmettre séparément, à l'adresse mail d'inscription - lien personnel)
12.08.25
17:00
-
Free
PRESENTIEL - Partenaires / invités
Centre Inria de Paris - 13ème Une pièce d'identité pourra vous être demandée à l'accueil
12.08.25
17:00
48
Free

Centre Inria de Paris

48, rue Barrault 75013 PARIS

Please log in to see or add a comment