Commons AI session 2 Gouvernance avec Ramya Chandrasekhar, Jean Cattan et Vincent Bachelet

Gouvernance des IA : quelles solutions pour contrer les asymétries de pouvoir entre producteurs et utilisateurs d’IA ?

Le 10 décembre 2025, la journée Commons AI a été dédiée à l’Intelligence Artificielle dans une démarche de communs. Elle s’est déroulée dans le cadre de l’évènement Future of Software Technologies, au CNIT de la Défense. Dans le cadre de cette journée, trois sessions ont été organisées afin de couvrir chacun des trois piliers des communs : 1/ ressource 2/communauté et 3/gouvernance. Les quinze interventions tout au long de la journée ont donné à voir des initiatives en cours et des pistes de solutions pour des IA plus respectueuses des principes d’ouverture et de communs. Chaque session a été l’occasion, en plus des interventions, d’échanges fructueux et dynamiques entre participant.e.s et audience.
Nous vous proposons sous forme de trois billets un retour global sur chaque session et un résumé des interventions.

Ce deuxième billet est consacré aux enjeux de gouvernance liés à l’IA.

Retrouvez le premier billet déjà en ligne « Commons AI : un besoin essentiel d’accès à des données de qualité« 

Dans la deuxième session “gouvernance”, quatre intervenants ont présenté une diversité d’initiatives à l’œuvre ou de réflexions en cours visant à rééquilibrer les rapports de force entre producteurs/propriétaires de modèles d’IA et utilisateurs de ces systèmes. Il est communément admis que nous nous trouvons dans des rapports de pouvoirs totalement asymétriques entre les déployeurs des IA et des consommateurs de plus en plus « captifs ».

Le rôle de l’État et les moyens dont il dispose pour rétablir un équilibre, peut être interrogé. Il y a moins de vingt ans, la loi Hadopi est venue réprimer sévèrement la copie et le scrapping, là où ces mêmes pratiques sont aujourd’hui, monnaie courante des grands modèles de fondation et reconnues indirectement comme signes d’innovation. À l’heure actuelle, les procès contre des Big Tech sont à l’initiative d’individus et non pas des gouvernements. L’étude des controverses autour des données d’entrainement des modèles d’IA, en matière de propriété intellectuelle et de protection des données personnelles, dresse ce constat. Ce sont en effet quelques organisations privées qui se sont élevées contre les pratiques abusives de grands modèles de fondation – à l’image des procès en cours par exemple contre Meta ou Github.

Aujourd’hui quelles sont les pistes de solutions ? Plusieurs licences sont développées dans une démarche éthique pour contrer certains usages. Même si cette multiplication de licences questionne leur véritable efficacité, elles viennent matérialiser les principales revendications des divers utilisateurs d’IA (chercheurs, communautés minoritaires, etc.) cherchant à se protéger. À ce titre, elles permettent de prioriser les actions à mener.

Les mécanismes fiduciaires sont aujourd’hui présentés comme une opportunité pour opérer ce contrôle envers des producteurs d’IA en faisant valoir les droits de consommateurs et en veillant à les faire respecter. Les data trusts sont vus comme une piste intéressante qu’il s’agit désormais d’opérer dans le droit français en s’appuyant, voire en détournant des structures existantes telles que les fonds de dotation. Est aussi questionné le statut des organisations qui produisent et exploitent les briques technologiques sous-jacentes aux systèmes d’IA : Probabl. illustre ainsi comment la maintenance des briques essentielles de projets d’IA (employant les bibliothèques scikitlearn) est un enjeu qui a trouvé un équilibre entre respect des dynamiques communautaires open source et soutien économique suffisant au projet.

La question des communs reste majeure pour offrir une voie alternative et jouer le rôle de challenger dans les rapports de force actuels pour réussir à faire bouger les lignes. À cet égard, la création récente du consortium EDIC Digital Commons à l’échelle européenne offre un espace fécond pour l’émergence de voies alternatives.

Vous trouverez ci-dessous un résumé des interventions ainsi que l’audio et la présentation associée.

Frictions légales pour la réutilisation du web ouvert pour l’entrainement d’IA

Avec Ramya Chandrasekhar (Centre Internet et Société/CNRS)

Ramya Chrandreskhar, chercheuse au Centre Internet et Société (CNRS) a réalisé une étude en 2024 sur les enjeux d’ouverture associés à l’utilisation de données d’entrainement de modèle d’IA. En collaboration avec inno³ et l’Open Knowledge Foundation, elle a étudié les frictions associées aux questions de copyright et de protection des données. Plusieurs controverses sont en effet nées de l’usage de données sous copyright par des modèles de fondation, qui se servent de données du web en outrepassant les règles de la propriété intellectuelle et les droits d’utilisateurs individuels. Cela pose notamment aujourd’hui un problème majeur pour le web ouvert qui se voit être plus utilisé que ce qu’il peut produire comme ressource. La soutenabilité de cet espace du web ouvert est ainsi remise en cause. Plusieurs controverses peuvent être citées autour de l’usage de données publiques, par exemple autour de code source dont les licences n’ont pas été respectées (doe vs. Github) ou bien l’utilisation de contenu provenant de bibliothèques « pirates  » (Kadrey vs. Meta).

Ramya Chandrasekhar Commons AI présentation
Présentation de Ramya Chandrasekhar (Centre Internet et Société/CNRS)

Face à cette situation et pour contrer ce pillage, un ensemble d’initiatives se sont développées spécifiquement autour de la proposition de licences. L’open source initiative a par exemple publié sa définition relative aux systèmes d’IA Open Source en traduisant dans ce contexte les quatre libertés de la définition du logiciel libre. D’autres licences sont apparues proposant des spécificités d’usage. Par exemple la licence RAIL (Responsible AI License) pose un cadre d’utilisation restreint pour limiter certains usages, la licence Montréal développe une nouvelle taxonomie d’usage des données, la licence Open data commons catégorise plusieurs options spécifiques en fonction des données personnelles, AI2impact de l’Allen Institute ou encore la Nwulite Obodo licence, propose une licence dual en fonction de son origine géographique (Nord/Suds).

Cette prolifération de nouvelles licences interroge notamment sur leur interopérabilité et leur application. Néanmoins, leurs spécificités sont un reflet des besoins des communs. Cette situation frictionnelle est ainsi à la base même d’action possible et d’un début de structure interopérable.

Lien vers l’audio (en anglais)
Lien vers la présentation

Gouverance des données d’IA : le modèle fiduciaire comme voie pour une création de valeur collective et maitrisée

Avec Vincent Bachelet (Université Paris-I-Panthéon-Sorbonne, inno³)

Vincent Bachelet, est consultant chez inno³ et chercheur post-doctorant à l’Université Paris-I-Panthéon-Sorbonne sur le projet OpenLLM. Il est revenu sur les applications possibles dans le domaine de l’IA de ses résultats de thèse sur la valorisation des communs numériques.

La question qui se pose est de savoir comment assurer le respect des droits de propriété intellectuelle sur les données servant à l’entrainement des modèles d’IA, notamment lorsque ces données sont partagées sous licences libres. Pour cela, le trust, et plus généralement le mécanisme fiduciaire, est un processus connu des écosystèmes FLOSS. Par exemple la Free Software Foundation Europe est aujourd’hui passée de l’usage de CLA (Contributor Licence Agreement) à celui de FLA (Fiduciary Licence Agreement). Le trust consiste en un transfert de biens et droits du constituant au fiduciaire (trustee). Ce dernier a la charge de gérer le patrimoine ainsi transmis, au profit d’un bénéficiaire – qui peut être le grand public – et selon les volontés du constituant. Plusieurs formes du trust existent selon la finalité poursuivie et le patrimoine faisant l’objet du trust. On assiste depuis quelques années au développement des data trusts. Dans ce dernier cas, des personnes peuvent donner des droits sur des données (personnelles ou non) à un trustee qui est responsables des obligations fiduciaires et peut négocier avec d’autres acteurs les conditions de réutilisation de ces données.

Dans le cadre de l’IA, un data trust peut aider à faire respecter la mise en application de l’opt out sur les données dans le cadre de l’exception de Text and Data Mining. Il s’assure de la gestion des droits et de la redistribution de la valeur. Néanmoins, ces data trusts ne sont pas applicables tels quels dans le droit français. Il semble cependant possible de mobiliser le fonds de dotation pour créer un patrimoine affecté permettant de reproduire sensiblement les mêmes effets et offrir les mêmes opportunités notamment pour l’IA.

Présentation de Vincent Bachelet (Inno3 et Université Paris I Panthéon Sorbonne)

Lien vers l’audio (en anglais)
Lien vers la présentation.

Faire des communs de données un prérequis pour l’utilisation d’Intelligence Artificielle

Avec Jean Cattan (Café IA)

Jean Cattan, responsable de la démarche nationale Café IA, a proposé de revenir sur quelques temps forts politiques du numérique et de ce que cela nous éclaire sur les dynamiques actuels autour de l’IA.

En 2008, une mobilisation générale des acteurs du libre avait permis de contrer la loi Hadopi, qui souhaitait couper l’accès à internet aux citoyens pour l’usage de réseaux pair à pair. Si cette bataille gagnée est un temps fort du mouvement de l’ouverture, ce n’est pas pour autant que la guerre a été gagnée comme le montre la position dominante prise aujourd’hui par les plateformes commerciales. L’IA aujourd’hui n’est qu’une étape ultime de la centralisation de plus en forte du numérique (sur les données, l’architecture) autour de quelques acteurs. Pire encore, ce qui était réprimé par le passé par le Gouvernement est actuellement encouragé. Hier, des “pirates”, qui avaient accès à des données de manière illégale sur des réseaux P2P, étaient combattus par le projet de loi Hadopi. Aujourd’hui, ceux qui déploient des modèles d’IA sont vus comme des “innovateurs”, même si cela s’appuie sur un scraping massif du web sans considération de la propriété intellectuelle. L’IA s’entraine en ce jour sur des sites pirates autrefois condamnés. Si Meta est en procès, ce n’est pas dû aux États, mais à des individus qui poursuivent cette entreprise. Aujourd’hui, le constat doit être fait que la structure étatique ne protège pas les citoyens contre cet oligopole de l’IA.

L’expérience menée par l’ARCEP, il y a plusieurs années afin d’assurer une ouverture du marché des télécoms en régulant fortement les acteurs monopolistique semble intéressante à rappeler dans notre contexte. En effet, on retrouve aujourd’hui des accords bilatéraux opaques entre IA et fournisseurs de contenus. Par exemple, la Presse signe des contrats avec les quelques acteurs majeurs de l’IA et passent de statut de fournisseurs de contenus à fournisseurs de gros. Cela amène notamment à un appauvrissement des ressources initiales. Par exemple, Wikipedia est en train de perdre une partie de ses lecteurs qui retrouvent ces informations sur des services d’IA.

Quelles seraient les pistes d’action ? La lutte anti-concurrentielle est un des axes d’attaques, mais n’aborde pas les questions d’un point de vue social. Il est important de penser la régulation en vue d’un rééquilibrage des forces. Est-ce que rendre obligatoire des mécanismes d’ouverture seraient possibles via des licences, des data trusts ? Les communs comme mode de gouvernance induisent cette capacité de poser des conditions pour ne pas être dans ce rapport de force asymétrique. Le consortium EDIC communs numériques (European digital infrastructures consortium) est une alliance utile à ce sujet. En Chine, le choix a été plus drastique avec la mise en place d’un système de gestion collective. L’idée en Europe n’est pas d’avoir des États qui trouvent des solutions, mais qui accompagnent ces solutions (quitte à se transformer en profondeur pour être en capacité d’agir fortement lorsque le marché ne se régule pas seul et nuit aux intérêts des usagers citoyens).

Presentation Jean Cattan session Gouvernance Commons AI
Présentation de Jean Cattan (responsable de la démarche nationale Café IA)

Lien vers l’audio (en anglais)
Lien vers la présentation

Gouvernance de Probabl et modèle économique : un commun essentiel dédié à l’IA open source

Avec Yann Lechelle (Probabl)

Yann Lechelle, directeur de Probabl.ai, dézoome la perspective de l’IA aujourd’hui centrée sur l’IA générative pour revenir sur le marchine learning avec un algorithme de référence Scikit learn, pour les sciences des données.

Aujourd’hui Scikit learn est une bibliothèque Python utilisée par énormément de projets avec au compteur plus de 2,3 milliards de téléchargements à l’internationale. En tant que brique élémentaire de nombreux projets notamment d’IA, sa maintenance est un enjeu essentiel. Pour cette raison, l’INRIA (là où a été développé initialement scikitlearn) a créé la spin off financée par l’État, Probabl. Au début de Probabl, la question s’est posée du maintien de ce commun (scikit learn) tout en s’inscrivant dans une dynamique commerciale qui permettrait de générer des flux. Pour cela l’idée a été de s’appuyer sur une méthode respectueuse de la communauté avec la création une entreprise à mission. Cette dernière se préoccupe à la fois du développement de la maintenance du commun (open source) créant des dividendes sociétaux et à la fois de développer des activités commerciales permettant des dividendes financières. Probabl est également garante de la marque.

La société se compose de 14 co-fondateurs et de capitaux risqueurs dont le modèle est compatible avec leur cadre d’investissement. En termes de service, il s’agit d’accompagner et d’aider des entreprises à rentrer dans la complexité du monde de la data science sur la base de scikit learn. Cela prend la forme d’accompagnement et de support, de certification et de formation. Avec ce modèle à la fois open source et open science, l’idée est de pouvoir garantir une autonomie. Yann Lechelle porte ses idées au sein de son dernier ouvrage ouvertarisme qui prône la nécessité d’une approche ouverte notamment en Europe (open science, open data, open hardware, open weights) pour venir contrer les Big Tech avec une posture de challenger (ex de la réaction des USA lors de la sortie de DeepSeek).

Presentation de Yann Lechelle session gouvernance Commons AI
Presentation de Yann Lechelle session gouvernance Commons AI

Lien vers l’audio (en anglais)
Lien vers la présentation.

Merci à l’ensemble des intervenant.e.s, à Benjamin Jean (inno3) pour la modération de cette session et aux organisateurs et organisatrices de FOST pour avoir accueilli l’événement.