
Vers une IA d’intérêt général pour les communautés numériques ?
Le 10 décembre 2025, la journée Commons AI a été dédiée à l’Intelligence Artificielle dans une démarche de communs. Elle s’est déroulée dans le cadre de l’évènement Future of Software Technologies, au CNIT de la Défense. Dans le cadre de cette journée, trois sessions ont été organisées afin de couvrir chacun des trois piliers des communs : 1/ ressource 2/communauté et 3/gouvernance. Les quinze interventions tout au long de la journée ont donné à voir des initiatives en cours et des pistes de solutions pour des IA plus respectueuses des principes d’ouverture et de communs. Chaque session a été l’occasion, en plus des interventions, d’échanges fructueux et dynamiques entre participant.e.s et audience.
Nous vous proposons sous forme de trois billets un retour global sur chaque session et un résumé des interventions.
Ce troisième billet est consacrée à la dernière session sur les communautés et partage quelques pistes de réflexion futures.
Retrouvez les deux précédents billets déjà en ligne « Commons AI : un besoin essentiel d’accès à des données de qualité« et « Gouvernance des IA : quelles solutions pour contrer les asymétries de pouvoir entre producteurs et utilisateurs d’IA ? »
La dernière session de la journée était destinée à ouvrir les réflexions en matérialisant la diversité de besoins des communautés du numérique. Il est en effet nécessaire de penser une modèle d’intervention par le secteur industriel qui s’appuie et renforce les communautés open source. Les communautés hétérogènes qui caractérisent le numérique, et plus encore l’idée d’un numérique ouvert et éthique, invitent à repenser une IA d’intérêt général.
Le constat est celui du coût et des besoins nécessaires à la fabrication d’une IA. À la différence de projet Open Source, deux trois personnes ne peuvent pas construire “from scratch” une IA open source. Cela s’appuie déjà sur des infrastructures, des cartes graphiques qui sont détenues par quelques acteurs étrangers. Pour donner l’exemple des processeurs graphiques (GPU), aucun producteur ne se trouve sur le territoire européen. Il est donc difficile de penser une IA d’intérêt général sans contrôle sur les couches les plus profondes. De penser une communauté autonome sans des sponsors industriels et étatiques forts.
Ensuite, le développement de l’IA fait l’effet pour beaucoup d’organisations d’un électrochoc sur la faible maitrise de leurs données. Et cela, aussi bien d’un point de vue technique (c’est-à-dire qu’elles n’ont pas la main sur les bases de données) que culturel (faible culture de la donnée par les membres de ces organisations). Il est essentiel dans ce sens d’avoir une éducation aux données et d’avoir des modalités de contribution communautaire pour une curation de données fiables et maitrisées.
Enfin, aujourd’hui, même s’il reste une dépendance forte, il est possible de développer des petits modèles de langage (SML) moins énergivores, mais cela représente tout de même un coût et les logiques de mutualisation sont essentielles en ce sens.
Vous trouverez ci-dessous un résumé des interventions ainsi que l’audio et la présentation associée.
Quand communautés et industrie coopèrent : vers des IA soutenables
Avec Jean Baptiste Kempf (VideoLAN / CEO Kyber / Tech Fellow Scaleway)
Le projet VideoLAN repose sur une communauté open source, qui trouve une motivation extrinsèque au projet. Les membres de cette communauté aiment participer à ce projet proche de leur centre d’intérêt (jeux vidéos, animé, etc.). Lorsqu’il s’agit d’un projet d’IA, comment créer cette motivation ?
S’ajoute à cela que la création d’une IA n’est pas du tout dans les mêmes ordres de grandeurs économiques. Un projet comme VLC coûte environ 0,5 Million € à produire, un navigateur open source, 2 à 3 Milliards €. Pour un LLM open source, on passe à 500 Millions €. Se pose ensuite la question de la souveraineté des IA créées. En effet, si beaucoup de ces IA reposent sur des briques élémentaires open source, la valeur se fait essentiellement sur la dernière couche applicative sans rétribution pour les briques élémentaires et dépendances.
Peu de modèles sont véritablement open source aujourd’hui (on reste dans de l’open weight) et les modèles open source développés ont souvent plusieurs années de retard sur les modèles du marché. La dernière difficulté réside dans la puissance de calcul nécessaire (GPU), sachant qu’il y a une dépendance énorme puisque l’Europe ne fabrique pas de GPU.
Aujourd’hui le rôle des communautés se trouve à deux endroits spécifiques : une aide à la curation de données de qualité d’une part et d’autre part le développement de small language model.

Lien vers l’audio
Une IA d’intérêt général indépendante des GAFAM : quels rôles pour les communautés ?
Avec Jean-Marc Borredon (Ville d’Annemasse), Raphael Bournhonesque (Open Food Facts), Jeanne Bretécher (Social Good Accelerator), Pierre-Yves Gosset (Framasoft), Jean-Phillipe Clément (Ville de Paris)
Le dernier temps fort de la journée Commons AI a pris la forme d’une table ronde avec cinq intervenants et intervenante, venant partager leur point de vue et expérience autour de l’IA au sein d’associations de l’économie sociale et solidaire ou bien de collectivités publiques. Jean-Philippe Clément, créateur du podcast Parlez moi d’IA animait cette table ronde, et souhaitait discuter des actions en faveur d’IA d’intérêt général. L’idéal d’une telle IA serait une IA utile, frugale, techniquement maitrisée et ouverte avec une recherche d’épanouissement humain et un modèle économique vertueux.
Mais comment envisager une telle IA d’intérêt général ?
Pour Pierre-Yves Gosset, coordinateur des services numériques de Framasoft, une IA d’intérêt général n’existe pas (et n’existera jamais sur l’entièreté de sa chaîne de valeur) et ce pour deux raisons. D’une part les moyens de productions appartiennent à quelques entreprises, qui forment un oligopole détenu par quelques États aux politiques troubles. Ces entreprises ne détiennent pas seulement les modèles d’IA, mais aussi l’infrastructure (réseaux, câbles), les données et même les moyens énergétiques (cf. « Ce n’est pas l’IA que vous détestez, c’est le capitalisme »). D’autre part, les communs qui seraient à rattacher à l’IA d’intérêt général ont perdu de nombreuses batailles. Il y a certes des initiatives, mais à de faibles échelles avec des aides financières de plus en plus réduites. Dans le futur, même si la bulle IA explose, il y a une dépendance qui a été créée par les Big Tech face à des outils gratuits aujourd’hui. Parmi des solutions concrètes et actionnables dès aujourd’hui, il est envisageable de sensibiliser et d’agir sur la base d’un référentiel similaire aux « 5R » de la gestion des déchets. Par ordre de priorité : 1) refus de l’IA, 2) réduire les usages de l’IA , 3) réguler l’IA, 4) responsabiliser les acteurs, 5) rediriger vers des IA “plus responsables”.
Pour Jeanne Brétécher, directrice du Social Good Accelerator, think tank de l’ESS, envisager une telle IA dans le milieu de l’ESS s’avère complexe. Les organisations de l’ESS sont souvent dans une position difficile face à la transition numérique et n’ont pas les budgets nécessaires pour passer le cap. En revanche, l’usage de l’IA est fortement utilisé pour gagner du temps face à ce manque de moyen. Aujourd’hui, l’ESS a besoin du numérique, mais le numérique aurait aussi besoin de l’ESS, car l’Économie Sociale et Solidaire repose sur plusieurs leviers forts nécessaires à une IA d’intérêt général : une gouvernance démocratique, un partage équitable de la valeur, un contre discours contre le capitalisme et un fonctionnement distribué et coopératif. Le point positif pour l’ESS est que l’IA amène les organisations à se positionner sur la question des données et de leur maitrise. Il y a une prise de conscience par les organisations qu’elles sont dépossédées de leurs données.
Jean-Marc Borredon, directeur de la communication d’Annemasse Agglo et Product Owner IA, fait le même constat dans le cadre des projets numériques des collectivités. L’IA est un révélateur de la dépendance aux éditeurs informatiques, notamment lorsqu’il s’agit de reprendre le contrôle sur des bases de données métiers. Dans le secteur public, le manque de culture de la donnée amplifie ce problème — or les données sont associées à une souveraineté cognitive : l’information stratégique sera de plus en plus imprégnée des biais de ceux qui mettent à disposition les modèles. Face à ce constat, Annemasse Agglo et la ville d’Annemasse ont fait le choix d’une infrastructure souveraine : un SLM open source et sobre (Mistral Small 3.2) hébergé sur une GPU maîtrisée, couplé à un système RAG maîtrisé de bout en bout. Cette approche repose sur trois piliers — souveraineté, sobriété, utilité — formalisés dans une charte qui privilégie la confiance plutôt que l’interdiction. L’expérience démontre qu’il est possible, même pour une intercommunalité de taille modeste, d’articuler open source, sobriété et IA générative tout en maîtrisant la chaîne de valeur.
Raphael Bournhonesque, ingénieur machine learning à Open Food Facts, donne un autre exemple de reprise en main de développement d’IA. Avec de petits modèles et un petit GPU, il a été possible d’améliorer grandement l’analyse d’images, mais cela a tout de même représenté un cout. Pour le serveur par exemple, cela représente 1300 dollars par mois. Des efforts de mutualisation sont nécessaires pour baisser ces prix. Aujourd’hui, il n’y a pas de producteurs locaux de GPU, et donc même avec des petits modèles peu chers, il y a un impact économique à considérer. Concernant les cartes graphiques, il y a également une bulle de l’obsolescence forte, et une faible qualité de ces dernières. Faire fonctionner ses cartes nécessitent parfois des équipes entières et du temps
Pour conclure avec une note optimiste, quelques moyens d’actions ont été abordés. Du côté de l’État, la DINUM développe un outil basé sur Mistral (Albert). Pour financer des démarches de communs dans une optique d’IA d’intérêt général, l’idée d’un crédit d’impôts pour les communs serait à creuser. Cependant, avant de discuter d’une IA d’intérêt général, il s’agit de poser un cadre général pour un numérique d’intérêt général. Un premier pas serait par exemple de limiter des dispositifs d’aides aux entreprises (CIR) à l’usage essentiellement de clouds européens par ces dernières.

Lien vers l’émission Parlez moi d’IA animée par Jean-Philippe Clément, reprenant des extraits de la table ronde.
Et après ?
Plusieurs idées sont ressorties de cette journée de réflexion :
- Réfléchir à la création d’un statut “IA d’intérêt général” : la définition d’un cadre légal pour une IA utile, frugale, techniquement maîtrisée et ouverte permettrait certainement d’engager les entreprises les usagers.
- Garantir une souveraineté matérielle (GPU) : l’optique serait de porter au niveau européen le besoin de production locale de cartes graphiques pour réduire la dépendance aux acteurs étrangers et limiter l’obsolescence programmée du matériel. Il s’agirait de favoriser la mise à disposition de ces ressources étatiques ou privées au profit de projets communautaires et/ou de l’ESS. Ainsi, l’IA ne viendrait pas déséquilibrer les forces au seul profit de ceux qui ont les capitaux (et de rééquilibrer au regard des projets qui ont les communautés ou qui sont destinées à travailler pour l’intérêt de ces dernières).
- Réguler les rapports économiques en présence : une réflexion est nécessaire sur une régulation anti-concurrentielle forte inspirée du modèle de l’ARCEP (télécoms) afin d’éviter les accords bilatéraux opaques entre géants de l’IA et fournisseurs de contenus.
- Alerter sur la “nouvelle tragédie des communs” : les données ouvertes se referment par crainte du pillage.
Certaines d’entre elles peuvent se traduire en collaboration et projets collectifs :
- Mutualisation de l’infrastructure pour SML : créer des coopératives ou des pôles de mutualisation pour héberger des Petits Modèles de Langage (SML), moins énergivores et plus accessibles financièrement pour l’ESS et les collectivités.
- Adoption de règles de confiance standardisées : en vue de déployer des espaces de données de confiance basés sur des règles de gouvernance partagées (interopérabilité, rémunération juste des contributeurs). cf travaux Ekitia
- Expérimentation de structures fiduciaires : tester l’adaptation du modèle des Data Trusts via des structures juridiques françaises existantes comme les fonds de dotation pour gérer collectivement les droits sur les données.
Merci à l’ensemble des intervenantes et intervenants de cette journée, à Jean-Philippe Clément pour l’organisation de la table ronde « IA d’intérêt général » et l’épisode consacrée sur Parlez moi d’IA.
Remerciements aux organisateurs du Future of Software of Technologies pour leur accueil (spécialement Mehdi Medjaoui et Orianne Durand).
Auteur/Autrice

Célya GRUSON-DANIEL
Ressources associées
Article
Commons AI : un besoin essentiel d’accès à des données de qualité
Article
Gouvernance des IA : quelles solutions pour contrer les asymétries de pouvoir entre producteurs et utilisateurs d’IA ?
Évènement
Save the date : Commons AI Conference 2025
Article
