• #
  • #

IA souveraine et AI Act : pourquoi la culture interne du fournisseur fait partie du produit

Au-delà de l'infrastructure : ce qui rend réellement fiable un système d'intelligence artificielle conversationnelle, et comment évaluer votre fournisseur avec des critères que la majorité du marché n'utilise pas encore.

Daniele Dibitonto
Daniele Dibitonto · 06 2026

Sommaire

Qu'est-ce que l'IA souveraine ?

L'IA souveraine — parfois appelée IA privée ou IA on-premise — est un modèle d'intelligence artificielle dans lequel les données du client restent sous le contrôle du client, traitées au sein d'une infrastructure régie par la juridiction légale dans laquelle le client opère. L'IA souveraine s'oppose au modèle de paiement à l'usage des grands fournisseurs généralistes, où les données sont régulièrement transférées entre juridictions. Elle garantit la souveraineté des données, la conformité réglementaire et la prévisibilité des coûts opérationnels.

En pratique, l'IA souveraine signifie concevoir des systèmes — y compris conversationnels — au sein d'environnements contrôlés (on-premise, cloud privé, ou clouds hybrides avec garanties contractuelles et techniques suffisantes), avec des politiques d'accès, de traçabilité et d'audit qui permettent à l'organisation de démontrer où se trouve chaque donnée, qui la traite et sous quel cadre juridique.

Jusqu'ici, ce que toute entreprise déjà en train d'évaluer le marché sait. Ce qui suit est ce que la plupart des fournisseurs ne disent pas.

L'AI Act et la souveraineté numérique européenne

Depuis l'adoption du Règlement européen sur l'intelligence artificielle (AI Act) et son entrée en application progressive entre 2025 et 2027, le cadre dans lequel les entreprises françaises et européennes choisissent un fournisseur d'IA a profondément changé. Les obligations de transparence, de supervision humaine, de gestion des biais, d'explicabilité des décisions et de protection des droits fondamentaux ne sont plus des bonnes pratiques optionnelles : elles sont des exigences contractuelles dans les appels d'offres sérieux.

En France, ce cadre européen s'articule avec un environnement national déjà mature. La CNIL publie depuis 2023 des recommandations spécifiques sur l'IA et la protection des données. Le débat sur la souveraineté numérique est un axe stratégique national, traversant les politiques publiques, les marchés publics et le choix des fournisseurs technologiques par les grandes entreprises et les administrations. Le cloud souverain est un objectif politique explicite, soutenu par des initiatives comme le label SecNumCloud de l'ANSSI et par l'écosystème des champions nationaux du numérique.

Dans ce contexte, le choix d'un fournisseur d'IA n'est plus une décision purement technique. C'est une décision qui engage la conformité réglementaire de l'entreprise cliente, sa cohérence vis-à-vis de ses propres clients européens, et — de plus en plus — sa réputation institutionnelle. Les spécifications techniques comptent toujours. Mais elles ne séparent plus les bons fournisseurs des problématiques — parce que, sur une fiche produit, tout le monde affirme désormais les mêmes choses.

Les cinq piliers commerciaux de glacom® IA

Chez glacom® IA nous avons construit notre proposition autour de cinq piliers qui définissent notre positionnement de marché :

  • Coûts fixes. Modèle commercial prévisible, alternatif à la logique de paiement à l'usage qui caractérise la majorité des fournisseurs généralistes.
  • IA souveraine. Souveraineté des données, solutions qui n'exfiltrent pas les informations du client vers des modèles publics ou des juridictions non contrôlées.
  • Durabilité (Green). Attention concrète à l'impact énergétique et environnemental des systèmes développés, fondée sur une infrastructure certifiée et vérifiable.
  • Transparence algorithmique. Explicabilité des processus de décision et auditabilité des systèmes — le cœur technique de ce qu'on appelle de plus en plus l'IA explicable.
  • Langage et comportement inclusifs. Systèmes conversationnels conçus pour être respectueux, équitables et accessibles à des publics divers.

Ce sont les piliers que tout fournisseur européen d'IA sérieux devrait couvrir, mais qui dans la pratique du marché ne sont pas encore la norme. Surtout le cinquième, sur lequel il vaut la peine de s'arrêter — parce qu'il est structurellement différent des quatre autres.

Le cinquième pilier : pourquoi il est structurellement différent

À la différence des quatre autres piliers, le langage et le comportement inclusifs du système ne se résolvent pas par un choix d'architecture technique ou de stack technologique. On peut acheter un cluster GPU plus efficace. On peut contracter des centres de données avec certification verte. On peut adopter des frameworks d'explicabilité standard de l'industrie. Mais on ne peut pas acheter rétroactivement une culture interne respectueuse.

Un système conversationnel hérite inévitablement des modèles linguistiques, des asymétries et des pratiques culturelles des personnes et des équipes qui le conçoivent. Si dans les équipes de développement on tolère le sexisme quotidien, si l'on relègue l'accessibilité au rang de "sujet mineur", ou si l'on traite mal les personnes en raison de leur origine, de leur âge, de leur apparence ou de leur façon de parler — ces patterns trouveront le chemin, de manière subtile mais technique, jusqu'au code, aux datasets, aux prompts, et finalement au comportement de l'assistant.

Ce n'est pas une hypothèse. C'est une conséquence technique documentée dans la littérature sur les biais algorithmiques de ces dernières années, et c'est exactement ce sur quoi le débat français et européen sur l'IA responsable et les biais algorithmiques s'est concentré depuis 2024.

La culture interne de l'entreprise fait partie du produit. Surtout quand le produit est un système conversationnel.

Le produit commence avant le produit

Quand une entreprise évalue un fournisseur d'IA souveraine, elle regarde — à juste titre — les métriques habituelles : précision des réponses, temps de latence, capacité à gérer des intentions complexes, garanties de souveraineté des données, niveaux de service. Ce sont des métriques nécessaires.

Il existe cependant une question moins évidente mais plus discriminante : comment l'entreprise qui a construit ce système traite-t-elle ses personnes ?

La question semble hors-sujet. Elle ne l'est pas. Un système conversationnel qui parlera chaque jour à des centaines ou des milliers d'utilisateurs finaux — clients, citoyens, patients, salariés — est un produit dont la qualité relationnelle dépend directement de la manière dont on parle au sein de l'organisation qui l'a construit.

Cela est particulièrement pertinent dans les secteurs où l'IA souveraine gagne le plus rapidement du terrain en France : secteur public et administration centrale (où les citoyens attendent un traitement digne et où les marchés publics intègrent désormais des exigences explicites sur la qualité conversationnelle), banque et assurance (où l'expérience client est un facteur compétitif et où le contrôle de l'ACPR monte en exigence), santé et hôpitaux publics (où les patients doivent se sentir écoutés et où la dignité du traitement est une question clinique, pas marketing), commerce et e-commerce (où l'expérience conversationnelle convertit), et secteur juridique (où le langage est la matière première). Dans tous ces secteurs, un système techniquement parfait mais relationnellement inadéquat est un échec commercial — et, de plus en plus, un risque réputationnel.

Durabilité vérifiable : le rôle de l'infrastructure

Parler d'IA durable est devenu un exercice rhétorique auquel se livrent, avec un enthousiasme inégal, presque tous les fournisseurs du secteur. Ce qui distingue une déclaration d'intention d'un engagement réel, ce sont les certifications de l'infrastructure sur laquelle le système s'exécute — parce que l'empreinte environnementale d'un système d'IA n'est pas tant déterminée par les modèles que par les centres de données qui les hébergent.

Chez glacom® IA, les systèmes s'exécutent sur l'infrastructure de Seeweb, fournisseur cloud européen avec des sites à Milan, Frosinone, Lugano, Zurich et Sofia. Le choix n'est pas anodin : Seeweb est l'un des rares fournisseurs du marché européen qui combine souveraineté des données et durabilité certifiée dans une seule proposition.

Les données vérifiables qui soutiennent le pilier vert de glacom® IA, grâce à ce partenariat, sont concrètes :

  • Énergie 100 % issue de sources renouvelables certifiées, sans compensations a posteriori.
  • Certification ISO 14001, l'une des premières du secteur cloud européen à l'adopter.
  • PUE (Power Usage Effectiveness) de 1,2 dans les server farms les plus récentes — une valeur qui place l'infrastructure parmi les plus efficaces du marché européen.
  • Adhésion au Climate Neutral Data Centre Pact, l'engagement européen pour atteindre la neutralité climatique des centres de données avant 2030.
  • Supporter de The Green Web Foundation, ce qui permet la vérification publique et indépendante du caractère durable de l'hébergement.
  • Services dédiés Cloud GPU pour l'IA et le machine learning conçus selon des critères explicites d'efficacité énergétique.

Cela compte pour nous pour deux raisons complémentaires. La première est environnementale : la génération d'un seul texte ou d'une seule image par IA peut consommer, selon les estimations récentes, autant d'énergie qu'une recharge complète de smartphone. Si une entreprise traite des milliers d'interactions conversationnelles par jour, l'impact cumulé devient significatif — et le choix de l'infrastructure cesse d'être un détail technique pour devenir une décision environnementale.

La deuxième raison est commerciale. Toute entreprise cliente qui doit reporter ses émissions de Scope 3 — de plus en plus courant dans le cadre de la directive CSRD — doit pouvoir déclarer, avec des certifications vérifiables, que ses fournisseurs technologiques opèrent sur des infrastructures durables. Opérer sur Seeweb permet à glacom® IA de fournir à ses clients cette documentation sans avoir à recourir à des compensations génériques ou à des estimations approximatives.

L'IA souveraine européenne ne se compose pas seulement de logiciel. Elle se compose aussi de l'infrastructure sur laquelle ce logiciel s'exécute — et des certifications que cette infrastructure apporte au client final.

Qualité certifiée : ISO 9001 et systèmes de gestion

La qualité d'un fournisseur d'IA ne se mesure pas seulement à la qualité des modèles qu'il livre. Elle se mesure aussi à la cohérence des processus avec lesquels il les livre : comment un projet est géré, comment le client est accompagné, comment les décisions sont documentées, comment les changements sont tracés.

Le système de gestion de la qualité de glacom® est certifié ISO 9001:2015 pour les services de conseil et de formation que l'entreprise fournit à ses clients — le composant du travail en contact direct avec le client tout au long du cycle d'un projet, de l'analyse initiale jusqu'à la transmission du système. La certification est délivrée par un organisme accrédité et est renouvelée annuellement avec audit indépendant.

C'est la garantie opérationnelle que le "comment nous travaillons" ne dépend pas de la personne qui à un moment donné gère le projet, mais d'un processus documenté et auditable.

Ce que nous faisons, et pourquoi nous l'expliquons

Chez glacom® nous avons récemment lancé un parcours structuré de développement organisationnel qui travaille explicitement sur la cohérence entre culture interne et qualité du produit. Nous ne le racontons pas pour faire de la communication corporate, mais parce que nous pensons que celui qui choisit un fournisseur d'IA souveraine a le droit de savoir ce qui se trouve derrière le produit.

Pour ce parcours nous avons fait appel aux services de Reeducant les Violències, SCCL, coopérative basée à Barcelone, spécialisée dans le développement organisationnel, le leadership inclusif et la conception de systèmes conversationnels avec un langage et un comportement inclusifs. Le programme couvre les trois départements opérationnels de glacom® — IA, software et financement bonifié — et touche toute la structure sociétaire internationale de l'entreprise, présente dans sept pays.

Il travaille sur quatre plans opérationnels :

  • Coordination et clarté opérationnelle entre départements, parce qu'une équipe désorientée produit des systèmes confus. La traçabilité du produit commence dans la traçabilité des décisions internes.
  • Communication interne documentée et traçable, pour consolider les décisions au lieu de les disperser. La gouvernance des données hérite de la gouvernance du langage.
  • Un protocole structuré de gestion des situations de tension, à la fois internes et avec les clients — parce que travailler avec respect est le présupposé, pas le bonus, d'un bon service.
  • Un travail explicite sur les dimensions de l'inclusion, non comme liste de bonnes intentions mais comme pratiques opérationnelles déclarées et vérifiables.

Tout cela, nous ne le faisons pas parce que cela rend bien sur une page corporate. Nous le faisons parce que c'est la condition technique pour que le cinquième pilier — le langage et le comportement inclusifs de nos systèmes — soit un actif réel et non une déclaration marketing.

Les dimensions de l'inclusion que nous traitons

Le programme identifie dix dimensions opérationnelles de l'inclusion qui affectent à la fois le climat interne de l'entreprise et la qualité du langage des systèmes que nous concevons :

  • Transphobie. Rejet ou discrimination envers les personnes trans.
  • Aporophobie. Rejet ou mépris envers les personnes pauvres.
  • Classisme. Discrimination basée sur la classe sociale.
  • Validisme. Discrimination envers les personnes en situation de handicap — y compris les handicaps invisibles et les neurodivergences.
  • Homophobie. Rejet envers les personnes homosexuelles.
  • Racisme. Discrimination basée sur l'origine raciale ou ethnique.
  • Xénophobie. Rejet envers les personnes étrangères.
  • Discrimination physique (lookisme). Discrimination basée sur l'apparence physique.
  • Grossophobie. Rejet ou stigmatisation des corps non conformes aux standards dominants.
  • Sexisme. Discrimination ou attitude de supériorité basée sur le genre.

Pour une entreprise avec du personnel dans sept pays et des clients qui opèrent dans des secteurs aussi divers que la santé, la banque, l'administration publique ou le e-commerce, il ne s'agit pas d'une liste philosophique. Il s'agit d'une condition technique : chacune de ces dimensions, si elle n'est pas traitée en interne, se reproduit dans le langage du système conversationnel qui sort sur le marché.

Un système conversationnel est inclusif uniquement si ceux qui le construisent travaillent dans un environnement inclusif. Il n'y a pas de raccourci technique.

Une conséquence concrète : le droit au respect dans toutes les directions

L'une des pratiques opérationnelles que le programme formalise explicitement est le droit, pour toute personne de l'entreprise, d'interrompre une interaction qui adopte des tons offensants ou des traitements irrespectueux — envers elle ou envers ses collègues — d'où qu'elle vienne.

Cela ressemble à un détail RH. Cela n'en est pas un.

Une équipe qui opère dans un environnement où le respect est garanti dans toutes les directions produit des systèmes plus soignés : documentation plus rigoureuse, code reviews plus attentives, décisions de conception prises en construction et non en défense. Protéger le climat interne est donc un composant direct de la qualité du produit qui sort.

À l'inverse, cette pratique n'est pas une perte pour la fonction commerciale : avec le temps, dans le portfolio de qui vend, restent progressivement des clients motivés, satisfaits du travail qu'ils reçoivent et respectueux des personnes avec qui ils interagissent. Et, collectivement, glacom® apprend à reconnaître les patterns des clients problématiques avant la signature, alimentant un outil de qualification pré-vente qui bénéficie à toute la fonction commerciale.

Travailler avec respect n'est pas une concession. C'est un choix de qualité que nous protégeons activement, parce que nous savons comment il se traduit en code.

Conformité : RGPD, CNIL, AI Act, propriété intellectuelle

L'inclusion est la dimension éthique et culturelle de notre positionnement. Il existe cependant une dimension légale complémentaire, de plus en plus décisive pour qui développe de l'IA souveraine en France et en Europe.

Le cadre français articule RGPD, recommandations de la CNIL sur l'IA et la protection des données, règlement européen sur l'intelligence artificielle (AI Act) avec ses obligations de transparence, supervision humaine et explicabilité, ainsi que les exigences sectorielles de l'ACPR dans les services financiers et de l'HAS dans la santé. La Loi européenne sur l'accessibilité, en vigueur depuis juin 2025, ajoute une couche supplémentaire pour les produits numériques accessibles. La gestion correcte des licences open source et des cessions de propriété intellectuelle du système complète le tableau.

Sur ce front, nous avons fait appel aux services de BE LAW LAB, cabinet juridique avec des bureaux à Barcelone et Madrid, spécialisé dans la régulation numérique, la vie privée et l'intelligence artificielle. Nous structurons avec eux un parcours complet de conformité couvrant l'audit de notre système d'IA conformément à l'AI Act, la mise en œuvre des mesures de protection des données dérivées du système, la vérification des transferts internationaux de données, l'identification des Évaluations d'Impact sur les Droits Fondamentaux (EIDF) et de Protection des Données (AIPD), l'audit des licences open source utilisées, et les mesures de protection juridique du système lui-même.

La conformité réglementaire, pour nous, obéit à la même logique que le parcours éthique : d'abord on fait les choses comme elles doivent être faites, ensuite on les raconte au marché. C'est le complément naturel de la cohérence culturelle — pas son substitut.

Pourquoi un fournisseur d'IA européen compte en France

L'un des axes structurants du paysage français de l'IA est la valeur croissante, pour les entreprises et administrations françaises, de travailler avec des fournisseurs d'IA européens. La raison est triple.

La première est réglementaire : opérer avec un fournisseur déjà structuré autour du RGPD, de l'AI Act et de la souveraineté des données européennes élimine une couche de friction de conformité qu'un hyperscaler basé hors d'Europe ne peut pas offrir au même niveau de profondeur.

La deuxième est politique : la souveraineté numérique est un axe stratégique national français, soutenu par les politiques publiques, par les marchés publics qui privilégient explicitement les solutions européennes, et par un écosystème de champions nationaux — Mistral, OVHcloud, Scaleway, Hugging Face, Dataiku — qui constituent l'épine dorsale de l'IA française. Un fournisseur d'IA européen s'inscrit dans cet écosystème comme partenaire complémentaire, non comme concurrent extra-européen.

La troisième est commerciale : pour les entreprises françaises ayant des clients ou des filiales hors France mais en Europe, opérer avec un fournisseur paneuropéen simplifie la cohérence de la conformité multi-juridictionnelle.

Glacom® est une entreprise européenne avec une présence dans sept pays — Italie, Espagne, France, Royaume-Uni, Estonie, Roumanie et Allemagne. Nous opérons en France avec une société immatriculée et la capacité de déployer une infrastructure GPU localement où le projet l'exige, tout en préservant la résidence européenne des données et la posture de conformité européenne pour les clients ayant une exposition multi-juridictionnelle.

Comment choisir un fournisseur d'IA souveraine en 2026

Pour qui lit cet article depuis une position de client ou d'acheteur entreprise, le point est simple. Quand on évalue un fournisseur d'IA souveraine en 2026, il convient de poser aussi ces questions — en plus des habituelles sur le prix, la latence et les SLA :

  • Où résident les données à chaque phase du cycle de vie du système, et qui peut y accéder ?
  • Sur quelle infrastructure cloud les modèles s'exécutent-ils, et quelles certifications environnementales possède cette infrastructure ?
  • Existe-t-il un plan documenté de conformité au RGPD et à l'AI Act pour le système en question, en lien avec les recommandations de la CNIL ?
  • Quelles pratiques internes l'entreprise qui le construit a-t-elle concernant l'IA responsable, l'atténuation des biais et le langage du produit ?
  • Comment le fournisseur gère-t-il les licences open source et la propriété intellectuelle du système ?
  • Existe-t-il une cohérence déclarée et traçable entre infrastructure durable, culture interne, conformité réglementaire et qualité relationnelle du produit conversationnel ?

Les deux premières questions sont habituelles dans tout RFP sérieux. Les autres, pour le moment, ne le sont pas. Mais ce sont elles qui séparent un système conversationnel qui durera dans le temps d'un système qui générera des incidents réputationnels dans les vingt-quatre prochains mois.

La quatrième question, en particulier, est celle à laquelle peu de fournisseurs veulent répondre — parce qu'elle oblige à ouvrir la pratique interne, et pas seulement la fiche technique. C'est exactement la question qu'un fournisseur mature devrait demander qu'on lui pose.

Conclusion : le prochain cycle de l'IA conversationnelle

Le marché de l'IA souveraine en France et en Europe sort de sa phase purement technique — où la différenciation se jouait sur l'on-premise, la souveraineté des données et la conformité RGPD basique — et entre dans une phase nouvelle, où la différenciation se joue sur quatre axes simultanés : l'infrastructure durable et certifiée sur laquelle le système s'exécute, la qualité relationnelle des systèmes eux-mêmes, la solidité de la gouvernance interne du fournisseur, et la conformité démontrable au cadre réglementaire européen, AI Act en tête.

Chez glacom® IA nous avons décidé de construire notre proposition autour des cinq piliers complets — y compris le cinquième, que la majorité ne nomme pas encore — et en nous appuyant sur des partenaires qui apportent des certifications vérifiables : Seeweb pour l'infrastructure cloud durable et souveraine, Reeducant les Violències pour le développement organisationnel et la culture interne, BE LAW LAB pour la conformité réglementaire. Nous sommes convaincus que le prochain cycle de l'IA conversationnelle ne se gagnera pas sur les benchmarks techniques, où les grands acteurs généralistes sont inatteignables. Il se gagnera sur la cohérence entre ce qui est promis et ce qui est construit, entre l'infrastructure choisie et la culture protégée, entre le discours commercial et la pratique quotidienne.

Là-dessus, à notre avis, tout est encore à construire. Et nous préférons commencer dès maintenant, en déclarant où nous voulons arriver et en acceptant qu'on nous mesure à cela.

Nous avons sélectionné quelques articles qui pourraient vous intéresser.

09/01/2026

  • #
20/11/2025

  • #
14/11/2025

  • #
20/11/2024

  • #
08/04/2024

  • #
02/04/2024

  • #
🚀We are hiring!

We are hiring!

Glacom