AI Act : comment évaluer la conformité de vos systèmes d'IA avant août 2026 ?
L’IA s’est imposée en quelques années dans les usages, portée par l’essor de l’apprentissage profond et l’arrivée de modèles de langage grand public. Mais cet engouement s’accompagne de questions très concrètes : sécurité, bon usage, impacts humains et énergétiques.
L’Union Européenne a publié le 13 juin 2024 son règlement sur l’intelligence artificielle (RIA), aussi appelé AI Act. Ce texte encadre le développement, la mise sur le marché et la mise en service de tout système d’intelligence artificielle (SIA) en Europe. Contrairement à ce que l’on pourrait craindre, se mettre en conformité n’est pas un parcours fastidieux — c’est avant tout une opportunité de mieux comprendre et maîtriser ses propres produits.
Ce que le règlement impose concrètement
Le RIA classe les systèmes d’IA en quatre niveaux de risque. Le risque limité concerne les SIA qui n’ont pas vocation à se substituer à une évaluation humaine — résumer des informations, traduire un texte, générer du code soumis à validation. Le risque haut touche les dispositifs médicaux, les systèmes de sélection RH ou les outils de surveillance des infrastructures critiques. Le risque systémique s’applique aux grands modèles d’IA à usage général comme GPT ou Gemini. Enfin, le risque inacceptable concerne les systèmes délibérément nocifs ou manipulatoires, interdits depuis février 2025.
En cas de non-conformité pour un système à risque haut, les sanctions peuvent atteindre 35 millions d’euros ou 7% du chiffre d’affaires mondial annuel.
Le calendrier à retenir
Les échéances sont proches. Les SIA à risque inacceptable sont interdits depuis février 2025. Les modèles à usage général sont soumis au règlement depuis septembre 2025. Les systèmes à risque haut doivent être conformes d’ici août 2026, avec une généralisation prévue pour août 2027. L’évaluation de conformité réalisée doit être conservée au minimum 10 ans.
La conformité comme argument commercial
Au-delà de l’obligation légale, l’évaluation de conformité représente un vrai levier de différenciation. Sur un marché où les produits labellisés « IA » se multiplient, démontrer que ses systèmes ont été évalués de manière rigoureuse rassure les clients — en particulier dans des secteurs sensibles comme la santé ou le secteur public. La transparence fidélise.
Le cas pratique Coexya : évaluation du produit Onco Place
Coexya a appliqué cette démarche à Onco Place, la plateforme d’essais cliniques en radiothérapie développée par sa filiale Aquilab. L’évaluation a mobilisé un ingénieur scientifique des données, un développeur et une cheffe produit. Sur l’ensemble des modules analysés, seuls deux ont été classifiés comme SIA au sens du RIA — et tous deux ont été qualifiés à risque limité, car leurs résultats sont systématiquement soumis à validation par l’utilisateur. L’évaluation a été signée électroniquement via blockchain et est disponible pour les clients et les autorités de contrôle.
L’expertise Coexya
Coexya accompagne ses clients éditeurs de logiciels et DSI dans l’évaluation de conformité de leurs systèmes au regard de l’AI Act : identification des SIA, qualification des niveaux de risque, documentation des obligations et intégration dans le système de management de la qualité. Une approche méthodique, outillée et adaptée aux réalités terrain des équipes produit et technique.
Vous souhaitez aller plus loin ? Téléchargez notre livre blanc complet pour découvrir la méthodologie détaillée, les définitions clés du règlement et le retour d’expérience complet sur l’évaluation d’Onco Place.