Le Conseil de l'Union européenne a adopté le 13 mars 2026 une position pour simplifier la réglementation sur l'intelligence artificielle, dans le cadre du paquet "Omnibus VII" de simplification réglementaire. Cette décision, qui s'inscrit dans un mouvement plus large de déréglementation entrepreneuriale porté par la Commission Von der Leyen II, allège les obligations des entreprises considérées à "faible risque" tout en maintenant les garde-fous pour les systèmes IA à risque élevé. Pour les dirigeants de PME et d'ETI françaises, la question est immédiate : que dois-je faire — ou ne plus faire — concrètement ?
Ce que change la simplification de l'IA Act en pratique
L'AI Act européen, entré en vigueur en août 2024, avait prévu un calendrier d'obligations progressif : interdictions des IA à risque inacceptable en février 2025, obligations pour les IA à usage général en août 2025, et obligations complètes pour les systèmes à haut risque en août 2026. Le paquet de simplification adopté le 13 mars 2026 ne remet pas en cause ce calendrier — mais allège significativement les charges documentaires pour les systèmes à risque limité ou minimal.
Ce qui change :
- Les PME développant ou déployant des systèmes IA à risque limité bénéficient de formulaires de conformité simplifiés.
- Les exigences de documentation technique pour les systèmes IA génériques utilisés en interne sont allégées.
- Un guichet unique numérique est prévu pour faciliter les déclarations de conformité.
Ce qui ne change pas :
- Les systèmes IA à haut risque (recrutement, scoring de crédit, biométrie, sécurité publique) restent soumis à des exigences strictes : évaluation d'impact, registre, transparence, supervision humaine.
- Les pratiques d'IA interdites restent interdites (manipulation comportementale, scoring social, reconnaissance faciale en temps réel dans l'espace public sauf exceptions).
Les gigafactories IA françaises : une opportunité pour les entreprises
En parallèle à la régulation, la France accélère sur l'infrastructure. Un accord conclu avec la société britannique Fluidstack prévoit la construction d'un supercalculateur bas-carbone avec 500.000 GPU disponibles d'ici fin 2026 et une capacité d'1 gigawatt d'ici 2028 — alimenté par le nucléaire français. Le gouvernement français a mobilisé 10 milliards d'euros pour ce projet de "gigafactories IA".
L'objectif est double : réduire la dépendance européenne aux infrastructures américaines et asiatiques, et offrir aux entreprises françaises un accès à la puissance de calcul nécessaire pour entraîner et déployer des modèles d'IA avancés à des coûts compétitifs.
Pour les entreprises françaises qui souhaitent intégrer l'IA dans leurs processus, cela représente une fenêtre d'opportunité concrète : accès à des ressources cloud souveraines, projets d'IA dans un cadre réglementaire clarifié, et compétences disponibles via les pôles de compétitivité et les dispositifs France 2030.
Ce que vous devez faire avant août 2026
Les obligations de l'AI Act pour les systèmes à haut risque entrent pleinement en vigueur en août 2026. Si votre entreprise utilise — ou envisage d'utiliser — de l'IA dans les domaines suivants, le temps presse :
- Recrutement automatisé : tri de CV, analyse vidéo des candidats
- Crédit ou scoring financier : modèles de notation de clients ou de partenaires
- Gestion RH : surveillance de la productivité, évaluation des performances
- Santé : systèmes d'aide au diagnostic ou à la prescription
- Éducation : évaluation automatisée des étudiants
Pour ces usages, vous devez documenter le système, réaliser une évaluation des risques, garantir une supervision humaine et inscrire le système dans le registre européen prévu.
Et si vous n'êtes pas sûr de la classification de votre IA ? C'est là qu'un consultant IT spécialisé en conformité IA peut faire la différence. Depuis la publication du texte final de l'AI Act, des experts se sont formés pour accompagner les entreprises dans leur audit de conformité — bien avant que les sanctions (jusqu'à 30 millions d'euros ou 6% du chiffre d'affaires mondial) ne commencent à tomber.
Questions pratiques des dirigeants d'entreprise
Notre outil utilise ChatGPT ou un LLM générique : sommes-nous concernés ? Oui, mais de façon limitée. Les LLM génériques à usage interne (rédaction, résumé, assistance) relèvent du risque limité et bénéficient de la simplification. En revanche, si vous construisez un produit ou service commercialisé basé sur ces LLM, vous êtes soumis aux obligations de transparence.
Faut-il un DPO spécifique pour l'IA ? Non — mais le DPO existant doit être formé sur l'AI Act. Son rôle se croise avec celui du responsable de la conformité IA dans les entreprises qui traitent des données personnelles avec des systèmes IA.
La France propose-t-elle des aides pour la mise en conformité ? Oui. Bpifrance et les Chambres de Commerce proposent des diagnostics de conformité subventionnés pour les PME dans le cadre de France 2030.
Se faire accompagner par un expert IT
La réglementation IA est nouvelle, complexe et en évolution. Pour les dirigeants d'entreprise sans bagage technique, décoder ce qui s'applique réellement à leur situation est un défi. Les consultants IT spécialisés en IA peuvent réaliser un audit de vos systèmes, vous guider dans les démarches de conformité et vous aider à exploiter l'IA de façon productive — et légale. Les avocats spécialisés en réglementation européenne complètent ce dispositif pour les aspects contractuels et de responsabilité.
L'IA évolue vite. La réglementation aussi. Mieux vaut être accompagné.
