Loi IA : le Parlement européen a voté le 26 mars une position qui décale plusieurs échéances clés de l’AI Act et ajoute une interdiction ciblée contre les deepfakes à contenu sexuel sans consentement. Ce texte, entré en vigueur en août 2024, voit sa mise en œuvre progressive repensée pour tenir compte de l’absence de normes techniques finalisées.
Sophie, responsable conformité chez une start-up fictive nommée NovaData, suit ces débats de près : ses choix techniques et ses budgets de conformité vont changer selon le calendrier final adopté par le Conseil. Son cas sert de fil conducteur pour voir, concrètement, ce que ces décisions signifient pour les acteurs et les citoyens.
Échéances décalées de la Loi IA : qui est concerné et pourquoi
Les députés européens proposent de repousser l’application de certaines obligations destinées aux systèmes d’IA dits « à haut risque ». Concrètement, la conformité pour les outils impliquant la biométrie, l’éducation, l’emploi, la justice, les forces de l’ordre et la gestion des frontières passerait du 2 août 2026 au 2 décembre 2027.
Pour les autres systèmes couverts par la législation sectorielle sur la sécurité et la surveillance du marché, la nouvelle date proposée est le 2 août 2028. Les députés avancent un problème pratique : les normes techniques qui précisent les obligations ne sont pas publiées à quatre mois de l’échéance initiale, rendant la mise en conformité incertaine.
Insight : reporter les échéances peut aider les fournisseurs à préparer des solutions conformes, mais crée un risque d’« attente réglementaire » qui retarde la protection effective des personnes.

Ce que les reports signifient pour les fournisseurs et les utilisateurs
Des fournisseurs tels qu’OpenAI, Google, Microsoft ou Mistral — cités dans les débats publics — auraient plus de temps pour adapter leurs processus de gestion des risques, de conservation des données et d’audits. Cela inclut des mesures techniques et organisationnelles spécifiques aux systèmes à haut risque.
La société civile s’oppose toutefois à ces reports : associations comme EDRi et AccessNow estiment qu’un délai supplémentaire fragilise la protection des données et la crédibilité de l’UE en matière d’éthique technologique. NovaData doit déjà arbitrer entre conformité, coûts et innovation.
Insight : un report peut soulager la pression opérationnelle, mais il modifie la balance entre innovation et sécurité numérique.
Interdiction des deepfakes à contenu sexuel : portée, exceptions et contexte
Les Eurodéputés ont ajouté une mesure interdisant les systèmes d’IA qui génèrent des images de nus sans le consentement des personnes représentées. Cette interdiction ne viserait pas les outils intégrant des « mesures de sécurité efficaces » empêchant la création de tels contenus.
La décision fait suite à la diffusion massive de deepfakes sexualisés, notamment lors d’incidents récents sur des plateformes publiques. L’objectif affiché est double : lutter contre le harcèlement et renforcer la sécurité numérique individuelle.
Insight : interdire les générateurs de nus non consentis vise à protéger la dignité et la vie privée, mais l’efficacité dépendra des définitions techniques et des mécanismes d’application.
Limites pratiques et risques de contournement
Interdire une fonctionnalité n’élimine pas la demande ni les contournements techniques. Des acteurs malveillants peuvent combiner plusieurs outils pour obtenir le même résultat hors du cadre réglementé.
Pour réduire ces risques, la proposition prévoit également des obligations de transparence et un marquage des contenus générés par l’IA (« ceci est un contenu créé par l’IA »), dont l’entrée en vigueur pourrait être reculée au 2 novembre 2026 pour laisser le temps aux fournisseurs de déployer des solutions de traçabilité robustes.
Insight : l’interdiction doit être accompagnée d’outils techniques, d’une coopération internationale et de moyens d’exécution pour être dissuasive.
Mesures pratiques pour les entreprises et la société civile
NovaData doit ajuster son plan de conformité. Voici les actions concrètes recommandées aux entreprises, administrations et associations :
- Évaluer les risques : cartographier les usages d’IA et prioriser les systèmes à haut risque.
- Documenter la traçabilité : mettre en place des journaux et politiques de conservation des données compatibles avec l’AI Act.
- Renforcer les garde-fous : intégrer des blocages techniques contre la génération non consentie de nus et tester l’efficacité des mesures.
- Préparer le marquage : automatiser l’étiquetage des contenus générés par l’IA pour répondre au futur impératif de transparence.
- Dialoguer avec les autorités : anticiper la publication des normes techniques et participer aux consultations pour influencer des règles opérationnelles pragmatiques.
Insight : la conformité devient une compétence stratégique ; investir tôt permet de transformer une contrainte en avantage compétitif.
Rôle de la régulation dans la lutte contre la désinformation
Au-delà de la protection individuelle, la régulation IA vise aussi à freiner la lutte contre la désinformation en rendant plus visible l’origine des contenus. La clarté sur le marquage et la conservation des métadonnées aidera les plateformes à détecter et modérer les manipulations automatisées.
Des acteurs et observateurs, comme l’autorité des télécoms ou des ONG, ont tiré la sonnette d’alarme sur les risques de l’IA générative pour la neutralité du net et la sécurité citoyenne, ce qui alimente le débat sur le calendrier d’application.
Insight : la transparence technique est une condition nécessaire pour limiter l’impact des deepfakes sur le débat public.
Que surveiller dans les mois qui viennent
Le Parlement européen a adopté une position commune, mais le texte final doit encore être négocié avec le Conseil des 27 États. Les prochains jalons à suivre :
- Les discussions interinstitutionnelles entre le Parlement et le Conseil.
- La publication effective des normes techniques par les organismes de normalisation.
- L’adoption finale du calendrier et des définitions sur les deepfakes et le marquage.
Pour suivre l’actualité et les réactions du secteur, on trouvera des analyses pertinentes, par exemple sur les tensions entre acteurs de l’IA et autorités, ou les alertes des régulateurs sur les dérives possibles.
Insight : la trajectoire réglementaire dépendra autant de la technique que du politique — et NovaData, comme beaucoup d’acteurs, adaptera son roadmap en conséquence.
Pour en savoir plus sur les débats autour des acteurs français et européens, voir un article qui relate la réaction de start-up et fournisseurs, et une alerte récente sur les dangers de l’IA générative :
Mistral et les start-up françaises contestent — une voix industrielle dans le débat.
L’Arcep alerte sur les risques de l’IA générative — perspective régulatrice et technique utile à garder en tête.
