C’est un tournant historique dans la régulation mondiale des technologies. Ce samedi 2 août 2025, une nouvelle étape du Règlement européen sur l’intelligence artificielle (IA Act) entre en vigueur. Adopté par le Parlement européen en mars 2024, ce texte inédit à l’échelle mondiale vise à encadrer les usages de l’IA tout en protégeant les droits fondamentaux. L’Europe devient ainsi la première grande région à imposer un cadre juridique structuré aux fournisseurs d’IA, y compris aux géants américains comme OpenAI, Google ou Meta.
L’IA Act n’est pas seulement un texte juridique. C’est une affirmation politique, un choix de société face à des technologies qui transforment déjà nos vies. En fixant des règles du jeu claires, l’Europe espère montrer qu’une IA éthique, innovante et démocratique est possible.
Une approche fondée sur le risque
Le cœur du dispositif repose sur une classification des systèmes d’IA selon leur niveau de risque :
- Risque inacceptable : systèmes interdits (ex. : notation sociale, manipulation cognitive, reconnaissance faciale en temps réel).
- Risque élevé : IA utilisée dans des domaines sensibles comme le recrutement, la justice ou la santé. Ces systèmes sont soumis à de strictes obligations de transparence, d’explicabilité et de supervision humaine.
- Risque limité : obligation d’information minimale (ex. : chatbots).
- Risque minimal : libre utilisation.
L’IA Act impose également des règles spécifiques aux modèles d’IA dits « à usage général » (GPAI), comme ceux qui propulsent ChatGPT, Gemini, Claude ou encore les modèles open source européens.
Ce qui change à partir du 2 août 2025
La phase qui débute aujourd’hui concerne deux aspects clés :
- Les GPAI devront se conformer à de nouvelles obligations :
- Publier des résumés techniques sur les données utilisées pour l’entraînement.
- Fournir des garanties de sécurité, de robustesse et de cybersécurité.
- Informer les utilisateurs sur leurs usages potentiels, y compris les risques.
- Respecter les droits d’auteur, notamment pour les contenus utilisés dans la phase d’entraînement.
- Les États membres doivent désigner ou confirmer les autorités compétentes chargées de surveiller la mise en œuvre du règlement sur leur territoire.
Ces mesures visent à encadrer les modèles puissants sans freiner l’innovation, un équilibre que l’Union européenne cherche à atteindre depuis plusieurs années.
Un bras de fer avec les États-Unis
Cependant, cette entrée en vigueur ne se fait pas sans tensions. Dans un article publié le 2 août 2025, Le Monde souligne que ce texte devient un nouveau point de friction entre l’Europe et les États-Unis. Plusieurs responsables politiques et industriels américains dénoncent des obligations jugées trop contraignantes, notamment sur la transparence des données utilisées pour l’entraînement des modèles. Ils craignent que cela ne menace le secret industriel ou n’ouvre la porte à des litiges liés aux droits d’auteur.
Des désaccords profonds émergent : là où l’Europe veut encadrer dès maintenant, les États-Unis privilégient une approche plus souple, misant sur l’autorégulation et des lignes directrices encore non contraignantes. En toile de fond, un enjeu stratégique : qui fixera les standards mondiaux de l’IA ?
Une ambition européenne : encadrer pour mieux innover
Pour l’Europe, il ne s’agit pas de freiner l’innovation mais de la rendre responsable et soutenable. Le parallèle avec le RGPD (Règlement Général sur la Protection des Données) est souvent invoqué : en adoptant tôt des règles strictes sur les données personnelles, l’UE a influencé les pratiques mondiales. Avec l’IA Act, elle espère répéter cet exploit, en fixant un cadre juridique clair, protecteur, et adaptable à l’évolution des technologies.
Des entreprises européennes comme Mistral AI ou Aleph Alpha sont directement concernées. Pour elles, ce règlement peut représenter une opportunité de se distinguer dans un écosystème dominé par les Big Tech américaines.
Et la suite ?
Le déploiement complet de l’IA Act se fera progressivement jusqu’en 2026. Prochaine étape en février 2026, avec l’entrée en vigueur des obligations pour les systèmes à haut risque. En attendant, de nombreuses questions subsistent : les moyens alloués aux autorités de contrôle seront-ils suffisants ? Comment garantir une application homogène entre États membres ? Et surtout, comment assurer que les citoyens européens restent réellement protégés sans étouffer la compétitivité de l’écosystème technologique ?