L’actualité IA (blog)
IA Act : 2ème volet

Le : 26/08/2025
Dans cet article
Le 2e volet de l’IA Act entre en application ce 2 août 2025
Ce 2 août 2025 marque un jour clé dans la
régulation de l’intelligence artificielle au sein de l’Union européenne
avec l’entrée en vigueur du dernier volet de l’IA Act, un an après son
adoption initiale. Ce règlement vise à encadrer strictement le
développement, la commercialisation et l’usage des systèmes d’IA, avec
pour objectif une intelligence artificielle plus responsable, transparente
et sécurisée pour chaque personne.
Principales mesures du 2e volet
- Transparence
renforcée : Les fournisseurs d’IA devront spécifier clairement les données
utilisées pour entraîner leurs modèles, y compris les contenus protégés
par droits d’auteur, permettant aux créateurs et à chaque utilisateur
de faire valoir leurs droits et d’être rémunérés si nécessaire. Cette
exigence française et européenne, publiée dans un texte officiel,
vise à mieux protéger l’information et concerne directement les
technologies de demain, avec un impact direct en France. Cela impose
aussi de bien utiliser les données personnelles dans le cadre
du RGPD, afin de limiter toute conséquence négative.
- Gestion
des risques systémiques : Pour les systèmes d’IA les plus puissants,
susceptibles d’impacter massivement la société, des obligations strictes
s’imposent, comme la notification rapide des incidents graves et la mise
en place de dispositifs robustes pour gérer ces risques. L’objectif
est aussi d’éviter les dérives en matière d’usage et de responsabilité,
notamment en France, où la vigilance est forte.
Code de bonnes pratiques
Le règlement introduit un code de bonnes pratiques
destiné à guider les entreprises et acteurs du secteur tech vers la
conformité avec les exigences de transparence, de sécurité, de respect des
droits d’auteur et de cybersécurité, fondamentaux pour gagner la confiance de
l’utilisateur. Plusieurs acteurs majeurs tels que OpenAI, Google (avec Gemini)
et Mistral AI ont annoncé leur engagement à suivre ce code, tandis que Meta a
refusé, jugeant la règlementation trop contraignante.
Sanctions et contrôle
La conformité deviendra obligatoire dès août 2026 pour les
nouveaux modèles d’IA, tandis que les modèles existants disposeront d’un délai
supplémentaire jusqu’en 2027 pour s’adapter.
Les autorités nationales, notamment l’état français avec la Cnil, seront
chargées du contrôle et de l’application des règles.
Les infractions exposeront les contrevenants à des amendes pouvant atteindre 35
millions d’euros ou 7 % du chiffre d’affaires mondial annuel, illustrant la
fermeté de la législation face au risque d’abus, une vigilance
particulièrement soutenue en France.
Enjeux et perspectives
L’Union européenne tente de trouver un équilibre entre
innovation technologique et protection de chaque personne en imposant
un dispositif clair et strict. Si certains acteurs y voient un frein possible à
la compétitivité, d’autres considèrent cette règlementation comme une
opportunité pour promouvoir une IA éthique, transparente et fiable en matière
d’usage et de gestion des systèmes. Cet article souligne l’importance
de ces mesures dans la stratégie européenne, fondamentale pour un
développement durable et responsable.
L’impact s’étendra aussi à l’éducation et la sensibilisation
des utilisateurs afin de mieux comprendre les enjeux et limites de
l’intelligence artificielle dans un contexte général.
Dans ce plan, le dernier volet de l’IA Act se
positionne comme un pilier essentiel de la régulation, qui concerne toutes
les parties prenantes du secteur.
Ce jour du 2 août 2025 scelle donc le début d’une
nouvelle ère réglementaire pour l’intelligence artificielle en Europe,
dont l’impacte pourrait servir de modèle à d’autres régions du monde. Il
faut voir cette étape comme un moyen d’éviter les abus et de fixer
des limites claires pour les technologies avancées, une position forte
déjà soutenue par la France.
Conclusion
Le deuxième volet de l’IA Act vient compléter et renforcer
les fondations posées par le premier volet, en approfondissant les
exigences de transparence, de gestion des risques et de respect des droits
d’auteur. Ensemble, ces deux phases constituent un dispositif régulateur
ambitieux qui vise à garantir une adoption responsable et sécurisée de
l’intelligence artificielle.
Ce texte européen exemplaire représente un tournant décisif
pour façonner un système d’IA qui protège chaque personne et l’utilisateur,
tout en stimulant l’innovation durable au sein d’un marché technologique
compétitif. Pour chaque entreprise développée en Europe, ce mot d’ordre clair
publié dans la loi est à intégrer dans leur politique et leurs pratiques, afin
de respecter ces principes fondamentaux, notamment en France.