Certains cookies sont utilisés pour le fonctionnement de notre site. Si vous cliquez sur "tout refuser", seul les cookies pour le fonctionnement seront conservés.

Tout refuser Tout accepter
Consentement

Cookies


Le MAG

MORPHAIUS

L’actualité IA (blog)

IA Act : 2ème volet

IA Act : 2ème volet

Le 2e volet de l’IA Act entre en application ce 2 août 2025

Ce 2 août 2025 marque un jour clé dans la régulation de l’intelligence artificielle au sein de l’Union européenne avec l’entrée en vigueur du dernier volet de l’IA Act, un an après son adoption initiale. Ce règlement vise à encadrer strictement le développement, la commercialisation et l’usage des systèmes d’IA, avec pour objectif une intelligence artificielle plus responsable, transparente et sécurisée pour chaque personne.

Principales mesures du 2e volet

  • Transparence renforcée : Les fournisseurs d’IA devront spécifier clairement les données utilisées pour entraîner leurs modèles, y compris les contenus protégés par droits d’auteur, permettant aux créateurs et à chaque utilisateur de faire valoir leurs droits et d’être rémunérés si nécessaire. Cette exigence française et européenne, publiée dans un texte officiel, vise à mieux protéger l’information et concerne directement les technologies de demain, avec un impact direct en France. Cela impose aussi de bien utiliser les données personnelles dans le cadre du RGPD, afin de limiter toute conséquence négative.
  • Gestion des risques systémiques : Pour les systèmes d’IA les plus puissants, susceptibles d’impacter massivement la société, des obligations strictes s’imposent, comme la notification rapide des incidents graves et la mise en place de dispositifs robustes pour gérer ces risques. L’objectif est aussi d’éviter les dérives en matière d’usage et de responsabilité, notamment en France, où la vigilance est forte.

Code de bonnes pratiques

Le règlement introduit un code de bonnes pratiques destiné à guider les entreprises et acteurs du secteur tech vers la conformité avec les exigences de transparence, de sécurité, de respect des droits d’auteur et de cybersécurité, fondamentaux pour gagner la confiance de l’utilisateur. Plusieurs acteurs majeurs tels que OpenAI, Google (avec Gemini) et Mistral AI ont annoncé leur engagement à suivre ce code, tandis que Meta a refusé, jugeant la règlementation trop contraignante.

Sanctions et contrôle

La conformité deviendra obligatoire dès août 2026 pour les nouveaux modèles d’IA, tandis que les modèles existants disposeront d’un délai supplémentaire jusqu’en 2027 pour s’adapter.
Les autorités nationales, notamment l’état français avec la Cnil, seront chargées du contrôle et de l’application des règles.
Les infractions exposeront les contrevenants à des amendes pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial annuel, illustrant la fermeté de la législation face au risque d’abus, une vigilance particulièrement soutenue en France.

Enjeux et perspectives

L’Union européenne tente de trouver un équilibre entre innovation technologique et protection de chaque personne en imposant un dispositif clair et strict. Si certains acteurs y voient un frein possible à la compétitivité, d’autres considèrent cette règlementation comme une opportunité pour promouvoir une IA éthique, transparente et fiable en matière d’usage et de gestion des systèmes. Cet article souligne l’importance de ces mesures dans la stratégie européenne, fondamentale pour un développement durable et responsable.

L’impact s’étendra aussi à l’éducation et la sensibilisation des utilisateurs afin de mieux comprendre les enjeux et limites de l’intelligence artificielle dans un contexte général.

Dans ce plan, le dernier volet de l’IA Act se positionne comme un pilier essentiel de la régulation, qui concerne toutes les parties prenantes du secteur.

Ce jour du 2 août 2025 scelle donc le début d’une nouvelle ère réglementaire pour l’intelligence artificielle en Europe, dont l’impacte pourrait servir de modèle à d’autres régions du monde. Il faut voir cette étape comme un moyen d’éviter les abus et de fixer des limites claires pour les technologies avancées, une position forte déjà soutenue par la France.

Conclusion 

Le deuxième volet de l’IA Act vient compléter et renforcer les fondations posées par le premier volet, en approfondissant les exigences de transparence, de gestion des risques et de respect des droits d’auteur. Ensemble, ces deux phases constituent un dispositif régulateur ambitieux qui vise à garantir une adoption responsable et sécurisée de l’intelligence artificielle.

Ce texte européen exemplaire représente un tournant décisif pour façonner un système d’IA qui protège chaque personne et l’utilisateur, tout en stimulant l’innovation durable au sein d’un marché technologique compétitif. Pour chaque entreprise développée en Europe, ce mot d’ordre clair publié dans la loi est à intégrer dans leur politique et leurs pratiques, afin de respecter ces principes fondamentaux, notamment en France.

 

Partager cet article :

LinkedIn

Contactez-nous !

Si vous souhaitez obtenir plus d'informations sur nos outils ou découvrir des exemples concrets d'utilisation, n'hésitez pas à nous envoyer un email. Nous vous répondrons dans les plus brefs délais.

Nos partenaires