La revue IA des Notaires

News letter 26/06/2025

Je partage ici notre revue de l'actualité sur l'Intelligence Artificielle et tous les sujets attenants qui concernent les métiers du Notariat

«Il devient urgent de prendre ce virage» : l’IA encore trop peu utilisée en entreprise aux yeux des salariés, selon une étude.

Source: Figaro | Date: 19/06/2025 | Lien vers l'article

Résumé de l’article

Selon une enquête Ipsos pour Greenworking, seulement une entreprise française sur trois a officiellement déployé des outils d’intelligence artificielle (IA), alors que deux salariés sur trois déclarent les utiliser dans leur travail, souvent à leur propre initiative. Ce phénomène d’usage “fantôme” de l’IA révèle un décalage entre l’adoption institutionnelle et l’usage réel des technologies sur le terrain.

Les salariés perçoivent majoritairement l’IA comme un levier de productivité, d’innovation et de bien-être. Ils l’utilisent pour des tâches variées, allant de la correction de texte à l’analyse de données ou la génération d’idées. L’étude note une très forte appétence pour ces outils, indépendamment de la politique officielle de leur entreprise.

Cependant, cet usage non encadré pose des risques importants, notamment en matière de cybersécurité (vol de données, ransomware), de conformité réglementaire et de confidentialité. Les experts appellent donc à une meilleure formation des dirigeants et à une intégration encadrée de l’IA dans les entreprises.

L’article met en avant deux idées principales :

  1. Les salariés ont largement adopté l’IA de manière autonome, malgré un manque de déploiement officiel par les entreprises.
  2. Ce décalage crée des risques importants, soulignant l’urgence pour les entreprises de structurer, encadrer et accompagner l’usage de l’intelligence artificielle en milieu professionnel


Développement des systèmes d'IA: La CNIL publie ses recommandations sur l'intérêt légitime.

Source: CNIL | Date: 19/06/2025 | Lien vers l'article

Résumé de l’article

La CNIL (Commission nationale de l'informatique et des libertés), consciente des enjeux posés par l’essor de l’intelligence artificielle (IA), travaille à clarifier le cadre juridique applicable pour permettre un développement responsable et sécurisé de ces technologies. Depuis le lancement de son plan d’action en mai 2023, elle a publié plusieurs recommandations pratiques à destination des acteurs de l’IA (entreprises, chercheurs, juristes...) afin de sécuriser les traitements de données personnelles tout en encourageant l’innovation.

Les recommandations visent à aider à définir la finalité d’un traitement, identifier les responsabilités juridiques, déterminer une base légale (comme l’intérêt légitime), intégrer la protection des données dès la conception, informer les personnes concernées, ou encore garantir leurs droits.

Deux nouvelles recommandations ont été publiées après consultation des parties prenantes. Celles-ci précisent les conditions dans lesquelles l’intérêt légitime peut servir de base légale au traitement de données par des systèmes d’IA, notamment dans des pratiques comme le web scraping. Elles offrent des critères d’évaluation, des exemples concrets, ainsi que des garanties recommandées pour encadrer ces usages (anonymisation, droit d’opposition, transparence, etc.).

La CNIL prévoit de poursuivre son travail avec de futures recommandations sur des points clés : statut des modèles d’IA, sécurité, annotation des données, et articulation entre le RGPD et les nouvelles régulations européennes sur l’IA.

L’article met en avant deux idées principales :

  1. La CNIL s’efforce de sécuriser juridiquement le développement de l’IA en publiant des recommandations claires et concrètes sur l’usage des données personnelles.
  2. L’intérêt légitime peut être une base légale pour les traitements IA, à condition de mettre en place des garanties strictes pour protéger les droits des personnes


Modèles d’IA : l’Europe pose ses premières bases avec l’IA Act

Source: Haas Avocats | Date: 25/06/2025 | Lien vers l'article

Résumé de l’article

Le Bureau de l’intelligence artificielle de la Commission européenne a publié en avril 2025 des propositions de lignes directrices visant à clarifier le régime juridique applicable aux modèles d’IA à usage général (GPAI), dans le cadre de la mise en œuvre progressive de l’IA Act. Ce texte a des implications juridiques majeures pour les entreprises, en particulier celles qui développent, modifient ou intègrent des modèles d’IA.

1- Qualification juridique des modèles GPAI : un cadre technique aux conséquences réglementaires lourdes

Les autorités européennes proposent de caractériser les modèles GPAI à partir d’un seuil de puissance de calcul (10²² FLOPs), au-delà duquel un modèle est présumé "généraliste". Cette approche, très technique, soulève de nombreuses critiques : elle est jugée arbitraire, facilement contournable, et peu adaptée à la réalité opérationnelle des entreprises.

En conséquence, les entreprises pourraient être soumises à des obligations lourdes simplement en fonction d’un critère technique contesté, ce qui génère une insécurité juridique importante.

2 - Extension des responsabilités à toute la chaîne de valeur

Le texte élargit la notion de “fournisseur” de modèle d’IA : non seulement l’entité qui développe le modèle est concernée, mais aussi celles qui le modifient (modificateurs en aval) ou l’intègrent dans un système (fournisseurs en aval).

Ainsi, une entreprise qui ajuste un modèle existant devient juridiquement responsable si ses modifications dépassent un tiers du calcul initial, ce qui implique des obligations de documentation, de transparence, et de conformité accrues.

Des scénarios concrets sont fournis, montrant que la responsabilité est partagée en fonction des rôles, parfois de manière complexe et floue.

Modèles open source : un régime plus souple, mais sous conditions

Les modèles d’IA mis à disposition en open source bénéficient d’exemptions ciblées (pas d'obligations complètes tant qu’il n’y a pas de risque systémique, accès libre, transparence totale). Toutefois, ces exemptions reposent sur des critères techniques stricts, ce qui oblige les fournisseurs open source à documenter précisément leurs modèles.

Deux idées fortes à retenir

  1. L’IA Act impose aux entreprises une responsabilisation juridique élargie, même en cas de modification ou d’intégration d’un modèle existant, avec des obligations techniques et documentaires importantes.
  2. Le cadre proposé, encore imprécis et très technique, crée une incertitude juridique pour les entreprises, qui devront redoubler de vigilance pour se conformer à une réglementation encore en construction.
La revue IA des Notaires
Arnaud Barbotin 27 juin 2025
Partager cet article
Étiquettes
Archive