🔐 Espace Nikitos
    Retour au blog
    Avocats30 avril 2026

    AI Act et avocats : les 3 obligations à connaître en 2026

    EL

    Émilie Fallecker

    Fondatrice de NIKITA

    AI Act et avocats : les 3 obligations à connaître en 2026

    Le Règlement (UE) 2024/1689 du 13 juin 2024, plus connu sous le nom d'AI Act, est entré en vigueur le 1er août 2024. Son application est étalée sur trois ans, avec des échéances précises pour 2025, 2026 et 2027. Pour les cabinets d'avocats français, trois obligations méritent une attention immédiate.

    Ce texte n'est pas qu'un sujet de droit du numérique pour spécialistes. Il s'applique à tout professionnel qui utilise un système d'IA dans le cadre de son activité, y compris pour des usages internes au cabinet. Voici ce que cela change concrètement.

    Le calendrier d'application en bref

    • 2 février 2025 : interdictions des systèmes IA présentant un risque inacceptable (notation sociale, manipulation comportementale, etc.). Sans impact direct pour les cabinets.
    • 2 août 2025 : obligations pour les fournisseurs de modèles d'IA à usage général (GPAI). Concerne OpenAI, Anthropic, Google, Mistral, etc., pas les avocats utilisateurs.
    • 2 août 2026 : obligations principales pour les systèmes IA classés à haut risque. C'est l'échéance qui peut concerner certains usages cabinet.
    • 2 août 2027 : extension des obligations à l'ensemble des systèmes IA déjà en service.

    Pour les avocats, la majorité des outils IA utilisés en cabinet (Claude, GenIA-L, Doctrine, ChatGPT Business) ne tombent pas dans la catégorie "haut risque" telle que définie par le règlement. Mais certaines obligations transverses s'appliquent à tous les usages professionnels.

    Obligation 1 : la transparence vis-à-vis du client

    L'article 50 de l'AI Act impose une obligation de transparence aux utilisateurs de systèmes d'IA générative. Lorsqu'un contenu est produit ou substantiellement modifié par un système d'IA, l'utilisateur doit en informer la personne destinataire, sauf exceptions limitées.

    Ce que cela signifie en cabinet : si vous utilisez Claude ou ChatGPT pour rédiger une première version de conclusions, un projet de contrat ou un courrier, vous devez en informer votre client. Pas dans les détails techniques, mais sur le principe.

    Comment l'appliquer en pratique :

    • Mentionner dans la lettre de mission ou les conditions générales que des outils d'IA peuvent être utilisés pour la production assistée de certains documents, sous validation humaine systématique
    • Préciser dans la convention d'honoraires que cette utilisation n'affecte ni la responsabilité de l'avocat ni la qualité de la prestation
    • Documenter en interne quels outils sont utilisés pour quels types de tâches

    Le guide pratique du CNB sur l'IA générative recommande explicitement cette transparence. Elle relève à la fois du devoir d'information et de la confiance client.

    Obligation 2 : la vérification humaine systématique

    L'AI Act et la déontologie convergent sur ce point. Tout contenu produit par IA et destiné à être utilisé professionnellement doit faire l'objet d'une vérification humaine substantielle.

    Cette obligation prend une dimension particulière depuis décembre 2025, quand trois décisions des tribunaux administratifs de Grenoble et Orléans ont identifié dans des écritures déposées des références jurisprudentielles fictives produites par IA générative. Le risque est concret. Les sanctions disciplinaires possibles pour ce type de manquement le sont aussi.

    Ce que cela signifie en cabinet :

    • Toute citation jurisprudentielle générée par IA doit être vérifiée à la source : Légifrance, Doctrine, Lexis, JuriCA
    • Toute analyse juridique produite par IA doit être relue critique et validée par un avocat avant transmission au client ou dépôt
    • Cette vérification doit pouvoir être tracée a posteriori : noter dans le dossier qui a vérifié quoi et quand

    En pratique : intégrer dans le workflow cabinet une étape de validation IA, formalisée. Ce n'est pas une charge administrative, c'est une protection juridique.

    Obligation 3 : la tenue d'un registre des outils IA

    L'AI Act prévoit pour certains usages la tenue d'un registre des systèmes d'IA utilisés. Cette obligation est principalement à la charge des fournisseurs et des déployeurs de systèmes à haut risque, mais le CNB recommande aux cabinets d'avocats une approche similaire à titre de bonne pratique.

    Ce que cela signifie en cabinet :

    Tenir un document interne (idéalement révisé tous les 6 mois) qui liste :

    • Les outils IA utilisés au cabinet (nom, fournisseur, type d'offre)
    • L'usage qui en est fait (rédaction d'actes, recherche juridique, gestion administrative, etc.)
    • Le niveau de conformité au secret professionnel pour chaque outil
    • Le responsable interne désigné pour chaque outil

    Pourquoi c'est utile :

    • En cas de contrôle ou de question d'un client, vous démontrez votre maîtrise des outils
    • Cela force une mise à jour régulière de votre stack IA, qui évolue vite
    • Cela facilite la formation des nouveaux collaborateurs : ils savent quoi utiliser et quoi éviter
    • C'est un signal de sérieux vis-à-vis de l'Ordre et des assureurs

    Ce qui ne s'applique pas (mais qu'on entend souvent)

    "L'AI Act interdit l'utilisation de l'IA en cabinet." Faux. L'AI Act encadre l'usage, il ne l'interdit pas. La grande majorité des outils IA utilisés en cabinet sont autorisés sous réserve de conformité aux obligations transverses (transparence, vérification, traçabilité).

    "Il faut une autorisation préalable pour utiliser de l'IA." Faux. Aucune autorisation préalable n'est requise pour les outils non classés "haut risque". Les outils utilisés en cabinet pour la rédaction d'actes ou la recherche juridique ne sont pas dans cette catégorie.

    "La déontologie passe avant l'AI Act." Vrai pour les avocats. Le CNB et l'Ordre conservent leur compétence. L'AI Act vient en complément, il ne remplace pas le règlement intérieur des barreaux ni le RIN.

    Pour aller plus loin

    La conformité AI Act n'est pas qu'une question de cases à cocher. C'est aussi un argument commercial vis-à-vis de vos clients : un cabinet qui maîtrise sa stack IA, qui forme ses collaborateurs et qui documente ses pratiques rassure.

    Notre formation « L'IA pour les avocats » (18h, validée CNB, financement FIFPL possible) couvre précisément ces obligations dans le module 4 « IA et déontologie », avec des modèles de clauses lettres de mission, des templates de registre IA cabinet, et la checklist de conformité par outil.

    Découvrir la formation Avocats →

    Article publié le 30 avril 2026. Le texte de l'AI Act et son interprétation par les autorités évoluent. Cet article ne constitue pas un avis juridique. Consultez votre Ordre ou un expert pour vos cas spécifiques.

    Prêt à passer à l'action ?

    Nous accompagnons les entreprises dans leur transformation IA.