Se rendre au contenu

IA et expertise judiciaire : cadre légal en Belgique et en Europe

13 janvier 2026 par
IA et expertise judiciaire : cadre légal en Belgique et en Europe
Administrateur du Collège des Experts Architectes
| Aucun commentaire pour l'instant


Dans le cadre de sa mission de veille et de partage de bonnes pratiques, le CEAB était représenté au colloque IA du 9 décembre 2025 organisé par l'ABEX. 

Vous trouverez ci-dessous une synthèse des enseignements essentiels de cette journée, avec un focus particulier sur les implications concrètes pour les experts judiciaires et privés. 

Bonne lecture !

Pour le CEAB,

Frédéric Perpète


Enseignements essentiels pour les experts judiciaires et privés

Le colloque IA organisé par l’ABEX a mis en évidence une réalité désormais claire : 

👉 l’intelligence artificielle n’est ni interdite ni libre, mais strictement conditionnée, en particulier dans le champ de l’expertise et de la justice.

👉 L’IA est appelée à devenir un outil d’assistance puissant, à condition de respecter un cadre juridique, éthique et méthodologique exigeant.


1. Traçabilité et responsabilité : le socle non négociable

Le message central, partagé par l’ensemble des intervenants, est sans ambiguïté :

👉 l’expert reste pleinement responsable du contenu de son rapport, y compris lorsque l’IA est utilisée comme outil d’aide.

Cela implique impérativement :

  • la traçabilité des sources utilisées par l’IA ;

  • la capacité de justifier l’origine des informations, leur fiabilité et leur pertinence ;

  • la possibilité d’expliquer le raisonnement, sans se retrancher derrière un outil.

👉 Une production générée par IA ne peut jamais être intégrée telle quelle dans un rapport d’expertise sans relecture critique, validation humaine et contextualisation.


2. Transparence vis-à-vis du juge et des parties

Les lignes directrices présentées (notamment par EuroExpert) convergent vers une exigence forte de transparence.

Lorsqu’un outil d’IA est utilisé, l’expert doit pouvoir indiquer dans son rapport :

  • quel outil a été utilisé ;

  • à quelles fins précises ;

  • avec quelles données d’entrée ;

  • quelles sources ont été mobilisées ;

  • et pourquoi le résultat est jugé pertinent dans le cadre de la mission.

👉 Cette transparence n’est pas une option : elle constitue une condition de recevabilité et de crédibilité.


3. L’éclairage déterminant de la magistrature

L’intervention de Madame la Juge Manuela Cadelli a apporté un signal très clair et fort côté judiciaire.

Le principe fondamental rappelé est le suivant :

l’IA doit rester un outil d’assistance, jamais un outil de décision.

La magistrature insiste sur :

  • la nécessité d’un contrôle humain effectif ;

  • les dossiers judiciaires concernent avant tout des personnes humaines, avec leurs droits, leurs fragilités et des conséquences réelles ;

  • la justice confie une mission à un expert pour son discernement, son analyse et sa responsabilité, et non pour qu'il sous-traite son raisonnement à un outil automatisé ;

  • la prudence extrême dans les domaines dit à haut risque (dont la justice fait partie) ;

  • la confidentialité des données ;

  • la possibilité, en cas de risques résiduels jugés trop élevés, d’écarter ou suspendre l’usage de certains outils.

👉 Autrement dit : l’acceptabilité judiciaire de l’IA dépendra du comportement des experts, pas de la technologie elle-même.


4. L’exemple pertinent de l’outil « JEF » (Barreau de Bruxelles)

L’outil JEF, présenté par le Barreau de Bruxelles, illustre une voie jugée particulièrement pertinente : celle des systèmes RAG (Retrieval-Augmented Generation).

Ses caractéristiques clés :

  • base documentaire fermée et qualifiée ;

  • confidentialité des données (pas d’apprentissage sur des modèles publics) ;

  • génération de réponses ancrées dans des sources vérifiables, réduisant fortement les hallucinations.

Ce type d’approche est transposable au monde de l’expertise :

👉 IA + base documentaire maîtrisée + supervision humaine.


5. Ce que l’IA peut réellement apporter à l’expert

Le colloque a confirmé que l’IA peut apporter une valeur ajoutée réelle, notamment pour :

  • la structuration de rapports ;

  • la synthèse de documents volumineux ;

  • la sécurisation méthodologique ;

  • la cohérence rédactionnelle et l'orthographe ;

  • le gain de temps sur des tâches à faible valeur ajoutée.

Mais cette valeur est strictement conditionnée par :

  • la maîtrise de l’outil ;

  • la compréhension de ses limites ;

  • et une posture professionnelle responsable.


6. Les limites actuelles de l’IA et les risques associés

L’IA générative présente aujourd’hui des limites structurelles liées à son mode de fonctionnement probabiliste :

  • Hallucinations : l’IA peut produire des réponses plausibles mais factuellement fausses, sans signaler l’incertitude.

  • Création de contenu orientée “satisfaction utilisateur” : les modèles sont conçus pour répondre de manière cohérente et convaincante, parfois au détriment de la vérité factuelle.

  • Risque d’invention de faits, références ou pièces si l’outil est utilisé sans contrôle humain strict de vérification.

  • Effet inflationniste dans les dossiers : les clients, justiciables et conseils utilisent déjà des IA pour produire des volumes importants d’arguments ou de documents, parfois erronés, alourdissant inutilement les procédures.

  • Absence de discernement juridique et contextuel : l’IA ne comprend ni les enjeux humains, ni la singularité d’un litige, ni la finalité de la mission confiée à un expert.

👉  l’IA reste un outil d’assistance, et non un acteur autonome de l’expertise ou de la justice.

👉  L'importance de vérifier ses sources et d'objectiver le contenu.

👉 La responsabilité, l’analyse critique et le jugement restent exclusivement humains.


7. Confidentialité des données et respect du cadre légal européen

L’utilisation de l’IA dans le cadre de l’expertise judiciaire ou privée soulève des enjeux majeurs en matière de confidentialité et de protection des données :

  • Les dossiers d’expertise contiennent fréquemment des données sensibles, parfois personnelles, confidentielles ou couvertes par le secret professionnel.


  • L’utilisation d’outils d’IA externes pose la question :

    • du lieu de traitement des données (souvent situés hors de l'Union Européenne, notamment outre-Atlantique),

    • de leur stockage éventuel,

    • et de leur réutilisation à des fins d’entraînement.


  • Le colloque a rappelé que toute utilisation d’un outil d’IA doit être compatible avec le RGPD, en particulier :

    • le principe de minimisation des données,

    • l’interdiction de transmettre des données personnelles sans base légale claire,

    • la traçabilité des traitements.

Dans ce contexte, le futur AI Act européen renforce encore les exigences :

  • obligation de gouvernance des données,

  • transparence sur l’usage d’outils automatisés,

  • supervision humaine obligatoire pour les usages à impact juridique,

  • responsabilité accrue des professionnels utilisant l’IA dans des contextes sensibles.

👉 Pour les experts, cela implique une vigilance particulière :

l’IA peut être utilisée comme outil d’aide, mais jamais au détriment de la confidentialité, du cadre légal et de la responsabilité personnelle de l’expert.


Conclusion

L’IA ne remplace ni le jugement, ni l’expérience, ni la responsabilité de l’expert.

Elle constitue un outil d’augmentation, à manier avec rigueur, transparence et discernement.

Pour les experts judiciaires et privés, le message est clair :

👉 ceux qui sauront utiliser l’IA proprement renforceront leur crédibilité ;

👉 ceux qui l’utiliseront sans cadre prendront un risque majeur.

📌 Source : Colloque IA – ABEX, 9 décembre 2025


Se connecter pour laisser un commentaire.