THE AUTHORS:
Seedley Bouillet, LL.M. Graduate from Queen Mary University of London
Yeonhwa Kim, Global Policy Intern at the International Chamber of Commerce (“ICC”)
As part of Paris Arbitration Week 2026, Paris Baby Arbitration (PBA), in collaboration with Daily Jus and Jus Mundi, brings together contributions in a special edition of Le Biberon, sharing reflections and perspectives from across this year’s events.
- English
- French
On Thursday, 26 March 2026, as part of Paris Arbitration Week, Jus Mundi hosted the conference “Jus Mundi AI for Justice Symposium.” The first panel explored AI’s impact on justice, discussing trust, fairness, and legitimacy, and asserted that innovation should boost confidence. The second one confirmed AI’s role in institutional workflows, highlighting its use in research, drafting, translation, and case management by top arbitral institutions. The third panel focused on operationalising responsible AI through governance and controls, with leaders sharing how they balance innovation and risk management to ensure trustworthiness.
The first panel, moderated by Ms Solène Bedel (Head of Legal, Jus Mundi), discussed AI’s impact on the legitimacy of judicial and arbitral systems. Panellists Mr Bertrand Kleinmann (Vice-President, Paris Tribunal of Economic Activities), Professor Maxi Scherer (ArbBoutique co-founder), Ms Marike Paulsson (Secretary General for the Council for International Dispute Resolution of Bahrain), and Ms Sapna Jhangiani KC (Barrister at Blackstone Chambers; Judge at DIFC Court of Appeal) examined the balance between efficiency and due process amid technological changes, highlighting examples of AI use that maintain ethical standards.
Professor Scherer discussed the evolving regulatory landscape, noting that the EU AI Act (Regulation (EU) 2024/1689)could classify arbitration as a “high-risk activity,” underscoring its impact on parties’ rights and responsibilities. This regulatory framework, blending mandatory requirements with soft-law instruments, will influence AI deployment in the EU and beyond. She pointed out that while arbitral institutions have adapted to new technologies, courts face greater risks from unrepresented parties and public scrutiny. Additionally, she mentioned ongoing efforts by the International Bar Association to develop “living documents” to guide practitioners on confidentiality and ethical use of AI.
Mr Kleinmann offered the perspective of the Paris Tribunal of Economic Activities, one of Europe’s most technologically advanced courts, which has taken a leading role in implementing AI tools within a judicial setting. He described the creation of a “circle of compliance” under which judges are prohibited from using unapproved AI tools and must adhere to a strict internal code of conduct. Mr Kleinmann stated that “justice is not a technical aspiration, it is a commitment,” asserting that AI’s role should be limited to preparatory work and reporting, with decision-making remaining with human judges. The goal is to optimise time and reduce inefficiencies, enabling judges to concentrate on substantive analysis.
Judge Jhangiani emphasised the need for ethical guidelines in AI usage within the judiciary. While French courts are leading in AI integration, many judicial systems are still developing these frameworks. She highlighted the DIFC Courts 2023 AI Guidelines, which promote transparency in AI use while ensuring confidentiality. Although AI can enhance case processing and access to justice, she insisted that it should never replace judges’ vital role in reasoning.
From an international standpoint, Ms Paulsson referred to ongoing discussions within UNCITRAL, noting that work on AI remains divided between Working Group III, responsible for treaty negotiations, and Working Group II, which focuses on commercial arbitration instruments such as the UNCITRAL Model Law and the New York Convention. She observed that progress has been relatively slow and that uncertainty persists as to how and where the issue will be addressed, particularly with the possibility of it being moved to the Commission. She raised core questions regarding the scope and level of regulation, including what should be regulated, whether action should be taken at the state or institutional level, and whether soft law may be more appropriate in light of the rapid pace of technological developments.
The second panel featured leaders from major arbitral institutions discussing AI strategies and institutional administration. Moderated by Mr Alexandre Vagenheim (VP of Global Legal Data, Jus Mundi), participants included Ms Ana Serra e Moura (Deputy Secretary General, ICC Court), Ms Eliana Tornese (Registrar, LCIA), Ms Thara Gopalan (Vice-President, AAA-ICDR), and Mr William Sternheimer (Manager for Training and Education, CAS).
Ms Serra e Moura outlined the ICC’s long-term strategic approach, noting that while case management teams do not currently use AI for direct decision-making, the institution is focused on data governance and diverse solutions. She highlighted the launch of “ICC One Click”, an AI-powered tool designed to facilitate international trade for small businesses and entrepreneurship, and emphasised the ongoing work of the Strategy Commission in shaping a guidance ecosystem for the use of AI in case law. This framework rests on five main pillars, including due process and the balance between soft and hard law.
Ms Tornese, LCIA, said innovation is about structured experimentation. The institution has an internal task force to assess AI in award review and checks. Tornese emphasised that human knowledge and judgment are irreplaceable: “AI can support, but not substitute, institutional judgment.”
Ms Gopalan explained that technology has long been integrated into AAA-ICDR operations to enhance access, minimise friction, and ensure proportionate dispute resolution. With approximately five hundred and eighty thousand cases annually, including eight hundred international disputes, scalability is crucial. She introduced the “AI Arbitrator” as a tool that supports, not replaces, human decision-making, and the “Resolution Simulator” as a means for early case assessment. She emphasised that these tools remain optional, with parties maintaining full control over their use of AI.
Mr Sternheimer discussed how AI has been integrated to manage a significant volume of cases annually. This technology has streamlined their research and case management by about thirty per cent, functioning as an efficient “first tool” like a human intern. However, he emphasised the importance of human oversight and cross-checking to ensure smooth operations.
During the Q&A session, the panel discussed the importance of training models on high-quality data, such as the one thousand five hundred cleaned AAA awards used to refine their decision-making support tools. They also emphasised that codes of ethics must evolve to address the disclosure and consensual use of AI in international arbitration.
The third panel, moderated by Mr Jean-Rémi de Maistre (Co-Founder and Chief Executive Officer, Jus Mundi), explored the practical implementation of ethical AI within law firms and legal technology companies. The speakers included Ms Natalia Chumak (Partner, Signature Litigation), Mr Lucas de Ferrari (Partner, White & Case), Ms Eleissa Karaj (Innovation Manager, A&O Shearman) and Mr Filip Nordlund (Legal Engineering Manager, Legora).
Ms Karaj discussed A&O Shearman’s approach to AI deployment, emphasising structured governance and training. The firm initially limited access to AI tools, gradually introducing approved solutions while managing risks. She highlighted the importance of cultural and educational readiness, training lawyers not just in tool functionality but also in responsible judgment, confidentiality, and understanding AI limitations.
Mr de Ferrari explained that White & Case rigorously tested multiple platforms before selecting Legora as its preferred AI system, owing to its reliability and advanced features. Within arbitration teams, AI now supports drafting, research, and analytical comparison, enhancing the quality and coherence of submissions. Yet he emphasised mindset as the decisive factor: adoption requires open curiosity combined with professional caution.
From a litigation perspective, Ms Chumak detailed how AI enhances efficiency in pre-claim assessments, crisis management, and legal research. She described AI as a “sounding board” that stimulates creative reasoning rather than replacing human insight. For Signature Litigation, the focus remains on robust internal governance: ensuring traceability of tool usage, verifying quality of outputs, and maintaining transparency with clients.
Mr Nordlund discussed Legora’s partnership with Jus Mundi, focusing on their integration of generative modelling and organised legal data for reliable research. He emphasised the importance of evaluation and transparency in building trust, especially in international arbitration, where confidentiality matters. Mr Nordlund noted that the main challenges in adopting AI often stem from human factors such as misunderstandings, trust issues, and curiosity about these technologies.
Overall, the discussions highlighted that AI is already reshaping dispute resolution by improving efficiency, accessibility, and analytical capabilities. However, its integration raises fundamental questions regarding legitimacy, accountability, and procedural fairness. A clear consensus emerged that AI must remain a tool supporting human decision-making rather than replacing it. Ensuring transparency, maintaining rigorous oversight, and preserving party autonomy are essential to building trust. As technological developments continue to accelerate, the future of dispute resolution will depend on striking a careful balance between innovation and responsibility. Justice must remain human in the digital age.
This article was originally published in Le Biberon newsletter on 17 April 2026, as part of a special edition curated by Paris Baby Arbitration (PBA), in collaboration with Jus Mundi and Jus Connect.
ABOUT THE AUTHORS
Seedley Bouillet is a graduate in international law with a focus on arbitration. She has gained professional experience at the ICC, where she worked on arbitration-related data and legal processes. She will be joining Archipel as a Legal Support Assistant, focusing on legal operations, compliance and LegalTech. Her work and interests explore the intersection between law, data and emerging technologies, including artificial intelligence.
Yeonhwa Kim is a Master’s candidate in Economic Law at Sciences Po Paris, where she also completed a specialization in International Governance and Diplomacy. She holds a Bachelor’s degree in Justice and Civil Leadership from Yonsei University, with extensive international academic experience at UCLA, King’s College London. Currently, Yeonhwa serves as a Global Policy Intern at the International Chamber of Commerce (“ICC”) within the Trade, Investment and Banking team, focusing on trade facilitation and regulatory trends. Her professional background is distinguished by multiple roles at the OECD, where she worked as a Legal Consultant for the Trade and Agriculture Directorate and a Policy Research Intern for the Directorate for Science, Technology, and Innovation. Her contributions include analyzing regulatory barriers for the Services Trade Restrictiveness Index (“STRI”) and co-authoring the OECD publication, “Challenges and opportunities of mission-oriented innovation policy in Korea” (2025).
Symposium Jus Mundi : L’IA au service de la justice
Le 26 mars 2026, à l’occasion de la Paris Arbitration Week, Jus Mundi a organisé le « Symposium Jus Mundi : l’IA au service de la justice ». Le premier panel a examiné l’impact de l’intelligence artificielle sur la justice, en abordant les enjeux de confiance, d’équité et de légitimité, tout en soulignant que l’innovation doit renforcer la confiance. Le deuxième a confirmé le rôle de l’IA dans les processus institutionnels, en mettant en avant son utilisation par les principales institutions arbitrales pour la recherche, la rédaction, la traduction et la gestion des affaires. Le troisième panel s’est concentré sur la mise en œuvre d’une IA responsable à travers des mécanismes de gouvernance et de contrôle, les intervenants partageant la manière dont ils concilient l’innovation et la gestion des risques afin de garantir la fiabilité du système.
Le premier panel, modéré par Mme Solène Bedel (Responsable juridique, Jus Mundi), portait sur l’impact de l’IA sur la légitimité des systèmes judiciaires et arbitraux. Il réunissait M. Bertrand Kleinmann (Vice-Président, Tribunal des Activités Économiques de Paris), Professeure Maxi Scherer (Cofondatrice, ArbBoutique), Mme Marike Paulsson (Secrétaire générale du Conseil pour le règlement des différends internationaux du Royaume de Bahreïn) et Mme Sapna Jhangiani KC (Avocate, Blackstone Chambers; Juge à la Cour d’appel des DIFC Courts). Les intervenants ont discuté de l’équilibre entre efficacité et garanties procédurales dans un contexte technologique, en illustrant des exemples d’utilisation éthique de l’IA.
La Professeure Maxi Scherer a présenté l’évolution du cadre réglementaire, soulignant que le règlement européen sur l’intelligence artificielle (EU AI Act) pourrait qualifier l’arbitrage d’« activité à haut risque » en raison de ses implications pour les droits des parties. Ce cadre, mêlant exigences strictes et soft law, influencera le déploiement de l’IA dans l’UE et au-delà. Elle a également indiqué que si les institutions arbitrales s’adaptent, les juridictions sont confrontées à des risques accrus, notamment en raison de parties non représentées et d’un contrôle public renforcé. Elle a également mentionné l’International Bar Association, qui travaille sur des « documents évolutifs » pour guider sur la confidentialité et l’éthique de l’IA.
M. Kleinmann a présenté le point de vue du TAE de Paris, une juridiction avancée en Europe utilisant des outils d’IA. Il a évoqué un « cercle de conformité » où les juges ne peuvent pas utiliser d’outils non autorisés et doivent respecter un code strict. Il a rappelé que « la justice n’est pas une aspiration technique, c’est un engagement » et que l’IA doit servir à la préparation et au reporting, la décision demeurant entre les mains des juges. L’objectif est d’optimiser le temps, de réduire les inefficacités et de permettre aux juges de se concentrer sur l’analyse au fond.
Mme Jhangiani a souligné l’importance d’encadrer l’utilisation de l’IA au moyen de lignes directrices éthiques. Certaines juridictions, comme la France, sont avancées, mais de nombreux systèmes judiciaires sont encore en cours de développement. Elle a évoqué les lignes directrices des DIFC Courts de 2023, qui prônent la transparence et la confidentialité. Elle a insisté sur le fait que si l’IA peut aider en justice, elle ne doit jamais supplanter le rôle du juge.
D’un point de vue international, Mme Paulsson a évoqué les discussions au sein de la CNUDCI, en soulignant que les travaux relatifs à l’IA demeurent répartis entre le Groupe de travail III, chargé des négociations de traités, et le Groupe de travail II, compétent en matière d’arbitrage commercial, notamment à travers la Loi type de la CNUDCI et la Convention de New York. Elle a relevé que les avancées restent relativement réservées et des incertitudes persistent quant à la manière et au niveau auxquels la question sera traitée, notamment au regard d’un possible transfert à la Commission. Elle a ainsi soulevé des interrogations essentielles quant au périmètre et au niveau de régulation, en particulier sur ce qui doit être encadré, sur l’opportunité d’une intervention au niveau étatique ou institutionnel, ainsi que sur la pertinence éventuelle d’instruments de soft law au regard du rythme rapide des évolutions technologiques.
Le deuxième panel, modéré par M. Alexandre Vagenheim (Vice-Président Global Legal Data, Jus Mundi), réunissait Mme Ana Serra e Moura (Secrétaire générale adjointe, CCI), Mme Eliana Tornese (Greffière, LCIA), Mme Thara Gopalan (Vice-Présidente, AAA-ICDR) et M. William Sternheimer (Responsable de la formation, Conseil international de l’arbitrage en matière de sport (CIAS)), pour discuter des stratégies d’IA et de l’administration institutionnelle.
Mme Serra e Moura a expliqué la stratégie à long terme de la CCI, soulignant que les équipes de gestion n’utilisent pas l’IA pour la prise de décision, se concentrant sur la gouvernance des données et le développement de solutions diversifiées. Elle a mentionné « ICC One Click », un outil d’IA pour le commerce international des petites entreprises, ainsi que les travaux visant à établir un cadre d’utilisation de l’IA en matière de jurisprudence, fondé sur cinq piliers, notamment le respect du contradictoire et l’équilibre entre soft law et hard law.
Mme Tornese, LCIA, a indiqué que l’innovation s’appuie sur une expérimentation menée par une équipe interne visant à évaluer l’IA dans le contrôle des sentences. Elle a néanmoins souligné que la connaissance humaine reste et restera irremplaçable : « L’IA peut soutenir, mais non se substituer au jugement institutionnel. »
Mme Gopalan a indiqué que l’AAA-ICDR intègre depuis longtemps de nombreuses technologies afin d’améliorer l’accès, de réduire les frictions et d’assurer un règlement proportionné des litiges. Avec environ cinq cent quatre-vingt mille affaires par an, dont huit cents internationales, l’enjeu réside dans l’échelle. Elle a présenté l’« AI Arbitrator » comme un outil d’aide à la décision humaine et le « Resolution Simulator » comme un outil d’évaluation en amont, soulignant que leur utilisation demeure fondée sur le consentement des parties.
M. Sternheimer a expliqué que l’IA a été intégrée pour gérer un volume important d’affaires chaque année. Cette technologie permet d’améliorer la recherche et la gestion des dossiers d’environ trente pour cent, en agissant comme un premier outil comparable à un assistant humain. Il a néanmoins insisté sur la nécessité d’un contrôle humain systématique pour assurer la fiabilité des opérations.
Durant le temps de questions-réponses, les intervenants ont souligné l’importance de former les modèles sur des données de haute qualité, telles que les mille cinq cents sentences utilisées par l’AAA pour améliorer ses outils d’aide à la décision. Ils ont également insisté sur la nécessité d’adapter les codes d’éthique afin d’encadrer la divulgation et l’utilisation consensuelle de l’IA dans l’arbitrage international.
Le troisième panel, modéré par M. Jean-Rémi de Maistre (Cofondateur et Directeur général de Jus Mundi), était consacré à la mise en œuvre pratique d’une IA éthique au sein des cabinets d’avocats et des entreprises de legal tech. Les intervenants étaient Mme Natalia Chumak (Associée, Signature Litigation), M. Lucas de Ferrari (Associé, White & Case), Mme Eleissa Karaj (Responsable de l’innovation, A&O Shearman) et M. Filip Nordlund (Responsable de l’ingénierie juridique, Legora).
Mme Karaj a présenté l’approche d’A&O Shearman pour le déploiement de l’IA, centrée sur la gouvernance et la formation. Le cabinet a d’abord limité l’accès aux outils d’IA, puis a adopté des solutions validées pour gérer les risques. Elle a souligné l’importance de la préparation culturelle et éducative, en formant les avocats à l’utilisation responsable, à la confidentialité et aux limites de ces technologies.
M. de Ferrari a expliqué que White & Case a testé plusieurs plateformes avant de choisir Legora pour sa fiabilité et ses fonctionnalités avancées. L’IA aide désormais l’arbitrage dans la rédaction, la recherche et l’analyse, améliorant la qualité des écrits. Il a souligné que l’état d’esprit, mêlant curiosité et prudence, est crucial pour l’adoption.
Quant au contentieux, Mme Chumak a démontré comment l’IA permet d’optimiser les évaluations, la gestion des crises et la recherche juridique, en tant qu’outil de réflexion stimulant la créativité, sans remplacer l’analyse humaine. Elle a insisté sur une gouvernance interne solide, incluant la traçabilité, le contrôle de la qualité et la transparence envers les clients.
Enfin, M. Nordlund a présenté le partenariat entre Legora et Jus Mundi, soulignant l’intégration de modèles génératifs et de données juridiques pour une recherche fiable. Il a insisté sur l’évaluation, la transparence et la confiance, essentielles dans l’arbitrage international où la confidentialité est cruciale. Il a également noté que les obstacles à l’IA sont souvent liés à des facteurs humains, tels que le manque de compréhension, de confiance ou de curiosité.
Dans l’ensemble, les discussions montrent que l’intelligence artificielle modifie le règlement des différends en améliorant l’efficacité, l’accessibilité et l’analyse, mais soulève des questions de légitimité, de responsabilité et de garanties procédurales. Elle doit rester un outil de la décision humaine, sans s’y substituer. Transparence, contrôle et autonomie sont essentiels pour assurer la confiance. L’avenir dépendra d’un équilibre entre innovation et responsabilité. La justice doit rester humaine à l’ère numérique.
Cet article a été initialement publié dans la newsletter Le Biberon le 17 avril 2026, dans le cadre d’une édition spéciale coordonnée par Paris Baby Arbitration (PBA), en collaboration avec Jus Mundi et Jus Connect.
ABOUT THE AUTHORS
Seedley Bouillet is a graduate in international law with a focus on arbitration. She has gained professional experience at the ICC, where she worked on arbitration-related data and legal processes. She will be joining Archipel as a Legal Support Assistant, focusing on legal operations, compliance and LegalTech. Her work and interests explore the intersection between law, data and emerging technologies, including artificial intelligence.
Yeonhwa Kim is a Master’s candidate in Economic Law at Sciences Po Paris, where she also completed a specialization in International Governance and Diplomacy. She holds a Bachelor’s degree in Justice and Civil Leadership from Yonsei University, with extensive international academic experience at UCLA, King’s College London. Currently, Yeonhwa serves as a Global Policy Intern at the International Chamber of Commerce (“ICC”) within the Trade, Investment and Banking team, focusing on trade facilitation and regulatory trends. Her professional background is distinguished by multiple roles at the OECD, where she worked as a Legal Consultant for the Trade and Agriculture Directorate and a Policy Research Intern for the Directorate for Science, Technology, and Innovation. Her contributions include analyzing regulatory barriers for the Services Trade Restrictiveness Index (“STRI”) and co-authoring the OECD publication, “Challenges and opportunities of mission-oriented innovation policy in Korea” (2025).


![[Template to duplicate] Article with Subtitle #5](https://dailyjus.com/wp-content/uploads/2026/02/article-collab-JM-Katy-Patrick-1-120x86.jpg)

