Skip to content

El uso de la Inteligencia Artificial en el Arbitraje

noviembre 2, 2025
El uso de la Inteligencia Artificial en el Arbitraje

El uso de la Inteligencia Artificial en el Arbitraje: análisis del Dr. Diego Castagnino

Autor: Redacción Arbitral.Net
Basado en la ponencia de: Dr. Diego Castagnino

En su ponencia titulada “El uso de la inteligencia artificial en el arbitraje”, el Dr. Diego Castagnino, abogado en Venezuela y España y actual Global Legal Senior Director de PepsiCo, analiza cómo la IA está transformando el arbitraje moderno. Expone tres niveles de aplicación —administrativo, analítico y decisorio—, junto con los riesgos éticos y procesales que implican, y propone principios de soft law que garantizan el control humano y la transparencia en el proceso arbitral.


1. Introducción: la IA llega al arbitraje

La inteligencia artificial se ha convertido en una herramienta transversal dentro del derecho, y el arbitraje no es la excepción.
El Dr. Diego Castagnino, doctor en Derecho cum laude, profesor universitario y árbitro internacional, plantea una reflexión sobre el papel que deben jugar las tecnologías de IA en la función arbitral: asistir sin reemplazar al árbitro.

Su análisis parte de una clasificación doctrinal clara que diferencia tres niveles de uso de la IA en el arbitraje: desde tareas administrativas hasta funciones analíticas o decisorias, señalando los límites éticos y jurídicos que deben respetarse.

2. Tres niveles de uso de la IA en el arbitraje

2.1. IA administrativa y procesal

Es el nivel más inocuo y aceptado. La IA se utiliza para automatizar tareas logísticas o repetitivas, como:

  • búsqueda de documentos en el expediente,
  • transcripción de audiencias,
  • generación de minutas o resúmenes automáticos.

Herramientas como Microsoft Copilot o asistentes integrados en plataformas de videoconferencia permiten ya realizar estas funciones, optimizando tiempos y recursos.

2.2. IA analítica o de apoyo no decisorio

En este segundo nivel, la IA sirve para ayudar al árbitro en la comprensión del caso.
Ejemplos:

  • generar una cronología de hechos,
  • detectar contradicciones en argumentos,
  • esquematizar evidencias o posiciones de las partes.

La decisión sigue siendo humana, pero la IA actúa como un asistente de análisis avanzado.

2.3. IA para la motivación o decisión del laudo

El nivel más polémico. Implica usar la IA para valorar pruebas, proponer decisiones o redactar el laudo.
Castagnino lo ubica en la “zona roja” de riesgo: puede vulnerar la independencia del árbitro y el principio de autoría intelectual de la decisión.
El árbitro no puede delegar su facultad decisoria en un algoritmo sin comprometer la validez del proceso arbitral.

3. Principales riesgos del uso de la IA en el arbitraje

El Dr. Castagnino identifica riesgos concretos que acompañan al uso de la inteligencia artificial:

  • Errores factuales o “alucinaciones”: la IA inventa datos ante vacíos de información.
  • Opacidad algorítmica: desconocimiento de las fuentes y criterios utilizados por el sistema.
  • Sesgos y parcialidad: reproducción de prejuicios presentes en los datos de entrenamiento.
  • Violación de confidencialidad: exposición de información sensible en plataformas externas.
  • Tratamiento indebido de datos: problemas de propiedad intelectual o privacidad al compartir información procesal.

Estos riesgos obligan a los árbitros y centros de arbitraje a desarrollar protocolos de uso responsable de IA.

4. Principios de uso ético y responsable

Castagnino propone una serie de principios doctrinales para enmarcar el uso legítimo de la IA en el arbitraje:

4.1. Control humano

El árbitro no puede delegar la decisión final. La IA solo puede asistir en la gestión y el análisis, pero la función decisoria es indelegable.

4.2. Transparencia y divulgación

Si el árbitro utiliza IA para analizar información confidencial o sustentar decisiones, debe informar a las partes y permitir sus observaciones.

4.3. Prohibición de la delegación decisoria

Toda delegación de la decisión en IA es contraria al debido proceso y ha sido rechazada por la doctrina arbitral contemporánea.

4.4. Confidencialidad y protección de datos

Las herramientas empleadas deben cumplir estándares de seguridad y confidencialidad comparables a los del propio tribunal arbitral.

4.5. Igualdad de armas

El tribunal debe evitar que el acceso desigual a herramientas de IA genere una asimetría procesal entre las partes.

4.6. Verificación y trazabilidad

Debe existir registro de modelo, versión y configuración del sistema utilizado, para garantizar la auditabilidad del proceso.

4.7. Mínima intervención tecnológica

La IA debe tener un rol auxiliar y complementario, sin sustituir el razonamiento humano ni el principio de confianza en la imparcialidad del árbitro.

Tecnología sí, pero con criterio jurídico

El mensaje final del Dr. Castagnino es claro:

“La inteligencia artificial ha llegado para quedarse, pero lo importante es utilizarla de manera inteligente”.

El reto no está en resistir la tecnología, sino en integrarla con prudencia, manteniendo el equilibrio entre la eficiencia que aporta y los valores fundamentales del arbitraje: independencia, confidencialidad y equidad.

El árbitro sigue siendo —y debe seguir siendo— el garante del juicio humano. Solo bajo esa premisa puede consolidarse una práctica arbitral moderna, transparente y tecnológicamente asistida.

Créditos y referencias

Basado en la ponencia transcrita del Dr. Diego Castagnino, “Uso de la Inteligencia Artificial en el Arbitraje” (2025).

Share This