Revista Ítalo-Española de Derecho Procesal
pp. 55-85
Madrid, 2022
DOI: 10.37417/rivitsproc/840
Marcial Pons Ediciones Jurídicas y Sociales

© Paolo Comoglio
ISSN: 2605-5244
Recibido: 13/04/2022 | Aceptado: 03/08/2022
Editado bajo licencia Creative Commons Attribution 4.0 International License.

Inteligencia artificial y selección de pruebas en el proceso civil: ¿hacia un proceso más inteligente o hacia un proceso más artificial?

Artificial Intelligence and evidence collection in the civil proceedings: towards a smart trial or towards an artificial one ?

Paolo Comoglio *

profesor adjunto de Derecho procesal civil
Universidad de Genova – Italia

RESUMEN: El presente ensayo contiene un análisis de los principales problemas que puede plantear el uso de la inteligencia artificial aplicada a la selección de pruebas. A partir de una definición básica de inteligencia artificial, el ensayo analiza, en particular, los problemas relativos a los estandardes de pertinencia y de proporcionalidad en la selección de pruebas y las posibles repercusiones sobre el principio de disponibilidad de pruebas

PALABRAS CLAVE: inteligencia artificial, pertinencia de preubas, principio de proporcionalidad, principio de disponibilidad de preubas

ABSTRACT: This essay contains an analysis of the main problems related to the use of artificial intelligence applied to of evidence. Starting from a basic definition of artificial intelligence, the essay analyses, in particular, the problems in terms of standards of relevance and proportionality in the collection of evidence and the possible consequences on the party prestentation principle

KEYWORDS: Artificial Intelligence, relevance and admissibility of evidence, principle of proportionality, party presentation principle

SUMARIO: 1. OBJECTO Y LÍMITES DE LA INVESTIGACIÓN.— 2. UNA DEFINICIÓN BÁSICA DE INTELIGENCIA ARTIFICIAL.— 3. LIMITACIONES Y PROBLEMAS EN LA UTILIZACIÓN DE LA INTELIGENCIA ARTIFICIAL EN LA PRÁCTICA DE LA PRUEBA.— 4. INTELIGENCIA ARTIFICIAL Y SELECCIÓN DE PRUEBAS: ¿HACIA NUEVOS ESTÁNDARES DE PERTINENCIA Y PROPORCIONALIDAD?— 5. INTELIGENCIA ARTIFICIAL Y FACILIDAD PROBATORIA: ¿HACIA UN DEBER DE COLABORACIÓN ARTIFICIAL?— 6. INTELIGENCIA ARTIFICIAL Y AUTENTICIDAD DE LAS PRUEBAS: ¿BEST EVIDENCE PRINCIPLE RELOADED?— 7. PRINCIPIO ACUSATORIO Y PRINCIPIO INQUISITIVO: ¿FIN DE UN DUALISMO?— 8. MUCHAS DUDAS, (QUIZÁS) UNA SOLA CERTEZA: EL INEVITABLE DEBILITAMIENTO DEL CONTRADICTORIO EN LA PRÁCTICA DE LA PREUBA. ¿HACIA UNA NUEVA FORMA DE PROCEDURAL JUSTICE?

1. Objecto y límites de la investigación.

Ante todo, me parece necesario aclarar la noción de prueba a la que me refiero. Sobre todo en los ordenamientos de civil law, la palabra prueba es polisémica y se utiliza indistintamente en relación con situaciones muy diferentes. En efecto, esta palabra se usa comúnmente para indicar tanto los distintos medios de prueba como la práctica de los mismos —es decir, la actividad procesal con la que se introducen los distintos medios de prueba en el proceso— como, por último, el resultado de dicha actividad1.

En este trabajo sólo me ocuparé del segundo de estos significados. Más concretamente, trataré de analizar cómo se puede utilizar la inteligencia artificial en la búsqueda y selección de los medios de prueba en el proceso y qué problemas se pueden plantear, e incluso si es posible la misma utilización de la inteligencia artificial en este contexto.

No trataré, en cambio, las posibles relaciones de la inteligencia artificial con las otras dos acepciones del vocablo “prueba”. En cuanto a la primera, parece que no se puede hablar, abstractamente, de inteligencia artificial como medio de prueba. La inteligencia artificial podrá ser objeto de prueba, por ejemplo, si en una controversia se cuestiona la correcta utilización de una herramienta de inteligencia artificial. Sin embargo, ese uso forma parte del problema más general en cuanto al modo en que se utilizan los conocimientos técnicos especializados en el proceso2, pero no atañe a cuestiones probatorias esenciales o fundamentales3.

Tampoco me ocuparé de la tercera noción de la palabra “prueba” y, en particular, de la posible utilización de la inteligencia artificial como instrumento de valoración de las pruebas4. En mi opinión, la cuestión debe analizarse en el marco del problema más general de la utilización de la inteligencia artificial en la asistencia o en la sustitución de la toma de decisiones judiciales5.

Además, creo necesario aclarar algunas suposiciones que he establecido más bien como hipótesis bastante consolidadas y que, por tanto, no analizaré ni intentaré demostrar.

En particular, no abordaré el problema de la función de la prueba (es decir, si tiene una función epistémica o meramente retórica)6, aunque mi presupuesto de partida, a la luz de muchísimos y conocidos estudios sobre la materia, es la firme convicción de que el proceso (y, por lo tanto, la práctica probatoria) tiene y debe tener necesariamente una función epistémica7. Come dice acertadamente Jordi Nieva Fenoll, “la verdad es la luz que guía a la prueba”8.

En segundo lugar, tampoco abordaré el problema de la oralidad en el proceso. Este tema, que se sitúa desde el siglo XIX en el centro del debate procesal, no sólo es objeto de incisivas críticas doctrinales, sino que también está en grave dificultad por la reciente crisis sanitaria9. Sin embargo, como se verá, el problema de la utilización de la inteligencia artificial pone en peligro el principio de contradicción, cuestión que es claramente prioritaria antes al problema de la oralidad10.

En tercer lugar, tengo que expresar una convicción que también es el punto de partida de estas reflexiones, a saber: el establecimiento de los hechos en el proceso está muy influido por los cambios en las tecnologías de la documentación11. Se puede decir que cualquier cambio de estas tecnologías siempre ha influido de manera significativa en el proceso12. Sin embargo, este fenómeno ha aumentado exponencialmente durante todo el siglo XX, sobre todo debido al incesante desarrollo de nuevas tecnologías de documentación a partir de las máquinas de escribir, pasando por las fotocopiadoras, llegando finalmente a los ordenadores13.

A principios del siglo xx, las pruebas documentales eran pocas (porque era muy caro crearlas), pero tendencialmente sólidas y fiables. En cambio, a principios de este siglo, las pruebas documentales son cada vez más numerosas, pero también menos fiables14. También el proceso se resiente del aumento de las que Antoine Garapon y Jean Lassègue han llamado agudamente “pruebas que hablan por sí mismas”15.

Con estas premisas, es necesario concretar que el objeto de esta investigación está dedicado a las relaciones entre la inteligencia artificial y las actividades de búsqueda y selección de las pruebas. En primer lugar, intentaré encontrar una definición básica de inteligencia artificial exclusivamente funcional para esta investigación. A continuación, intentaré comprobar si, según la legislación vigente, es posible utilizar herramientas de inteligencia artificial en la búsqueda y selección de pruebas. Después trataré de imaginar, en vistas a una posible reforma, cómo la utilización o la disponibilidad de herramientas de inteligencia artificial podrán influir en algunos de los principios probatorios tradicionales, tales como la pertinencia de las pruebas, la carga de la prueba, la disponibilidad de la prueba y la contradicción. Por último, me preguntaré si, una vez admitida la utilización de herramientas de inteligencia artificial en la actividad de búsqueda y selección de las pruebas, tiene sentido atribuir un control al juez sobre estas herramientas.

Las respuestas en todas estas materias son difíciles de precisar, habida cuenta el constante estado de evolución de la tecnología. Por ello, como jurista, me limitaré a la modesta misión de señalar posibles problemas presentes y futuros problemas que habrá que tener en cuenta si se quiere utilizar estas tecnologías en el proceso.

2. Una definición básica de inteligencia artificial

En primer lugar, hay que aclarar lo que se entiende por inteligencia artificial. Por supuesto, como ya se ha dicho, no es posible encontrar una definición que sea absolutamente válida. Incluido los expertos en inteligencia artificial no han encontrado hasta ahora una definición satisfactoria16.

Por otra parte, para poder definir el concepto de inteligencia artificial sería necesario definir primero lo que se entiende por inteligencia humana, es decir, identificar las características distintivas del pensamiento humano, cuestión todavía incierta y discutida, teniendo en cuenta los continuos avances de la neurociencia17.

En cualquier caso, parece posible, en general, definir como “inteligentes” las herramientas informáticas que son capaces de replicar (inteligencia artificial “fuerte”), o al menos simular (inteligencia artificial “débil”), en todo o en parte el proceso de decisión del ser humano18. De hecho, en la actualidad, todavía no existen herramientas de inteligencia artificial fuerte19.

Por el contrario, el enfoque “débil” es el que está dando los mejores resultados y es la base de las herramientas de inteligencia artificial más ampliamente utilizados, también en el proceso, como se muestra claramente en las herramientas empleados para la revisión de documentos en la fase de discovery del proceso federal estadounidense, sobre el que volveré más tarde20.

Por consiguiente, a efectos de esta investigación y con las limitaciones señaladas, cabe considerar «inteligentes» las herramientas que son capaces de realizar algunas tareas que, si son realizadas por seres humanos, requieren el uso de la inteligencia para resolver los problemas planteados por dichas tareas.

Sin embargo, esta definición debe precisarse tanto desde el punto de vista funcional como desde el punto de vista estructural.

En primer lugar, por lo que se refiere al aspecto funcional, una herramienta puede considerarse inteligente cuando es capaz de automatizar tareas que, aunque requieren el uso de la inteligencia, se basan en decisiones simples, es decir, cuando los parámetros para la toma de decisiones son relativamente pocos y fácilmente identificables al inicio del proceso de toma de decisiones. Este tipo de herramientas también se incluye a menudo en el concepto de herramientas inteligentes. Sin embargo, a los efectos de esta investigación, me parece necesario circunscribir la definición de inteligencia artificial a las herramientas capaces de realizar tareas complejas, es decir, tareas que requieren la toma de decisiones basadas en numerosos parámetros (como sucede, por otra parte, en casi todas las decisiones que deben adoptarse en el ámbito de la práctica de las pruebas)21.

Por el contrario, por lo que se refiere al aspecto estructural, las herramientas de inteligencia artificial actualmente en uso se basan esencialmente en algoritmos que, al tratar un elevado número de datos y obtener de ellos correlaciones, son capaces de tomar decisiones que parecen humanas, como ha descrito claramente Jordi Nieva Fenoll22. Pero más allá de este esquema básico, los algoritmos se diferencian bastante entre sí ya que las técnicas que los programadores utilizan para el análisis de los datos son diversas23. A efectos de este ensayo, es irrelevante analizar desde un punto de vista informático y estructural las diferencias entre estas herramientas: lo que cuenta, en efecto, es sobre todo el hecho de que estas herramientas son capaces de imitar una decisión humana.

Sin embargo, resulta esencial aludir a una característica funcional que distingue las diversas herramientas de inteligencia artificial débil actualmente en uso. En efecto, algunas herramientas se basan en algoritmos que pueden aprender de su propia experiencia; en otras palabras, se trata de herramientas que, independientemente de la técnica utilizada (redes neuronales, machine learning, deep learning...), son capaces de reprogramarse a sí mismos (modificando las instrucciones iniciales del programador para tener en cuenta los datos procesados progresivamente)24.

En efecto, sólo estos herramientas (capaces de aprender de su propia experiencia) presentan las que, en mi opinión, son las tres características típicas de una herramienta de inteligencia artificial: la complejidad, es decir, una herramienta basado en instrucciones informáticas extremadamente complejas; la confidencialidad, esto es, un herramienta protegido por derechos de autor; y la falta de intuición, puesto que la reprogramación continua impide que una persona humana entienda —al menos fácilmente— los factores que llevaron al herramienta a decidir de cierta manera.

En este contexto, y exclusivamente a efectos de esta investigación, me parece necesario considerar herramientas de inteligencia artificial sólo aquellos que, además de ser capaces de tomar decisiones complejas, también son capaces de reprogramarse a sí mismos. En efecto, a diferencia de las otras características, es precisamente el carácter no intuitivo de las herramientas de inteligencia artificial aquello que plantea los desafíos más innovadores en el ámbito jurídico25.

Ciertamente, una herramienta informática, aunque no sea muy complejo, no crea problemas particulares si es comprensible por un ser humano o, en todo caso, por un experto en el sector. En este caso, los problemas son esencialmente similares a los que han surgido desde hace tiempo en relación con el uso de los conocimientos técnicos especializados en el proceso26. En efecto, casi se podría decir que, a los fines de la práctica de la prueba, la inteligencia artificial comienza allí donde termina la prueba pericial.

Tampoco el derecho de autor crea problemas especiales; o, en todo caso, estos problemas serían fácilmente superables permitiendo, como ha sugerido siempre Jordi Nieva Fenoll, el uso de herramientas de inteligencia artificial en el proceso sólo si se hace público el llamado “código fuente”27.

En resumen, por tanto, me parece que el problema más característico planteado por las herramientas de inteligencia artificial en el ámbito probatorio es el de saber si es aceptable, y en qué medida, que se confíe la búsqueda y la selección de las pruebas, aunque sólo parcialmente, a una herramienta informática no intuitiva, o mejor dicho, del que un hombre no pueda comprender —fácilmente, o tal vez casi en absoluto— las razones que llevaron a tomar la decisión.

3. Limitaciones y problemas en la utilización de la inteligencia artificial en la práctica de la prueba.

En estas condiciones, el primer problema que hay que afrontar es el de la admisibilidad de la utilización de herramientas de inteligencia artificial en el proceso, sobre todo teniendo en cuenta que, hasta la fecha, ningún sistema procesal tiene normas específicas en la materia. Evidentemente, esta cuestión se limita exclusivamente a la utilización de herramientas de inteligencia artificial en la búsqueda y selección de pruebas. En este caso no se trata de una mera elección de oportunidades ligada al tema de la investigación: como se verá, en comparación con el problema más general de la usabilidad de las herramientas de inteligencia artificial en el proceso, el problema aquí analizado presenta algunas peculiaridades que pueden arrojar conclusiones en cuanto a la prueba no extensibles a otras áreas del proceso.

Además, conviene señalar que, en el estado actual de la técnica, con referencia específica al problema de la búsqueda y selección de las pruebas, el problema se plantea esencialmente en relación con la utilización de herramientas de análisis y de selección de documentos digitales de texto, los únicos cuya utilización ha sido ampliamente probada. Sin embargo, cuanto se dirá puede extenderse también a las herramientas que puedan buscar y seleccionar otros tipos de pruebas documentales, como las herramientas ya difundidas, pero todavía desprovistas de aplicaciones procesales específicas, capaces de reconocer y clasificar imágenes y sonidos.

Por último, a efectos de este análisis, se parte de la base de que no son pertinentes las diferentes modalidades posibles de utilización de las herramientas de inteligencia artificial. En efecto, como ya se sabe ampliamente, se puede suponer que una herramienta de inteligencia artificial sirve de ayuda a las partes; también puede suponerse que esta herramienta sustituye íntegramente la actividad de las partes y de los jueces. Sin embargo, esta distinción funcional no parece relevante para lo que interesa aquí: una herramienta de inteligencia artificial destinado a buscar y seleccionar pruebas se inserta inevitablemente en un proceso judicial y, por tanto, sólo puede servir de ayuda a la actividad de las partes y del juez28.

Obviamente, también en este caso hay diferencias, dependiendo, por ejemplo, de que la herramienta de inteligencia artificial simplemente “sugiera” una posible selección de las pruebas a las partes o al juez, preservando la libertad judicial, o directamente “seleccione” las pruebas dejando a las partes y al juez exclusivamente el control de si se opera o no esta selección29. Esta diferencia, sin embargo, sólo puede detectarse después de haber respondido positivamente al problema de la admisibilidad de la utilización de las herramientas de inteligencia artificial, con el fin de determinar cuál es (o debe ser) la intensidad del control de las partes y del juez sobre el funcionamiento de la herramienta.

El problema de la admisibilidad de la utilización de las herramientas de inteligencia artificial en la actividad de búsqueda y selección de pruebas se divide a su vez en dos problemas. En primer lugar, hay que preguntarse si, a pesar de la ausencia de normas explícitas sobre este punto, las normas procesales vigentes pueden, en cualquier caso, permitir la utilización de estas herramientas. En segundo lugar, aunque no se encuentren normas que permitan su utilización, cabe preguntarse si es válido un acuerdo por el que las partes obliguen a utilizar dichas herramientas.

Dicho esto, es necesario, naturalmente, aclarar un aspecto que, por otra parte, debería ser obvio. Las partes ya son libres hoy en día de utilizar, fuera del proceso, herramientas de inteligencia artificial en la búsqueda y en la selección de pruebas. De hecho, cada parte es libre de buscar y elegir las pruebas que se presentarán en el proceso de la manera que considere más apropiada; por lo tanto, sin duda, también puede hacerlo a través de herramientas de inteligencia artificial.

En cambio, hay que preguntarse si el juez, a instancia de parte o de oficio, puede disponer durante el proceso la utilización de instrumentos de inteligencia artificial.

A este respecto, es interesante mencionar la experiencia estadounidense, en la que a partir del año 2012, la jurisprudencia comenzó a admitir la utilización de algoritmos predictivos en la fase de discovery, en el marco del deber de colaboración que incumbe a cada parte en esta fase previa al juicio30. La primera decisión, ya muy conocida, es Da Silva Moore v. Publicis Groupe, en la que la llamada Technology Assisted Review fue considerada una «acceptable way to search for relevant ESI in appropriate cases»31.

Desde esa decisión, se ha ido abriendo progresivamente la posibilidad de utilizar algoritmos en la selección de pruebas documentales32. Sin embargo, más allá de este dato común, persisten aún muchas dudas, siendo incierto si la utilización de la inteligencia artificial es sólo facultativa y, por tanto, dejada a una voluntad conjunta de las partes, o si puede imponerse también en contra de la voluntad de una o ambas partes33. Desarrollos muy similares al estadounidense se encuentran también en la jurisprudencia inglesa34 y australiana35.

Más allá de estas primeras orientaciones jurisprudenciales, la admisibilidad de la inteligencia artificial sigue siendo bastante dudosa, sobre todo en el proceso propiamente dicho. Por otra parte, las razones que fundamentan las decisiones que hasta ahora han admitido el uso de la inteligencia artificial están estrechamente vinculadas a las peculiaridades de la fase previa al juicio (pre-trial), típica de los procedimientos caracterizados por una fase de descubrimiento preliminar al proceso propiamente dicho (trial).

A este respecto, con referencia específica a la fase procesal propiamente dicha, parece posible formular dos hipótesis: en primer lugar, se podría pensar en utilizar las herramientas de inteligencia artificial en el ámbito de la prueba pericial. En efecto, sobre todo en los ordenamientos de civil law, se podría pensar que el juez (al que normalmente corresponde el poder de nombrar de oficio a un perito) puede autorizar al mismo perito a utilizar tales herramientas. Tradicionalmente la prueba pericial es el instrumento con el que se han podido introducir en el proceso las innovaciones científicas y tecnológicas (el análisis de ADN, por ejemplo36), considerando, además, que, a menudo, las normas procesales dejan al perito un amplio margen de apreciación en el desarrollo de sus propias investigaciones37.

De hecho, se podría incluso suponer que el perito puede decidir por sí mismo utilizar herramientas de inteligencia artificial, con los consiguientes problemas, sin embargo, del control sobre el modo de ejecución de su trabajo. Por supuesto, dado que aún no se han establecido normas comunes de fiabilidad para las distintas herramientas de inteligencia artificial, el principal problema en este caso sería averiguar cómo se puede verificar la fiabilidad de estas herramientas en el proceso.

Igualmente, con referencia específica al tema de este análisis, otro problema es que, normalmente, la tarea del perito es determinar las circunstancias de hecho que requieren conocimientos especializados38, mientras en este caso debería realizar una actividad propiamente procesal, es decir, la selección de pruebas.

Además, todo ello puede presentar también un importante inconveniente práctico. Normalmente, el perito no tiene la posibilidad de buscar pruebas o documentos distintos de los ya presentados por las partes y, por lo tanto, podría ser prácticamente inútil permitir la utilización de herramientas de inteligencia artificial en un momento en el que las partes ya han buscado y seleccionado por sí mismas las pruebas39.

En esencia, en un ordenamiento en el que no existen límites a la obtención de pruebas por parte del experto (como, por ejemplo, en Francia40), sería posible aventurar la posibilidad de admitir una “prueba pericial procesal” en la búsqueda y selección de pruebas, confiando a un experto (jurídico-informático) la recogida y selección de pruebas documentales.

Una segunda opción podría ser la de suponer que el juez, a instancia de parte o de oficio, pueda ordenar que la presentación de pruebas documentales se realice mediante la utilización de herramientas de inteligencia artificial. Esta manera de hacer es teóricamente posible, ya que, por lo general, el juez tiene una gran discrecionalidad a la hora de definir el momento y la forma de la exhibición. Sin embargo, una vez más, además de las dificultades en la comprobación de la fiabilidad de la herramienta, el problema es esencialmente práctico: si, como sucede en muchos ordenamientos de civil law, la exhibición sólo puede solicitarse en relación con documentos previamente identificados por la parte que la solicita, la utilización de una herramienta de inteligencia artificial es totalmente inútil dado que el objeto de la exhibición ya estaría identificado. Esta opción sólo sería posible y útil en los casos en que la exhibición no se refiera tanto a documentos individuales como a categorías de documentos. En este caso, parece razonable pensar que, incluso con la legislación vigente en la mano, el juez haga uso de su facultad discrecional para determinar el modo en que se realiza la exhibición y ordene la utilización de una herramienta de inteligencia artificial para buscar los documentos pertenecientes a la categoría objeto de la exhibición.

Pero supongamos también que el juez no puede, ni de oficio ni a instancia de parte, ordenar la utilización de herramientas de inteligencia artificial. Por lo demás, esta es la hipótesis más realista, teniendo en cuenta también la actual desconfianza de jueces y abogados ante la inteligencia artificial. Cabe preguntarse, por tanto, si las partes pueden acordar, antes o durante el proceso, el uso de herramientas de inteligencia artificial en la búsqueda y selección de pruebas. Naturalmente, la respuesta a esta pregunta se inscribe en el problema más general de la validez de los acuerdos procesales con los que las partes pretenden regular el desarrollo del proceso entre ellas. No parece, sin embargo, que desde este punto de vista la elección de las partes de recurrir a herramientas de inteligencia artificial presente problemas diferentes. Por lo tanto, es razonable considerar que, en los sistemas en los que se admiten los acuerdos procesales (como el brasileño), las partes pueden obligarse a utilizar herramientas de inteligencia artificial en el proceso.

En efecto, una solución de este tipo es posible también en los ordenamientos que, aunque no admiten de forma generalizada los acuerdos procesales, reconocen la validez de pactos con los que las partes invierten convencionalmente la carga de la prueba, como por ejemplo en Italia41 y en Francia42. Por lo general, también se consideran pactos en materia de carga de la prueba aquellos que, por ejemplo, imponen a una de las partes obligaciones específicas de exhibición o comunicación de pruebas. Por lo tanto, es razonable suponer que, en el marco de estos pactos, las partes puedan acordar que tales obligaciones puedan o deban cumplirse mediante herramientas de inteligencia artificial. Sin embargo, a diferencia de los ordenamientos en los que se admiten expresamente los acuerdos procesales, que también son vinculantes para el juez en la regulación del desarrollo del proceso, como ha destacado Antonio Cabral43, en este último caso, el acuerdo sobre la regulación de la prueba nunca podrá vincular al juez, que, en caso de violación del acuerdo, no podrá ordenar que la exhibición se realice con una herramienta de inteligencia artificial, sino que sólo podrá considerar dicho incumplimiento en la aplicación de la regla de la carga de la prueba.

4. Inteligencia artificial y selección de pruebas: ¿hacia nuevos estándares de pertinencia y proporcionalidad?

Como ya se ha dicho, la posibilidad de utilizar herramientas de inteligencia artificial en la búsqueda y selección de pruebas es muy dudosa en estos momentos, a falta de normas específicas. Sin embargo, independientemente de esto, cabe preguntarse si la existencia de estas herramientas puede, en cualquier caso, influir, aunque sea indirectamente o en perspectiva de una reforma, en la interpretación y aplicación de los principios probatorios tradicionales.

A este respecto, un primer aspecto en el que la presencia de estas herramientas podría incidir es la pertinencia de la prueba. Ciertamente, se puede afirmar que el principio de pertinencia es uno de los pocos principios procesales en los que las diferencias entre los distintos ordenamientos son mínimas o prácticamente insignificantes. Quizás también por esto, a diferencia de otros temas probatorios clásicos (como, por ejemplo, el de la carga de la prueba y el de la valoración de la prueba), ha sido objeto de menos atención por parte de los estudiosos del proceso44, aunque con algunas excepciones importantes. Me refiero, claramente, a los diversos estudios sobre el tema de Michele Taruffo45.

En la práctica, en todos los ordenamientos jurídicos se aplica la norma general según la cual todas las pruebas pertinentes son admisibles, a menos que exista una regla restrictiva, como por ejemplo las denominadas “reglas de exclusión”. También la interpretación del concepto de pertinencia coincide sustancialmente en los distintos ordenamientos46. En particular, es ampliamente difundida y compartida la idea de que es pertinente cualquier medio de prueba que, con una prognosis incluso superficial (es decir, prescindiendo de que el medio de prueba efectivamente demuestre el hecho), puede ser útil para los fines de la decisión47. En esencia, se recurre ampliamente a la aplicación de lo que la Rule 401 de las Federal Rules of Evidence estadounidenses denomina “Test for Relevant Evidence”, según el cual, precisamente, es pertinente cualquier prueba que pueda demostrar uno de los hechos que deben decidirse. Además, como consecuencia de la falta de dudas interpretativas en torno al concepto de pertinencia, también existe la idea de que el proceso debe continuar hasta que el juez disponga de todos los elementos útiles para la decisión48.

Sin embargo, me parece que estos temas deben profundizarse, también en vista de las posibles influencias que la utilización de la inteligencia artificial podría tener precisamente sobre el concepto de pertinencia o, mejor dicho, sobre su aplicación práctica concreta. En efecto, siendo cierto que, como afirmó justamente Taruffo, «la pertinencia de una prueba no es cuestión de grado: una prueba o es relevante o no lo es»49, es igualmente cierto que, muy a menudo, el juez decide el juicio sin tener a su disposición todas las pruebas pertinentes. Si, efectivamente, el concepto de pertinencia no es graduable en sí mismo, lo es la extensión de su aplicación. A este respecto hay que hacer algunas precisiones y distinciones.

En primer lugar, en los ordenamientos que se caracterizan por una fase previa de discovery-disclosure, el principio de pertinencia sirve como regla de inclusión haciendo recaer sobre todas las partes, en la fase de pre-trial, el deber de presentar todas las pruebas pertinentes que estén a su disposición50. También en dicha fase el principio mencionado sirve de regla de exclusión, prohibiendo, en particular, que se introduzcan en el proceso pruebas no pertinentes. En cambio, en los ordenamientos que no disponen de esta fase, el principio de pertinencia sirve exclusivamente de regla de exclusión, aunque no para todos los tipos de pruebas dado que, en general, la prueba documental se sustrae a esta regla51.

En segundo lugar, sobre todo en los ordenamientos civil law, la intensidad de aplicación del principio de pertinencia sufre una especie de degradación durante el desarrollo del proceso; en efecto, normalmente el juez puede bloquear la obtención de nuevas pruebas, aunque abstractamente pertinentes, cuando ya no sean útiles, es decir, pruebas que, aunque dieran un resultado positivo, no alterarían el conjunto de las pruebas52.

De hecho, al igual que en el caso de los estándares de prueba, también en este caso parece posible hablar de diferentes estándares de pertinencia. A este respecto, hay que recordar que, como han aclarado ya los estudios en materia de Behavioural Economics, un razonamiento racional puede fundarse en diferentes grados de racionalidad53. No es necesario recordar en este momento el concepto de racionalidad limitada de Herbert Simon54.

En resumen, es posible graduar diferentes enfoques de racionalidad. Según un primer enfoque (llamado maximizing approach), es racional la decisión que llega a la mejor solución posible en función del valor de referencia de la decisión, es decir, la decisión que garantice la mayor calidad posible en la averiguación de los hechos. Según otro enfoque (llamado optimizing approach) es racional la decisión que optimice el valor tomado como referencia (la calidad en la averiguación de los hechos) con otros valores de referencia, como por ejemplo el coste (también en términos de tiempo) necesario para obtener todos los elementos necesarios para la decisión. Por último, según un tercer enfoque (correspondiente al denominado satisficing approach), es racional una decisión que sea suficientemente buena (good enough) en relación con el valor tomado como referencia (es decir, aunque no resulte ni la mejor ni la óptima)55.

Estos diferentes enfoques también pueden aplicarse al concepto de pertinencia.

En efecto, la idea básica de pertinencia, ampliamente aceptada, se basa en el supuesto (a menudo dado por sentado) de que el juez debe basar su decisión (independientemente del estándar de prueba utilizado) en todas las pruebas pertinentes disponibles56. En esencia, el concepto tradicional de pertinencia se basa en el enfoque “maximizador”, es decir, el modelo más tradicional de racionalidad “olímpica”. En efecto, la obtención de todas las pruebas pertinentes significa esencialmente maximizar el valor de referencia, es decir, la calidad de la averiguación de los hechos.

En realidad, no siempre es así. De hecho, tal vez nunca es así. Y, quizás, este planteamiento no siempre está justificado racionalmente57.

En primer lugar, a menudo es el legislador el que se refiere expresamente a enfoques de pertinencia, por así decirlo, “limitados”. Por ejemplo, los llamados procedimientos sumarios o especiales (es decir, los procedimientos alternativos al modelo ordinario de procedimiento) se caracterizan casi siempre por una graduación del principio de pertinencia: por ejemplo, en los procedimientos para solicitar medidas cautelares el juez debe establecer claramente un equilibrio entre el principio de pertinencia y la exigencia concurrente de celeridad en la tutela. En el procedimiento monitorio, ampliamente difundido en los ordenamientos de civil law, el principio de pertinencia está claramente limitado según un enfoque típicamente satisficing. En estos casos, en efecto, la prueba escrita se considera suficientemente buena para fundamentar la resolución judicial, pero no es necesariamente la que maximiza la calidad de la averiguación de los hechos ni la que la optimiza. A veces, además, la limitación del principio de pertinencia se vincula también a la aplicación de un estándar de prueba particularmente riguroso, como, por ejemplo, en el Summary Judgement inglés.

En realidad, también en el proceso ordinario de cognición, se está asistiendo a una tendencia progresiva a aplicar reglas de pertinencia más flexibles, inspiradas claramente en una óptica de optimización y, por tanto, de equilibrio con otros valores, diferentes de la calidad de la averiguación de los hechos58.

En primer lugar, desde un punto de vista estrictamente práctico, sobre todo los sistemas de civil law nunca han previsto mecanismos procesales que incentiven a las partes a presentar todas las pruebas pertinentes (sobre este punto se volverá más adelante). Por otra parte, incluso desde un punto de vista formal, el enfoque tradicional maximizador se contradice claramente con la posibilidad de que el juez suspenda la práctica de la prueba si considera que una actividad probatoria adicional sería redundante, es decir, cuando el grado de utilidad de las nuevas pruebas pertinentes (la utilidad marginal, si se quiere utilizar un lenguaje económico) no hace más ventajosa la práctica de estas. La posibilidad de que el juez interrumpa la fase de admisión probatoria está claramente inspirada en un enfoque optimizador.

Pero no sólo eso. En términos más generales, hay que subrayar la aplicación cada vez más extendida del principio de proporcionalidad, introducido expresamente en las disciplinas procesales inglesa y estadounidense59, pero que ahora se ha transpuesto también en otras culturas jurídicas60. Este principio representa un claro cambio de paradigma de la justicia civil. Teniendo en cuenta que los recursos son limitados en relación con el número total de litigios, la calidad de la resolución judicial ya no representa el único valor que debe maximizarse, sino que constituye simplemente uno de los valores que deben optimizarse61.

En otras palabras, el principio de proporcionalidad implica que, en algunos casos, la calidad de la averiguación puede sacrificarse parcialmente en favor de otros valores. Esto implica, por ejemplo, que la práctica de la prueba, aunque sea relevante, puede limitarse cuando sea demasiado cara en proporción al valor o a la importancia del proceso, como lo demuestran, por ejemplo, las diferencias de la extensión de la fase de disclosure en los tres diversos tracks procesales ingleses.

En mi opinión, la utilización de la inteligencia artificial en la selección de pruebas puede tener un impacto significativo en la configuración concreta del principio de proporcionalidad. Obviamente, no creo que la inteligencia artificial pueda servir para volver al enfoque de maximización tradicional; en cambio, creo que la utilización de la inteligencia artificial puede modificar los equilibrios en el balance de diferentes valores, a favor de una mayor calidad de la averiguación de los hechos.

Ciertamente, puede aceptarse que la calidad de la averiguación de los hechos sea proporcional al número de pruebas pertinentes de que dispone el juez. Ahora bien, la utilización de la inteligencia artificial puede hacer menos costosa la obtención de pruebas que, con los instrumentos procesales actuales, sería considerada desproporcionada. Por supuesto, también en este caso habría un equilibrio de valores: la utilización de la inteligencia artificial favorecería la admisión de pruebas, pero penalizaría otro valor, es decir, el principio del contradictorio. Sobre este punto se volverá en breve.

5. Inteligencia artificial y facilidad probatoria: ¿Hacia un deber de colaboración artificial?

Como ya se ha dicho, se puede afirmar que existe un acuerdo sustancial en que, al menos de manera general, cuanto más cuantiosas sean las pruebas relevantes de que dispone el juez, mayor será la calidad de la averiguación de los hechos. Sin embargo, también se puede afirmar que, muy a menudo (si no siempre), muchas pruebas pertinentes no se adquieren en el proceso, ya sea porque están en posesión de una parte que no tiene interés en presentarlas (porque le son desfavorables) o porque las partes no son realmente conscientes de su existencia.

El problema es, pues, doble: cómo conseguir que las pruebas pertinentes se introduzcan efectivamente en el proceso y cómo lograr que el juez, a falta de pruebas suficientes, decida igualmente. Se trata del problema tradicional de la carga de la prueba, mucho más discutido y controvertido que el de la pertinencia. Como es sabido, este problema ha sido objeto recientemente de un vivo debate doctrinal, tanto en la cultura jurídica del civil law62 como en la de common law63. Como ha subrayado eficazmente Daniel Mitidiero, la doctrina se ha dividido entre amigos y enemigos de la carga de la prueba64.

Por supuesto, no puedo entrar en este debate. Sin embargo, me interesa analizar si, y de qué manera, la utilización de la inteligencia artificial puede influir en este tema. Omitamos por un momento el debate doctrinal. Ciertamente, se puede convenir en que la noción objetiva de carga de la prueba es ampliamente aceptada, ya que ningún sistema procesal permite que el juez no decida; por tanto, todos los ordenamientos prevén que, cuando las pruebas sean insuficientes, el juez decidirá en contra de la parte a la que correspondía la carga (precisamente objetiva)65. En realidad, como ha subrayado acertadamente Jordi Nieva Fenoll, la rigidez de este mecanismo está estrechamente vinculada a los límites de impugnación de la decisión; si fuera posible replantear libremente una demanda ya decidida, una decisión basada en la aplicación de la carga de la prueba no se distinguiría mucho de una decisión basada en el llamado non liquet66.

Incluso en la identificación concreta de la parte a la que corresponde probar los hechos de que se trata, se observa una tendencia cada vez más extendida a abandonar criterios objetivos de reparto de la carga (como el tradicional de la posición procesal, demandante-demandado67) a favor de criterios más flexibles. En particular, el criterio de la carga dinámica de la prueba, que se desarrolló originalmente en el ordenamiento argentino, encuentra ahora amplia aplicación no sólo en los ordenamientos latinoamericanos. Aunque con nombres diferentes (“facilidad probatoria” en España, “vicinanza della prova” en Italia y “aptitude à la preuve” en Francia), también en muchos ordenamientos europeos se observa una flexibilización cada vez mayor de los criterios de reparto de la carga de la prueba que incluso precedió en muchos años al debate sobre la “carga dinámica” en América Latina68. También la jurisprudencia del Tribunal de Justicia de la Unión Europea ha hecho recientemente referencia expresa al concepto de “aptitude à la preuve” en un litigio en materia de protección de los consumidores69.

Pues bien, en mi opinión, la progresiva difusión de las herramientas de inteligencia artificial podría tener un impacto significativo en estos problemas, tanto desde una perspectiva de legislación vigente como, por supuesto, desde una perspectiva de reforma.

En primer lugar, se puede pensar que, incluso al amparo de la legislación vigente, el juez, al repartir dinámicamente la carga de la prueba, puede considerar si una de las partes puede utilizar herramientas de inteligencia artificial en la búsqueda y selección de las pruebas. En efecto, la disponibilidad de estas herramientas podría hacer más “fácil” a una parte acceder a pruebas, pruebas que, en cambio, la misma parte tendría dificultades para encontrar en ausencia de tales herramientas. Por lo tanto, una parte ya no podría, por ejemplo, tratar de excluir por sí misma la carga de la prueba sobre la base de la numerosa documentación que debe buscarse y del coste de dicha investigación.

Incluso de lege ferenda, la utilización de la inteligencia artificial podría influir significativamente en el problema de la carga de la prueba. Como ha subrayado Leandro Giannini, la noción subjetiva de carga de la prueba y, en particular, la noción de carga dinámica de la prueba debería servir de incentivo para las partes. En efecto, imponer la carga de la prueba a la parte que tiene mayor facilidad para probar un hecho debería incitarla a presentar en el proceso todas las pruebas pertinentes. En realidad, este tipo de mecanismo no funciona bien, ya que no está claro que la parte demandada esté en posesión de todas las pruebas pertinentes y que, en cualquier caso, las mismas partes no tengan conocimiento de todas las pruebas pertinentes70.

En mi opinión, el problema no se refiere sólo al tema de la carga de la prueba, sino que afecta, más en general, al del derecho a la prueba. En efecto, el derecho a la prueba se entiende tradicionalmente, sobre todo en los ordenamientos de civil law, como el derecho de la parte a presentar ante el juez todas las pruebas pertinentes de que disponga y a obtener, por orden judicial, la exhibición de las pruebas pertinentes que posea la otra parte71. Sin embargo, el derecho a la prueba nunca se interpreta, de manera más amplia, como el derecho de la parte a buscar y a obtener la exhibición de pruebas cuya existencia desconoce. A este respecto, la diferencia entre los ordenamientos de civil law y los de common law es muy significativa. En estos últimos los mecanismos de disclosure-discovery tienen ciertamente también (aunque obviamente no sólo) la función de permitir a las partes encontrar pruebas de las que no son conscientes72. Tanto es así que el principal riesgo de abuso de este mecanismo es precisamente lo da las llamadas “fishing expedition”73.

En cambio, en los ordenamientos del civil law, el problema es exactamente lo contrario, precisamente porque las partes no tienen ningún instrumento de búsqueda de pruebas, como lo demuestra el hecho de que, normalmente, la parte sólo puede pedir la exhibición de documentos que sabe que existen y de los que simplemente no dispone.

En mi opinión, en una perspectiva de reforma, las herramientas de inteligencia artificial podrían modificar este estado de cosas, lo que también conduciría a un acercamiento entre los ordenamientos de civil law y de common law74. Ya se ha hablado de la progresiva difusión de la utilización de herramientas de inteligencia artificial en la fase de discovery en diferentes ordenamientos de common law, precisamente con el fin de optimizar la exhibición documental (reduciendo los costes y limitando los abusos). Pues bien, se podría pensar que también en los ordenamientos de civil law, parafraseando un interesante pensamiento de Leandro Giannini75, se puede imponer a las partes un deber de colaboración “artificial”, es decir, una especie de deber de disclosure, pero que debe cumplirse exclusivamente a través de herramientas de inteligencia artificial76.

Por supuesto, también necesitamos un cambio cultural. Desde hace dos siglos se considera pacíficamente en los ordenamientos de civil law que el reconocimiento judicial está disponible también de oficio, teniendo en cuenta el hecho de que nadie aceptaría un juicio que terminara con una decisión que determina exactamente lo contrario de lo que cualquiera podría descubrir con sus propios ojos simplemente caminando por la calle. En cambio, hay mucha más desconfianza en hacer lo mismo con la exhibición de documentos, como si se tratara de una aplicación del principio según el cual nemo tenetur se detegere. En realidad, es evidente que este principio no se aplica en el proceso civil o, en cualquier caso, es mucho más limitado que en el proceso penal77. Precisamente la utilización de la inteligencia artificial podría brindar la ocasión de dar un paso más hacia una afirmación más decidida del deber de colaboración entre las partes78.

Por supuesto, también en este caso se plantea el problema de las sanciones en el caso que una parte se niegue a cooperar79. Por lo demás, como mi maestro Angelo Dondi ha subrayado agudamente, toda cuestión relativa al reparto de la carga de prueba entre las partes y el juez termina siendo meramente teórica y carece sustancialmente de pertinencia práctica cuando no se garantiza previamente la efectividad de los deberes de colaboración entre las partes80.

6. Inteligencia artificial y autenticidad de las pruebas: ¿Best Evidence Principle reloaded?

Hasta ahora se ha hablado de cómo se pueden utilizar las herramientas de inteligencia artificial en el proceso para buscar y seleccionar las pruebas. También se ha dicho que las partes son sin duda libres de utilizar estas herramientas para buscar y seleccionar las pruebas que pretenden presentar en el proceso. Sin embargo, las partes también podrían utilizar estas herramientas para alterar las pruebas de que dispongan o incluso para crear nuevas pruebas. De hecho, se puede decir que este riesgo es cada vez más actual, teniendo en cuenta, por ejemplo, la creciente eficiencia de las herramientas de inteligencia artificial para crear imágenes o vídeos similares a los reales81.

Por consiguiente, se plantea casi inevitablemente un problema de autenticidad de las pruebas. En realidad, este problema siempre se ha planteado. Sin embargo, se puede decir que ahora se plantea de manera sustancialmente diferente. Como se ha dicho al principio de esta investigación, en las últimas décadas se ha producido un fenómeno progresivo de debilitamiento de las pruebas documentales: han aumentado exponencialmente en número y han disminuido fuertemente su fiabilidad. Precisamente este cambio hace que los mecanismos tradicionales previstos por los sistemas procesales para verificar la autenticidad de las pruebas documentales ya no sean adecuados.

En efecto, sobre todo en los ordenamientos del civil law, se puede decir que la autenticidad de las pruebas documentales está garantizada por un doble mecanismo: el primero es la intervención de un tercero (generalmente un funcionario público) que redacta el documento y que garantice su autenticidad. El segundo mecanismo se basa en el comportamiento de los litigantes, ya que deja a la parte contra la que se presenta el documento la posibilidad (y por tanto también la carga) de impugnar su autenticidad (y esto, por supuesto, sobre la base de una máxima de experiencia según la cual la parte sabe, o debe ser capaz de saber, si el documento es auténtico)82.

Este segundo mecanismo corre el riesgo de no ser ya adecuado. Por otra parte, se concibió en un momento en el que los documentos eran generalmente pocos y, por tanto, la parte podía fácilmente reconocer su falta de autenticidad. Sin embargo, la multiplicación de las técnicas de documentación hace cada vez más difícil que un sujeto tenga pleno conocimiento de todos los documentos que le conciernen. Esto es especialmente cierto en el caso de las herramientas de inteligencia artificial, que son capaces de alterar los documentos tan limpiamente que nadie podría dudar de su autenticidad.

En este contexto, se podría considerar la revisión, actualizada, de un principio típico de los ordenamientos de common law, el llamado Best Evidence Principle. Más concretamente, en su versión original, este principio sirve al mismo tiempo de regla de inclusión, es decir, exigiendo la producción ante los tribunales de la mejor prueba, esto es, con referencia específica a la prueba documental, del original, así como de regla de exclusión, descartando, por tanto, en general, la admisibilidad de pruebas distintas de la original, es decir, copias y duplicados83.

Por supuesto, como ya se ha dicho, este principio debería adaptarse a las necesidades actuales. Por ejemplo, no parece posible retomar la noción de original, central en la concepción tradicional de Best Evidence. En efecto, las tecnologías informáticas han vaciado sustancialmente de significado la distinción entre original (tendencialmente único) y copias (potencialmente numerosas); en el caso de los documentos digitales, el original podrá replicarse exponencialmente y la copia no se diferenciará en modo alguno del original. Sin embargo, el principio todavía puede utilizarse, actualizado. En efecto, la única manera de intentar verificar si un determinado documento informático ha sido alterado es disponer del “formato original” del documento; sólo mediante el análisis de los metadatos correspondientes se puede intentar verificar si el documento ha sido modificado.

En esencia, se podría pensar en una reproducción de la regla de la “best evidence”, configurada, es decir, no tanto como regla de exclusión de las copias, sino más bien como regla de inclusión del formato original del documento informático, que impone también al juez el deber de solicitar, incluso de oficio, la presentación del formato original de dicho documento84. Por supuesto, esta regla debería poder aplicarse también para derogar el posible enfoque maximizador ya mencionado en relación con la identificación del concepto de pertinencia85.

7. Principio adversarial y principio inquisitivo: ¿Fin de un dualismo?

Siempre de lege ferenda, parece también necesario analizar el posible impacto de la utilización de herramientas de inteligencia artificial en la búsqueda y selección de las pruebas sobre la configuración global del papel de las partes y del juez en el proceso86.

No parece aventurado suponer que, en un futuro próximo, se prevea la utilización de una herramienta informática que, sobre la base de los datos identificativos de las partes y del objeto de un litigio, busque automáticamente, mediante un algoritmo de inteligencia artificial específico, toda la información públicamente accesible en línea pertinente para la controversia. Pero también se podría pensar que esta investigación se extiende asimismo a todas las bases de datos públicas.

Parece difícil negar que, en este caso, el resultado de la actividad llevada a cabo por la herramienta informática sea esencialmente idéntico al obtenido mediante una investigación de este tipo realizada por las partes o por el juez. Por el contrario, se puede pensar razonablemente que la investigación realizada por la herramienta informática es más eficaz que la investigación humana. Radicalmente diferente, sin embargo, es el procedimiento utilizado para llegar al resultado.

Esto plantea, evidentemente, un serio problema de encuadramiento sistemático: en particular, la utilización de tales algoritmos podría poner en crisis la tradicional distinción entre modelo adversarial y modelo inquisitivo. Aunque esta distinción no siempre se interpreta de manera unívoca y nunca se encuentra una correspondencia completa en los distintos ordenamientos procesales (que, aunque con grandes diferencias entre ellos, generalmente se sitúan en posiciones mixtas, es decir, ni totalmente adversariales ni totalmente inquisitivos), representa desde hace mucho tiempo una categoría con la que los estudiosos catalogan los distintos sistemas procesales87.

Pero también se puede ir más allá. Supongamos que el algoritmo, además de buscar la información públicamente accesible, la seleccione y, en cierta medida, la procese y la sintetice para las partes y para el juez. En este caso, la actividad desarrollada por la herramienta va mucho más allá de la mera adquisición probatoria, extendiéndose también a la selección y a la valoración de las pruebas. Sería difícil ubicar estas actividades de acuerdo con la tradicional distinción entre el método adversarial o método inquisitivo.

En efecto, la utilización de herramientas de inteligencia artificial podría hacer perder mucha importancia a esta distinción. Muy difícilmente se podría hablar aún de poderes instructores en el sentido tradicional, ya que la actividad de investigación y de selección realizada por una herramienta informática no puede ser considerada ni como una iniciativa de las partes ni como un poder del juez.

Ciertamente perderían mucho peso también las objeciones tradicionales sobre la compatibilidad de los poderes de instrucción del juez. En efecto, es recurrente la afirmación según la cual el juez, ejerciendo poderes de instrucción, pondría en peligro su imparcialidad. Esta tesis, ya discutible con respecto a los poderes instructores del juez88, no puede ciertamente aplicarse a los que podríamos llamar poderes instructores automatizados o artificiales. Esto ya lo ha planteado claramente Jordi Nieva Fenoll, quien, con referencia específica al proceso penal, pero consideraciones análogas pueden valer también con respecto al proceso civil, sugiere incluso un cambio del papel de la acusación89.

No obstante, en caso de que se establecieran efectivamente tales poderes oficiales, seguiría siendo necesario, al igual que en el caso del ejercicio de los poderes probatorios de oficio por el juez, garantizar a las partes —y también al juez en este caso— la posibilidad de cuestionar y defenderse en relación con las informaciones adquiridas por las herramientas informáticas. Me parece importante subrayar que esto debe aplicarse no sólo en el caso de que la herramienta de inteligencia artificial adquiera pruebas fuera de las ya presentadas por las partes, sino también cuando, por ejemplo, reciba nuevas informaciones de las pruebas ya presentadas en el proceso. Supóngase, por ejemplo, una herramienta que, analizando fotografías o imágenes, proporcione informaciones de tiempo o de lugar diferentes a las alegadas por las partes.

En resumen, por lo tanto, me parece que, en una perspectiva de reforma, no habría obstáculos particulares para prever poderes probatorios artificiales, es decir, para utilizar herramientas de inteligencia artificial que automaticen la adquisición de pruebas libremente adquiribles (ya sea en línea o en bases de datos públicas), sin perjuicio, por supuesto, de la necesidad de garantizar a las partes el derecho a defenderse de las pruebas así obtenidas. Esto podría tener importantes ventajas, sobre todo en los litigios (como los relativos a la separación de los cónyuges, los relativos a la fiscalidad y los relativos a las sociedades) que se caracterizan por una rutina en el tipo de pruebas que deben presentarse. Así ya no sería posible hablar ni de método adversarial ni de método inquisitivo; quizás se podría hablar de método artificial de la práctica de la prueba.

8. Muchas dudas, (quizás) una sola certeza: el inevitable debilitamiento del contradictorio en la práctica de la prueba. ¿Hacia una nueva forma de Procedural Justice?

Como se ha visto, la admisibilidad y el uso concreto de las herramientas de inteligencia artificial suscitan muchas dudas y pueden influir significativamente en los principios procesales básicos y en los marcos sistemáticos tradicionales. Sin embargo, quizás la única certeza sea que, sea cual fuere la extensión de la utilización de estas herramientas en el proceso, la inteligencia artificial hace aún más crucial un tema muy tradicional del proceso, el del contradictorio90. Teniendo en cuenta lo anterior, se puede afirmar también que la utilización de la inteligencia artificial puede tener un impacto ciertamente positivo en el ámbito de la prueba, teniendo la potencialidad —en la óptica ya señalada de equilibrio entre los diferentes valores en juego dentro del proceso— de incentivar la efectiva adquisición de pruebas pertinentes y, por lo tanto, de aumentar la posible calidad de las decisiones91. Todo esto, sin embargo, parece ir en detrimento de otro principio fundamental, el del contradictorio, sobre todo en su función epistémica.

En efecto, se puede dar sustancialmente por adquirida la doble naturaleza de este principio92: en primer lugar, el contradictorio es garantía de la participación dialéctica en el proceso93; al mismo tiempo, sin embargo, el contradictorio es también un instrumento epistémico de averiguación de los hechos94; en esta segunda acepción, es, según la definición muy certera de Antonio Cabral, “derecho de influencia”95.

Desde este segundo punto de vista, sería más correcto hablar de método que de principio, precisamente para subrayar la fuerza epistémica del contradictorio, su naturaleza de instrumento útil para la reconstrucción de los hechos. En otras palabras, en este segundo caso, el contradictorio es ante todo una técnica de verificación, que puede confirmar cómo falsificar todos los supuestos enunciados en el proceso96.

Precisamente con referencia a esta segunda acepción, me parece útil retomar la distinción (típica de los estudiosos italianos del proceso penal) entre contradictorio fuerte y contradictorio débil, dependiendo de si se aplica el método dialéctico en el momento de la formación de la prueba o después de su formación97. En este segundo caso se habla también de contradictorio diferido98, para entender la aplicación del método dialéctico exclusivamente en el momento de la valorización de la prueba, sin ninguna posibilidad de repetición de la práctica de la prueba99.

Pues bien, parece posible afirmar que la utilización de herramientas de inteligencia artificial en el proceso puede limitar fuertemente la función epistémica del contradictorio, sobre todo en la acepción fuerte de la que se acaba de hablar. Como se ha mencionado anteriormente, una característica distintiva de las herramientas de inteligencia artificial (al menos a los fines de esta investigación) es el hecho de que no son intuitivas, en el sentido de que un hombre no puede entender —fácilmente— el mecanismo que llevó al algoritmo a tomar una decisión determinada100. A este respecto, se habla reiteradamente de opacidad algorítmica101.

Esto plantea obviamente como crucial el problema de efectividad del contradictorio en función epistémica. En efecto, parece bastante difícil que, con respecto a las herramientas de inteligencia artificial, se pueda garantizar aún el contradictorio en sentido fuerte. Son las características distintivas del funcionamiento de los algoritmos de inteligencia artificial las que hacen prácticamente imposible un control directo (y por lo tanto fuerte) de las partes y del juez. El algoritmo, por así decirlo, razona para establecer correlaciones, estando basado en reglas no intuitivas que la herramienta puede modificar por sí mismo. Por lo tanto, no es concebible reconocer a las partes un derecho de influencia sobre la ejecución de la herramienta.

Parece inevitable, por tanto, no sólo la disminución de importancia de la función epistémica del contradictorio, sino también su sustancial remodelación, en favor de una nueva (re)configuración en clave exclusivamente (o casi exclusivamente) garantista. Contradictorio entendido no ya como instrumento de sugerencia de nuevas y diferentes hipótesis, sino más bien (sólo) como instrumento de control de la neutralidad de funcionamiento de los algoritmos y de reequilibrio de la inevitable pérdida de control derivada de la utilización de dichas herramientas.

El problema crucial, por tanto, es el del contradictorio débil, es decir, el contradictorio anterior y posterior a la práctica de la prueba. En particular, por lo que se refiere específicamente a los algoritmos de inteligencia artificial, parece fundamental garantizar la participación efectiva, especialmente en la fase de elaboración y entrenamiento del algoritmo.

Más problemático, en cambio, es el contradictorio después de que se haya utilizado la herramienta de inteligencia artificial, es decir, después de que la herramienta haya seleccionado y recogido las pruebas. Por el contrario, en este caso hay que preguntarse si realmente tiene sentido garantizar esta forma de contradicción. Me doy cuenta de que esta pregunta puede parecer muy provocadora. Prácticamente todos los juristas que se ocupan de la inteligencia artificial afirman que la utilización de herramientas de inteligencia artificial siempre debe hacerse bajo el control de un ser humano. Así lo prevé, por ejemplo, la propuesta de reglamento de la Unión Europea en materia de inteligencia artificial. En particular, el artículo 14 de dicha propuesta prevé que quien controla el algoritmo debe ser capaz de comprender y supervisar su funcionamiento e interpretar sus resultados102.

Ese es el punto central. Un ser humano y, más concretamente, un jurista (juez o abogado) ¿podrá alguna vez realizar efectivamente esta forma de control? Más allá de las afirmaciones de principio, parece sinceramente dudoso que este control pueda realizarse en realidad, precisamente en vista de la opacidad de los algoritmos. Las herramientas informáticas (incluidos, sin duda, los de inteligencia artificial) no están exentos de errores; sin embargo, los errores cometidos por estas herramientas son cualitativamente diferentes de los cometidos por los seres humanos, lo que hace mucho más difícil que un ser humano se dé cuenta del error de la máquina. De hecho, casi paradójicamente se podría decir que sólo otra herramienta de inteligencia artificial es realmente capaz de detectar tales errores.

En otras palabras, y en conclusión, la pregunta (provocadora, pero sólo hasta cierto punto) que me hago es si realmente tiene sentido regular el uso de la inteligencia artificial en la práctica de la prueba previendo un necesario control humano103. Obviamente, esta pregunta, como ya se ha dicho al principio de esta investigación, se refiere exclusivamente al uso de la inteligencia artificial en la búsqueda y selección de pruebas, actividad que, por otra parte, puede automatizarse más fácilmente que en otras fases del proceso104.

Por supuesto, debería comprobarse previamente la fiabilidad de las herramientas de inteligencia artificial; en este sentido, podría suponerse que, dentro de un único ordenamiento procesal, se identifiquen algunas herramientas específicas de inteligencia artificial reconocidas, cuya fiabilidad haya sido verificada previamente por la autoridad judicial. De hecho, parece que se ha adquirido en gran medida la capacidad de las herramientas de aprendizaje automático para realizar (de forma autónoma y más eficiente) muchas actividades de concepto generalmente realizadas por los seres humanos (y, en particular, la revisión y selección de documentos). Y ello a pesar de que el aporte humano sigue siendo fundamental en la fase de entrenamiento y en la de selección de la muestra105.

Ahora bien, una vez realizada esta verificación, ¿sería realmente útil controlar su actuación?

Se sospecha, francamente, que el mantenimiento de este tipo de control sirve simplemente para hacer socialmente aceptable el uso de estas herramientas en la búsqueda y selección de pruebas, como en una especie de nueva forma de Procedural Justice106. En efecto, este control parecería muy similar a lo que ocurre aún hoy para los pilotos de los aviones: nadie está dispuesto —todavía— a aceptar subir a bordo de un avión sin piloto, incluso si prácticamente todo el vuelo está gestionado o podría estar efectivamente gestionado por ordenador, sin que haya ninguna verificación humana: los pilotos comprueban que las herramientas funcionan, pero nunca cuestionan los criterios con los que estas herramientas toman sus decisiones.

En conclusión, me parece que el verdadero desafío planteado por la inteligencia artificial en materia probatoria implica esencialmente un nuevo equilibrio entre los valores fundamentales del proceso civil. Es razonable pensar que las herramientas de inteligencia artificial pueden realmente incentivar el acceso y la búsqueda de más pruebas pertinentes (con el consiguiente beneficio para la calidad de las decisiones); todo ello, sin embargo, en detrimento del principio del contradictorio o, mejor dicho, de la posibilidad para los seres humanos de influir en el desarrollo del proceso. Por lo tanto, la cuestión es saber cuál será el punto de equilibrio de este balance.

Bibliografía

Amrani Mekki, S., Les catégories de Common Law et Civil Law à l’épreuve de l’office du juge et des parties, en Justice et droit du procès. Du légalisme procédural à l’humanisme processuel. Mélanges en l’honneur de Serge Guinchard, Paris, 2010, 157

Andrews, N., The Modern Civil Process, Tübingen 2008

Bergeaud, A., Le droit à la preuve, Paris, 2010

Brazil, W., The Adversary Character of Civil Discovery: A Critique and Proposals for Change, en 31 Vand. L. Rev., 1978, 1323

Burrell, How the machine ‘thinks’: Understanding opacity in machine learning algorithms, en Big Data & Society, 2016, 2

Cabral do Passo, A., Convenções Processuais: Teoria geral dos negócios jurídicos processuais, Salvador, 2020, 3ed.

Cadiet, L., Jeuland, E., Droit judiciaire privé, 2020, 11ed.

Cadiet, L. Normand, J., Amrani Mekki, S., Théorie générale du procès, Paris, 2010

Cappelletti, M., Ideologie nel diritto processuale, in Processo e ideologie, Bologna, 1969, 8

Carnelutti, F. La prova civile, Roma, 1947, 2ed.

Carpi, F., Ortells, M. (ed.), Oralidad y escritura en un proceso civil eficiente, Valencia, 2008.

Carratta, A., Funzione dimostrativa della prova (verità del fatto nel processo e sistema probatorio), in Riv. dir. proc., Padova, 2001, 73

Cavallone, B., «Comme vous aultres, Messieur» (François Rabelais teorico del processo e del giudizio), en Riv. dir. proc., Padova, 2008

Comoglio, L.P., Le prove civili, Torino, 2010, 3ed..

Comoglio, P., Nuove tecnologie e disponibilità della prova, Torino, 2018, 233.

de Paula Ramos, V., Onus da prova no processo civil, 2ed., São Paulo, 2018

Dondi, A., Effettività dei provvedimenti istruttori del giudice civile, Padova, 1985,

Dondi, A., Ansanelli, V., Comoglio, P., Processi civili in evoluzione. Una prospettiva comparata, Milano, 2018

Ferrari, F., La “prova migliore”, Milano, 2004, 158.

Ferrer Beltrán, J. La valoración racional de la prueba, Madrid, 2007.

Ferrua, P., Il “giusto processo”, Bologna, 2012, 46

Floridi, L., The 4th revolution. How the Infosphere is Reshaping Human Reality, Oxford, 2014

Garapon, A., Lassègue, J., Justice digitale, Paris, 2018, 175.

Grossman, Cormack, Technology-Assisted Review in EDiscovery Can Be More Effective and More Efficient Than Exhaustive Manual Review, en 17 Rich. J.L. & Tech., 2011, 82

Hazard, G., From Whom No Secrets are Hid, en 76 Tex. L. Rev., 1998, 1675

Jolowicz, A., Adversarial and Inquisitorial Models of Civil Procedure, en 52 Int’l & Comp. L.Q. 2003, 281

Julià Pijoan, M., Proceso penal y (neuro)ciencia: una interacción desorientada. Una reflexión acerca de la neuropredicción, Madrid, 2020

Kaplan, J., Inteligencia Artificial. Lo que todo el mundo debe saber, Zaragoza, 2017

Kramer, X., Van Rhee, C.H. (ed.), Civil Litigation in a Globalising World, The Hague 2012.

Lagarde, X., Vérité et légitimité dans le droit de la preuve, en Droits, Paris, 1996, 31

Lardeux, G. Preuve civile et vérité, en Chérot, J-Y., Cinamonti, S., Tranchant, L., Trémeau, J. (coord.), Le droit entre autonomie et ouverture. Mélanges en l’honneur de Jean-Louis Bergel, Bruxelles, 2013, 869

Marcus, R., EDiscovery Beyond the Federal Rules, en 37 U. Balt. L. Rev., 2007, 329,

Marcus, R., The Impact of Computers on the Legal Profession: Evolution or Revolution?, en 102 Nw. U. L. Rev., 2008, 1827.

Mitidiero, D. Processo civil, São Paulo, 2021, 196

Nance, D.A., The Burdens of Proof. Discriminatory Power, Weight of Evidence, and Tenacity of Belief, New York, 2016

Nersessian, D., Mancha. R., From Automation to Autonomy: Legal and Ethical Responsibility Gaps in Artificial Intelligence Innovation, en 27 Michigan Technology Law Review, 2020, 55

Nieva Fenoll, J., Derecho procesal, II, Proceso civil, Valencia, 2019, 189

Nieva Fenoll, J. Inteligencia artificial y proceso judicial, Madrid, 2018

Nieva Fenoll, J., Inteligencia artificial y proceso judicial: perspectivas tras un alto tecnólogico en el camino, en Rev. gen. der. proc., 2022,19.

Nieva Fenoll, J., La discutible utilidad de los interrogatorios de partes y testigos (Algunas reflexiones sobre la oralidad en tiempos de pandemia), en Revista Ius Et Praxis, 26(3), 157

Nieva Fenoll, J., La valoración racional de la prueba, Madrid, 2010

Nieva Fenoll, J., Ferrer Beltrán, J., Giannini, L., Contra la carga de la prueba, Madrid, 2019

Oteiza, E., El principio de colaboración y los hechos como objeto de prueba, O probare o sucumbir. ¿Es posible plantear un dilema absoluto?, en Morello, A.M., Los hechos en el proceso civil, Buenos Aires, 2003, 87

Oteiza, E., La carga de la prueba. Los criterios de valoración y los fundamentos de la decisión sobre quién está en mejores condiciones de probar, en Oteiza, E. (ed.), La prueba en proceso judicial, Buenos Aires, 2009, 197

Picó Junoy (dir.), J., Andino López, E- Cerrato Guri, J. A. (coord.), La prueba pericial a examen. Propuestas de lege ferenda, Barcelona, 2020

Picó I Junoy, J., La prueba pericial en el proceso civil español (Ley 1/2000 de enjuiciamiento civil), Barcelona 2001.

Price, W.N., Rai, A.K., Clearing Opacity through Machine Learning, en 106 Iowa L Rev., 2021, 775.

Taruffo, M., Funzione della prova: la funzione dimostrativa, in Riv. trim. dir. proc. civ., Milano, 1997, 553

Taruffo, M. La preuba de los hechos, Madrid, 2011, 4ed

Taruffo, M., La semplice verità. Il giudice e la costruzione dei fatti, Bari, 2009

Taruffo, M., Processo e neuroscienze. Cenni generali, en Verso la decisione giusta, Torino, 2020, 309, Taruffo, M., Nieva Fenoll, J. (coord), Neurociencia y proceso judicial, Madrid, 2013

Taruffo, M., Studi sulla rilevanza della prova, Padova, 1970

Taruffo, M., Verità e prova nel processo, in Verso la decisione giusta, Torino, 2020, 113

Ubertis, G., Profili di epistemologia giudiziaria, Milano, 2015, 64.

Vergés, E. Vial, G., Leclerc, O., Droit de la preuve, Paris, 2015

Vermeule, A., Three Strategies of Interpretation, en 42 San Diego L. Rev., 2005, 610

Vismann, C., Files. Law and Media Technology, Stanford, 2008

Weinberger, D., Too Big to Know. Rethinking Knowledge Now That the Facts Aren’t the Facts, Experts Are Everywhere, and the Smartest Person in the Room is the Room, New York, 2011


* Orcid: 0000-0003-4199-1966

1 L. Cadiet, J. Normand, S. Amrani Mekki, Théorie générale du procès, Paris, 2010, 835 sig. y 882, D. Mitidiero, Processo civil, São Paulo, 2021, 196, E. Vergés, G. Vial, O. Leclerc, Droit de la preuve, Paris, 2015, 5, L. Cadiet, E. Jeuland, Droit judiciaire privé, 2020, 11ed., 543, F. Carnelutti, La prova civile, Roma, 1947, 2ed., M. Taruffo, La preuba de los hechos, Madrid, 2011, 4ed., L.P. Comoglio, Le prove civili, Torino, 2010, 3ed.

2 Sobre la prueba pericial, vid. los ensayos en J. Picó Junoy (dir.), J. A. Andino López, E. Cerrato Guri (coord.), La prueba pericial a examen. Propuestas de lege ferenda, Barcelona, 2020,

3 En todo caso, el problema será saber si el perito será capaz de “comprender” el algoritmo. Pero esto, como se dirá más adelante, es parte del problema más general de la opacidad intrínseca de los algoritmos.

4 Sobre el tema de la valoración de la prueba, vid. J. Nieva Fenoll, La valoración racional de la prueba, Madrid, 2010, J. Ferrer Beltrán, La valoración racional de la prueba, Madrid, 2007.

5 J. Nieva Fenoll, Inteligencia artificial y proceso judicial, Madrid, 2018, 99 sig.

6 Sobre esto debate vid. M. Cappelletti, Ideologie nel diritto processuale, in Processo e ideologie, Bologna, 1969, 8, A. Carratta, Funzione dimostrativa della prova (verità del fatto nel processo e sistema probatorio), in Riv. dir. proc., Padova, 2001, 73, M. Taruffo, Funzione della prova: la funzione dimostrativa, in Riv. trim. dir. proc. civ., Milano, 1997, 553, L.P. Comoglio, Le prove civili, cit., 7.

7 M. Taruffo, La semplice verità. Il giudice e la costruzione dei fatti, cit., 91, Id.., La verità nel processo, cit., 1125, Id., Verità e prova nel processo, in Verso la decisione giusta, Torino, 2020, 113, D. Mitidiero, Processo civil, cit., 197 y 199 (nota 133 para más referencias bibliográficas de la doctrina brasileña), G. Lardeux, Preuve civile et vérité, en J-Y. Chérot, S. Cinamonti, L. Tranchant, J. Trémeau (coord.), Le droit entre autonomie et ouverture. Mélanges en l’honneur de Jean-Louis Bergel, Bruxelles, 2013, 869, X. Lagarde, Vérité et légitimité dans le droit de la preuve, en Droits, Paris, 1996, 31.

8 J. Nieva Fenoll, Derecho procesal, II, Proceso civil, Valencia, 2019, 189. Conforme vid. E. Vergés, G. Vial, O. Leclerc, Droit de la preuve, cit., 7 (« la vérité constitue l’horizon de la preuve en justice et la conviction du juge en est le moyen concret »).

9 J. Nieva Fenoll, La discutible utilidad de los interrogatorios de partes y testigos (Algunas reflexiones sobre la oralidad en tiempos de pandemia), en Revista Ius Et Praxis, 26(3), 157. En general, sobre el tema de la oralidad, véanse los ensayos en F. Carpi, M. Ortells (ed.), Oralidad y escritura en un proceso civil eficiente, Valencia, 2008.

10 Sobre esto tema vid. J. Nieva Fenoll, Inteligencia artificial y proceso judicial: perspectivas tras un alto tecnólogico en el camino, en Rev. gen. der. proc., 2022,19.

11 C. Vismann, Files. Law and Media Technology, Stanford, 2008, Salaün, Vu, lu, su. Les architectes de l’information face à l’oligopole du web, Paris, 2012, 27.

12 Vid. P. Comoglio, Nuove tecnologie e disponibilità della prova, Torino, 2018, 233.

13 Glénisson, Una história entre duas erudições, en Revista de historia, 1977, 110.

14 G. Hazard, From Whom No Secrets are Hid, en 76 Tex. L. Rev., 1998, 1675, que señala claramente que “there is no inherent limit on the number of documents” y que «the drafters of the 1938 Rules, thus, certainly did not foresee the extent of modem document discovery». Vid. también R. Marcus, EDiscovery Beyond the Federal Rules, en 37 U. Balt. L. Rev., 2007, 329, Id., The Impact of Computers on the Legal Profession: Evolution or Revolution?, en 102 Nw. U. L. Rev., 2008, 1827.

15 A. Garapon, J Lassègue, Justice digitale, Paris, 2018, 175.

16 J. Kaplan, Inteligencia Artificial. Lo que todo el mundo debe saber, Zaragoza, 2017, Hill, What an Algorithm Is, en Philos. Technol., 2016, 35, Weinberger, Too Big to Know. Rethinking Knowledge Now That the Facts Aren’t the Facts, Experts Are Everywhere, and the Smartest Person in the Room is the Room, New York, 2011, 9

17 M. Taruffo, La decisione giudiziaria e la sua giustificazione: un problema per le neuroscienze?, cit., 1247, Id., Processo e neuroscienze. Cenni generali, en Verso la decisione giusta, Torino, 2020, 309, M. Taruffo, J. Nieva Fenoll (coord), Neurociencia y proceso judicial, Madrid, 2013, M. Julià Pijoan, Proceso penal y (neuro)ciencia: una interacción desorientada. Una reflexión acerca de la neuropredicción, Madrid, 2020, D. Patterson, M.S. Pardo (ed.), Philosophical foundations of Law and Neuroscience, Oxford, 2016, L. Shapiro, Embodied Cognition, London-New York, 2011, Rumiati, Decisioni giudiziarie e neuroscienze seduttive, en Giornale italiano di psicologia, 2016, 777.

18 J. Nieva Fenoll, Inteligencia artificial y proceso judicial, cit., 99, Ferrari, Becker, Direito à explicacão e decisões automatizadas: reflexões sobre o princípio do contraditório, en Nunes, dos Santos Lucon, Wolkart, Inteligência Artificial e Direito Processual: Os Impactos da Virada Tecnológica no Direito Processual, Salvador, 2021, 291, Keats Citron, Pasquale, The Scored Society: Due Process for Automated Predictions, en 89 Wash. L. Rev., 2014, 6, Nissan, Digital technologies and artificial intelligence’s present and foreseeable impact on lawyering, judging, policing and law enforcement, en 32 AI & Soc., 2017, 441.

19 Floridi, The 4th revolution. How the Infosphere is Reshaping Human Reality, Oxford, 2014, 140.

20 Hume, Preparing for the Near Future: Deep Learning and Law, en Baron, Losey, Berman (coord.), Perspectives on Predictive Coding. And Other Advanced Search Methods for the Legal Practitioner, Chicago, 2016, 559.

21 Esta es también la noción de inteligencia artificial contenida en la propuesta de Reglamento de la Unión Europea por el que se establecen normas armonizadas en materia de inteligencia artificial. El artículo 1, letra a), de dicha propuesta define «Sistema de inteligencia artificial (sistema de IA)» como « el software que se desarrolla empleando una o varias de las técnicas y estrategias que figuran en el anexo I y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa ».

22 J. Nieva Fenoll, Inteligencia artificial y proceso judicial, cit., 99 sig.

23 Burrell, How the machine ‘thinks’: Understanding opacity in machine learning algorithms, en Big Data & Society, 2016, 2; Mckinlay, Evidence, Explanation and Predictive Data Modelling, en Philos. Technol., 463.

24 Grossman, Cormack, Technology-Assisted Review in EDiscovery Can Be More Effective and More Efficient Than Exhaustive Manual Review, en 17 Rich. J.L. & Tech., 2011, 82, D. Nersessian, R. Mancha. From Automation to Autonomy: Legal and Ethical Responsibility Gaps in Artificial Intelligence Innovation, en 27 Michigan Technology Law Review, 2020, 55

25 W.N. Price, A.K Rai, Clearing Opacity through Machine Learning, en 106 Iowa L Rev., 2021, 775.

26 Sobre el tema de los conocimientos técnicos especializados en el proceso V. Ansanelli, Prove e strumenti conoscitivi del giudice, en A. Dondi, V. Ansanelli, P. Comoglio, Processi civili in evoluzione. Una prospettiva comparata, Milano, 2018, 262, V. Ansanelli, La consulenza tecnica nel processo civile – Problemi e funzionalità, Milano, 2011, J. Picó I Junoy, La prueba pericial en el proceso civil español (Ley 1/2000 de enjuiciamiento civil), Barcelona 2001.

27 J. Nieva Fenoll, Inteligencia artificial y proceso judicial, cit., 140, que habla con razón de un necesario principio de publicidad de los algoritmos.

28 D. Nersessian, R. Mancha. From Automation to Autonomy: Legal and Ethical Responsibility Gaps in Artificial Intelligence Innovation, cit., 61.

29 D. Nersessian, R. Mancha. From Automation to Autonomy: Legal and Ethical Responsibility Gaps in Artificial Intelligence Innovation, cit., 61.

30 Grossman, Cormack, Technology-Assisted Review in EDiscovery Can Be More Effective and More Efficient Than Exhaustive Manual Review, cit., 11, Remus, The Uncertain Promise of Predictive Coding, en 99 Iowa L. Rev., 2014, 106, Beisner, Discovering a Better Way: the Need for Effective Civil Litigation Reform, en 60 Duke L. J., 2010, 556, Yablon, Landsman-Roos, Predictive Coding: Emerging Questions and Concerns, en 64 S.C. L. Rev., 2013, 633, 106, Jenkins, What Can Information Technology Do for Law?, en Harvard J. L. & Tech., 2008, 600, Morgan, Predictive Coding: A Trial Court Judge’s Perspective, en 26 Regent U. L. Rev., 2013, 71, Serhan, Calling an End to Culling: Predictive Coding and the New Federal Rules of Civil Procedure, en 23 Rich. J.L. & Tech., 2016, 24, Young, To Cure the E-Discovery Headache, Revamp the Rule 26(f) Discovery Conference, en 12 Nw. J. Tech. & Intell. Prop., 2014, 363 ss.. En la doctrina italiana, P. Comoglio, Nuove tecnologie e disponibilità della prova, cit., 264, V. Ansanelli, Problemi di preparazione e trattazione delle controversie civili, en A. Dondi, V. Ansanelli, P. Comoglio, Processi civili in evoluzione. Una prospettiva comparata, Milano, 2018, 223.

31 Da Silva Moore v. Publicis Groupe, 287 F.R.D. 182 (S.D.N.Y. 2012).

32 Por ejemplo, vid. Global Aerospace Inc. v. Landow Aviation, L.P. No. CL. 61040 (Va. Cir. Ct. Apr. 23, 2012). Para un examen específico y detallado de las decisiones más recientes en materia de T.A.R. vid. The Sedona Conference TAR Case Law Primer, en 18 Sedona Conf. J., 2017, 15.

33 Murphy, Mandating Use of Predictive Coring in Electronic Discovery: An Ill-Advised Judicial Intrusion, en 50 Am. Bus. L.J., 2013, 609.

34 Pyrrho Investments Ltd v MWB Property Ltd, [2016] EWHC 256 (Ch).

35 McConnell Dowell Constructors (Aust) Pty Ltd v Santam Ltd & Ors 2 diciembre 2016, https://www.lexology.com/library/detail.aspx?g=49d076f0-e695-4078-a600-cfe1ffb2a9ed.

36 D.A. Slansky, La prueba pericial en los Estados Unidos, en J. Picó Junoy (dir.), J. A. Andino López, E- Cerrato Guri (coord.), La prueba pericial a examen. Propuestas de lege ferenda, cit.,182 y M. Richard González, La ciencia y la tecnología aplicadas a la prueba de los echos en proceso. Análisis del fundamento y fiabilidad de la prueba neurocientífica, en J. Picó Junoy (dir.), J. A. Andino López, E- Cerrato Guri (coord.), La prueba pericial a examen. Propuestas de lege ferenda, cit., 615, M. Taruffo, Le prove genetiche nel processo civile e penale, en Verso la decisione giusta, Torino, 2020, 297.

37 M. Taruffo, Le scienze nel processo: problemi e prospettive, en Verso la decisione giusta, cit., 283.

38 L. Cadiet, E. Jeuland, Droit judiciaire privé, 2020, 11ed., 82.

39 Sobre el tema de los límites de la prueba pericial, vid. J. A. Andino López, Inadmisión de hechos o documentos inéditos introducidos a través de la prueba pericial (una conducta poco ética), en J. Picó Junoy (dir.), J. A. Andino López, E. Cerrato Guri (coord.), La prueba pericial a examen. Propuestas de lege ferenda, cit., 453

40 Art. 243 code de procédure civile francés; L. Cadiet, E. Jeuland, Droit judiciaire privé, cit., 582.

41 V. Denti, L’inversione dell’onere della prova: rilievi introduttivi, en Rivista trimestrale di diritto e procedura civile, Milano, 1992, 709, L.P. Comoglio, Le prove civili, cit., 405

42 G. Lardeux, Preuve civile et vérité, cit., 905, E. Vergés, G. Vial, O. Leclerc, Droit de la preuve, cit., 24, L. Cadiet, E. Jeuland, Droit judiciaire privé, cit., 508 sig.

43 A. Cabral do Passo, Convenções Processuais: Teoria geral dos negócios jurídicos processuais, Salvador, 2020, 3ed., 278.

44 “La fase de admisión de pruebas es una de las grandes olvidadas por los tratadistas” como subraya J. Nieva Fenoll, Inteligencia artificial y proceso judicial, cit., 36.

45 M. Taruffo, Studi sulla rilevanza della prova, Padova, 1970, Id., La prova dei fatti giuridici, Milano, 1992, 338

46 M. Taruffo, Studi sulla rilevanza della prova, cit., 87.

47 M. Taruffo, Studi sulla rilevanza della prova, Padova, 1970, 3 Sobre la estrecha relación entre pertinencia y economía procesal, vid. L.P. Comoglio, Il principio di economia processuale, Padova, 1980, I, 198 sig.

48 M. Taruffo, Studi sulla rilevanza della prova, cit., 12, el cual affirma que “Quando il giudice non ha a disposizione tutto il materiale probatorio, e deve valutare la prova esclusivamente in base al momento in cui la parte la formula nel richiederne l’ammissione, si può escludere che ogni apprezzamento relativo alla efficacia della prova possa avere un razionale fondamento”. Esta es la creencia detrás de las instrucciones que normalmente se dan a los jurados estadounidenses; vid. D.A. Nance, The Burdens of Proof. Discriminatory Power, Weight of Evidence, and Tenacity of Belief, New York, 2016, 350, el cual recuerda las instrucciones dadas en la decisión Stocker v. Boston & Me, R.R., 151, A. 457-8 (N.H. 1930), luego constantemente utilizadas: “You may take it for granted that all of the available evidence material and favorable to either side has been placed before you by one side or the other so that you are as well informed and in as good a position to decide the case correctly as any jury could be”.

49 M. Taruffo, La semplice verità, Bari, Laterza, 2009, 142.

50 Sobre la noción de pertinencia como regla de inclusión vid. M. Taruffo, La semplice verità, cit., 140 e Id., Studi sulla rilevanza della prova, cit., 6.

51 J. Nieva Fenoll, Inteligencia artificial y proceso judicial, cit., 36 (según el cual “lo que suele suceder es que se admite toda la documental aportada”).

52 Vid. M. Taruffo, Studi sulla rilevanza della prova, cit., 74 sigg.

53 Vid. A. Vermeule, Three Strategies of Interpretation, en 42 San Diego L. Rev., 2005, 610

54 H.A. Simon, A Behavioral Model of Rational Choice, en 69 Q. J. of Eco., 1955, 99, al que se deben también los neologismos satisficing y satisficer.

55 A. Vermeule, Three Strategies of Interpretation, cit., 607.

56 M. Taruffo, La semplice verità, cit., 140. que considera que la integridad de los elementos es un requisito esencial e indispensable de la racionalidad de la Decisión. Sobre el total evidence principle, vid. A. Goldman, Knowledge in a Social World, Oxford, 1999, 204, I.J. Good, On the principle of total evidence, en British J. for the Philosophy of Science, 1967; sobre el principio de comprehensiveness (o di completeness), S. Haack, Epistemology Legalized: Or Truth, Justice, and the American Way, en 49 Am. J. Jur., 2004, 56.

57 Vid. R. Heesen, How Much Evidence Should One Collect?, en www.philsci-archive.pitt.edu, 2013, 2, el cual afirma que “there is of course no suggestion that an infinite sequence of evidence will ever be observed; various practical constraints put upper bounds on the amount of evidence a scientist could obtain. […] The problem is that scientists do not collect evidence indefinitely”.

58 D.A. Nance, The Burdens of Proof. Discriminatory Power, Weight of Evidence, and Tenacity of Belief, cit., 195 (“very often, rules of admissibility are rules about the practical optimization of Keynesian weight”, es decir “practical optimization of Keynesian weight in adversarial trials must and uncontroversially does sometimes involve restricting the fact-finder’s use of relevant evidence. This is clear enough in rules that exclude undeniably relevant evidence when its probative value is so weak, in context, that its considerations is not worth the tribunal’s time and energy and thus not worth the time and energy of a jury to duplicate the judge’s determination that it is unhelpful”.

59 Grimm, Are We Insane: The Quest for Proportionality in the Discovery Rules of the Federal Rules of Civil Procedure, en 36 Rev. Litig., 2017, 117, Crump, Goodbye, Reasonably Calculated; You’re Replaced by Proportionality: Deciphering the New Federal Scope of Discovery, en 23 Geo. Mason L. Rev., 2016, 1093, Gelbach, Kobayashi, The Law and Economics of Proportionality in Discovery, en 50 Ga. L. Rev., 2016, 1093. En la doctrina italiana, V. Ansanelli, Problemi di preparazione e trattazione delle controversie civili, en A. Dondi, V. Ansanelli, P. Comoglio, Processi civili in evoluzione, Milano, 2018, 170.

60 L. Cadiet, E. Jeuland, Droit judiciaire privé, cit., 565, L. Cadiet, J. Normand, S. Amrani Mekki, Théorie générale du procès, cit., 271.

61 D.A. Nance, The Burdens of Proof. Discriminatory Power, Weight of Evidence, and Tenacity of Belief, cit., 183 (“optimizing evidence and maximizing the expected utility of the decision itself are not the only goals of a system of adjudication”).

62 J. Nieva Fenoll, J. Ferrer Beltrán, L. Giannini, Contra la carga de la prueba, Madrid, 2019, V. de Paula Ramos, Onus da prova no processo civil, 2ed., São Paulo, 2018, D. Mitidiero, O ônus da prova e seus inimigos, en Revista de Processo, São Paulo, 2020, 306.

63 R.J. Allen, A. Stein, Evidence, Probability, and the Burden of Proof, en 55 Ariziona L. Rev., 2013, 1, E.K. Cheng, Reconceptualizing the Burden of Proof, en 122 Yale L.J., 2013, 1254, L. Kaplow, Burden of Proof, en 121 Yale L.J., 2012, 749, D.A. Nance, The Burdens of Proof. Discriminatory Power, Weight of Evidence, and Tenacity of Belief, New York, 2016.

64 D. Mitidiero, O ônus da prova e seus inimigos, cit., 306.

65 V. de Paula Ramos, Onus da prova no processo civil, cit., 51, D. Mitidiero, O ônus da prova e seus inimigos, cit., 203.

66 J. Nieva Fenoll, La carga de la prueba: una reliquia histórica que debiera ser abolida, en J. Nieva Fenoll, J Ferrer Beltrán, L.J. Giannini, Contra la carga de la prueba, Madrid, Buenos Aires, 2019, 44.

67 J. Ferrer Beltran, La carga de la prueba. Entre la confusión y lo innecesario, 58.

68 E. Oteiza, La carga de la prueba. Los criterios de valoración y los fundamentos de la decisión sobre quién está en mejores condiciones de probar, en E. Oteiza (ed.), La prueba en proceso judicial, Buenos Aires, 2009, 197, J. Ferrer Beltran, La carga de la prueba. Entre la confusión y lo innecesario, en J. Nieva Fenoll, J. Ferrer Beltrán, L. J. Giannini, Contra la carga de la prueba, Madrid, Buenos Aires, 2019, 54 ss. y esp. 64 (“el objetivo central [de la carga dinámica] es el de maximizar la información relevante que las partes aportan al proceso, como una forma de facilitar la búsqueda de la verdad y, con ello, la atribución de una decisión justa al procedimiento”).

69 Tribunal de Justicia de la Unión Europea (Sala Octava), 24 octubre 2019, asunto C-756/18, en https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:62018CO0756&from=IT

70 J. Nieva Fenoll, La carga de la prueba: una reliquia histórica que debiera ser abolida, cit., 43, el cual afirma con razón que “en un proceso se valora la prueba, y deben optimizarse al máximo las oportunidades de hacerlo” y que, sin embargo, la carga de la prueba no sirve para esto hasta, ya que “no es más que una presunción mal construida que permite inferir que quien no tiene prueba de un hacho está alegando un hecho falso”.

71 A. Bergeaud, Le droit à la preuve, Paris, 2010, L. Cadiet, E. Jeuland, Droit judiciaire privé, cit., 510.

72 G. Hazard, From Whom No Secrets are Hid, en 76 Tex. L. Rev., 1998, 1694 («broad discovery is thus not a mere procedural rule. Rather it has become, at least for our era, a procedural institution perhaps of virtually constitutional foundation»).

73 W. Brazil, The Adversary Character of Civil Discovery: A Critique and Proposals for Change, en 31 Vand. L. Rev., 1978, 1323; Subrin, Fishing Expeditions Allowed: The Historical Background of the 1938 Federal Discovery Rules, en 39 B.C. L. Rev., 1998, 710, Subrin, Woo, Litigating in America. Civil Procedure in Context, New York, 2006, 130. En la doctrina italiana, A. Dondi, Effettività dei provvedimenti istruttori del giudice civile, Padova, 1985,

74 Sobre esto tema, vid. Walker, Chase (ed.), Common Law Civil Law and the Future of Categories, Toronto 2010, AA.VV, Due iceberg a confronto: le derive di common law e civil law, Milano 2009, S. Amrani Mekki, Les catégories de Common Law et Civil Law à l’épreuve de l’office du juge et des parties, en Justice et droit du procès. Du légalisme procédural à l’humanisme processuel. Mélanges en l’honneur de Serge Guinchard, Paris, 2010, 157, N. Andrews, The Modern Civil Process, Tübingen 2008, X. Kramer, C.H. Van Rhee (ed.), Civil Litigation in a Globalising World, The Hague 2012.

75 L. J. Giannini, Revisitando la doctrina de la “carga dinamica de la prueba”. Aportes para esclarecer sus principales problemas conceptuales, en J. Nieva Fenoll, J Ferrer Beltrán, L.J. Giannini, Contra la carga de la prueba, Madrid, Buenos Aires, 2019, 90 sigg.

76 A favor de una posible introducción también en los ordenamientos de civil law de mecanismos de discovery, vid. J. Ferrer Beltran, La carga de la prueba. Entre la confusion y lo innecesario, cit., 75.

77 L. Cadiet, E. Jeuland, Droit judiciaire privé, cit., 546.

78 En general, sobre el principio de colaboración, vid. E. Oteiza, El principio de colaboración y los hechos como objeto de prueba, O probare o sucumbir. ¿Es posible plantear un dilema absoluto?, en A.M. Morello, Los hechos en el proceso civil, Buenos Aires, 2003, 87

79 De hecho, como subraya Leandro Giannini, “no se trata de cargar a la parte con el “peso de la incertidumbre”, sino de exigirle que coopere en el esclarecimiento de ciertos hechos, por su mejor posición relativa para hacerlo (mayor acceso a la información, a las fuentes de prueba, menores dificultades económicas o materiales para obtener un dato relevante para acreditar ciertas circunstancias fácticas)” (L. J. Giannini, Revisitando la doctrina de la “carga dinámica de la prueba”. Aportes para esclarecer sus principales problemas conceptuales, cit., 105).

80 A. Dondi, Effettività dei provvedimenti istruttori del giudice civile, Padova, 1985, 288.

81 J. P. LaMonaca, A Break from Reality: Modernizing Authentication Standards for Digital Video Evidence in the Era of Deepfakes, en 69 Am U L Rev., 2020, 1945

82 L. Cadiet, E. Jeuland, Droit judiciaire privé, cit., 548

83 D.A. Nance, The Burdens of Proof. Discriminatory Power, Weight of Evidence, and Tenacity of Belief, cit., 198. En la doctrina italiana, F. Ferrari, La “prova migliore”, Milano, 2004, 158.

84 En este sentido (es decir, en la óptica de utilizar el Best Evidence Principle como criterio de interpretación de los poderes de oficio del juez), aunque, obviamente, sin referencia específica a la inteligencia artificial F. Ferrari, La “prova migliore”, cit., 269.

85 Vid. D.A. Nance, The Burdens of Proof. Discriminatory Power, Weight of Evidence, and Tenacity of Belief, cit., 200, el cual considera el Best Evidence Principle como una herramienta de optimización de los recursos procesales.

86 Sobre este tema vid. E. Oteiza (ed.), La prueba en el proceso judicial, Buenos Aires-Santa Fe, 2009, J. Nieva Fenoll, La cattiva reputazione del principio inquisitorio, en Riv. trim. dir. proc. civ., 2014, 943, J. Picó I Junoy, El juez y la prueba, Barcelona 2007, E. Jeuland, Droit processuel général, Issy-les-Moulineaux, 2014, 310, Jolowicz, Adversarial and Inquisitorial Models of Civil Procedure, en 52 Int’l & Comp. L.Q. 2003, 281.

87 En general sobre este problema, también para más referencias, A. Dondi, Problemi ricorrenti e impostazione metodologica, en A. Dondi, V. Ansanelli, P. Comoglio, Processi civili in evoluzione. Una prospettiva comparata, Milano, 2018, 5.

88 M. Taruffo, Poteri probatori delle parti e del giudice in Europa, en Rivista trimestrale di diritto e procedura civile, Milano, 2006, 451, D. Mitidiero, Processo civil, cit., 203 (nota 159 para más referencias bibliográficas de la doctrina brasileña), L. Cadiet, E. Jeuland, Droit judiciaire privé, cit., 512.

89 J. Nieva Fenoll, Inteligencia artificial y proceso judicial, cit., 147.

90 Ferrari, Becker, Direito à explicacão e decisões automatizadas: reflexões sobre o princípio do contraditório, en Nunes, dos Santos Lucon, Wolkart, Inteligência Artificial e Direito Processual: Os Impactos da Virada Tecnológica no Direito Processual, supra note 23, 280.

91 J. Nieva Fenoll, Inteligencia artificial y proceso judicial: perspectivas tras un alto tecnólogico en el camino, cit., 10.

92 L. Cadiet, J. Normand, S. Amrani Mekki, Théorie générale du procès, cit., 628 sig.

93 J. Nieva Fenoll, Derecho procesal, I, Introducción, Valencia, 2019, 128.

94 L. Cadiet, J. Normand, S. Amrani Mekki, Théorie générale du procès, cit., 643 sig. (según los cuales « le principe du contradictoire a une première fonction, classique, qui consiste à assurer la défense des parties. Il a une seconde fonction que dépasse le cadre des intérêts en présence puisqu’il est un moyen de parvenir à une solution qui s’adjuste au plus près de la vérité du litige »).

95 A. Cabral do Passo, El principio del contradictorio como derecho de influencia y deber de debate, en Revista Peruana de Derecho Procesal, 16, 2010, 261. Análogamente L. Cadiet, J. Normand, S. Amrani Mekki, Théorie générale du procès, cit., 648 (que hablan de contradictorio como poder de « contredire effectivement »). Sobre esto principio, en perspectiva comparada, F. Ferrand, Le principe contradictoire et l’expertise en droit comparé européen, en Revue internationale de droit comparé, 2000, 345.

96 P. Ferrua, Il “giusto processo”, Bologna, 2012, 46, Id., Contraddittorio e verità nel processo penale, en Bessone, Guastini (ed.), La regola del caso. Materiali sul ragionamento giuridico, Padova, 1995, 337, G. Ubertis, Profili di epistemologia giudiziaria, Milano, 2015, 64.

97 P. Ferrua, Il “giusto processo”, cit., 74.

98 Mazza, voce Contraddittorio (principio del) (diritto processuale penale), en Enc. dir. Annali, Milano, 2014, vol. VII, 247.

99 L. Cadiet, E. Jeuland, Droit judiciaire privé, cit., 476.

100 W.N. Price, A.K Rai, Clearing Opacity through Machine Learning, en 106 Iowa L Rev., 2021, 775.

101 Burrell, How the machine ‘thinks’: Understanding opacity in machine learning algorithms, cit., 2; Mckinlay, Evidence, Explanation and Predictive Data Modelling, cit., 463.

102 Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (ley de inteligencia artificial) y se modifican determinados actos legislativos de la unión (https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:52021PC0206).

103 Simmons, Big Data, Machine Judges, and the Legitimacy of the Criminal Justice System, en 52 University of California, Davis, 2018, 1067.

104 J. Nieva Fenoll, Inteligencia artificial y proceso judicial, cit., 20 (que distingue “tramitación y búsqueda de datos, por una parte, y la actividad mental que supone el enjuiciamiento, por la otra”, subrayando que “la primera actividad no reviste mayor complejidad, siendo la segunda la que encierra más incógnitas”).

105 Grossman, Cormack, Technology-Assisted Review in EDiscovery Can Be More Effective and More Efficient Than Exhaustive Manual Review, cit., Catanzaro, Green, Rampersand, The Mechanism of a Predictive Coding Workflow, en Baron, Losey, Berman (ed.), Perspectives on Predictive Coding. And Other Advanced Search Methods for the Legal Practitioner, Chicago, 2016, 98.

106 B. Cavallone, «Comme vous aultres, Messieur» (François Rabelais teorico del processo e del giudizio), en Riv. dir. proc., Padova, 2008, 438, Duxbury, Random Justice, On Lotteries and Legal Decision-Making, Oxford, 1999, Goodwin, Justice by Lottery, New York, 1992, May, Morrow, Procedural Justice, Burlington, 2012, Solum, Procedural Justice, en 78 S. Cal. L. Rev., 2004, 181