I. Premisa metodológica y motivo de indagación
El presente estudio nace a raíz de una pregunta que no mucho tiempo atrás se relegaba a la ciencia ficción o, por decirlo así, a la ficción jurídica: ¿un juez puede ser reemplazado por un robot? Robots para los que, sea bien claro, el tipo penal de "homicidio" equivale, ante todo, como insinuaba la famosa película Una Odisea del espacio1, a la desactivación de la memoria central de un computador.
A nivel metodológico es necesario cuestionar primero si vale la pena perseguir un determinado objetivo, y solo si este resulta deseable se procedería a su estudio. Iniciemos identificando los motivos que podrían llevar a optar por este tipo de administración de justicia: (1) proporcionar rendimientos más eficientes que aquellos producidos por el ser humano, y (2) garantizar seguridad jurídica. Sobre este último es menester aclarar que, no obstante la certeza del derecho sea una aspiración básica en las comunidades humanas organizadas, en la ciencia jurídica también es patrimonio común la antigua enseñanza de Cicerón sintetizada en la expresión "summum ius, summa iniuria".
Efectivamente, aunque a nivel teórico es verdad que traducir el canon hermenêutico en una fórmula matemática debería garantizar un nivel más elevado de certeza en la interpretación de las normas y, por consiguiente, de previsibilidad de las decisiones procesales2, también es verdad que el famosísimo aforismo del más conocido jurista de la Antigua Roma nos recuerda que "la aplicación estricta de una norma puede convertirse en injusticia". Así las cosas, preguntarnos si se puede reducir el derecho viviente -es decir, garantizar justicia en cada caso concreto- a la aplicación científica de un algoritmo parecería evidentemente nocivo, pero no es así.
Para brindar una respuesta a dicha pregunta, ante todo, es necesario interrogarnos sobre si el proceso de interpretación de las normas se puede traducir en un algoritmo3. Cabe resaltar que la expresión lingüístico-científica 'algoritmo' designa la capacidad de una máquina (propiamente un ordenador o un robot) de correlacionar grandes cantidades de información y de datos, todo ello según una fórmula determinada para finalmente dar el resultado previsto y requerido, así como ocurre en el cerebro humano.
En realidad, como es bien sabido, la sustitución tecnológica de los hombres con la inteligencia artificial (IA) va a influir en todos los procesos humanos en las próximas décadas, por lo tanto, es necesario profundizar en esta reflexión.
El primero de los dos motivos para incorporar la IA en el sector judicial, a saber, la exigencia de brindar prestaciones de "justicia" más eficientes, sin duda ha tenido una mayor difusión y se le considera prevalente.
En el ordenamiento italiano, por ejemplo, a lo largo de los últimos años se han llevado a cabo varias intervenciones en el ámbito del proceso civil, dirigidas a reducir los tiempos de la justicia y a volverla más eficiente: la reforma laboral (Ley del 11 de agosto de 1973, n.° 533), el proceso sumario (Ley del 18 de junio de 2009, n.° 69) y la mediación (Decreto legislativo del 4 de marzo de 2010, n.° 28), entre otras.
Sin embargo, en el plano de la actividad jurisdiccional está demostrado que la eficiencia, concebida como economicidad y rapidez, puede adoptar una fisionomía muy peculiar en comparación con otros sectores de la Administración Pública y con la economía.
En Italia, la llamada "deflación del contencioso" ha requerido a lo largo de los años un activismo por parte del legislador para introducir "barreras" procesales y procedimentales, el pago de una contribución (cada vez más gravosa) para los gastos relativos a la justicia, la previsión de límites a los pronunciamientos del juez y a los actos de los abogados. Todo ello con el fin de utilizar menos recursos, según las exigencias de la economicidad, pero también para hacer más rápidas las respuestas a la demanda de justicia de los ciudadanos. De hecho, rapidez y economicidad a menudo han ido de la mano. Lamentablemente, los efectos obtenidos se han limitado a hacer más difícil el papel del abogado y más onerosas para los ciudadanos las costas de acceso a la justicia.
Cabe también resaltar que la rapidez (objeto de varios pronunciamientos incluso de la jurisprudencia constitucional italiana)4, asumida como principio de la razonable duración del proceso, se ha introducido explícitamente en la Constitución italiana con el nuevo artículo 111.
En muchos casos, reducir los términos procesales de algunos pleitos conllevó ralentizar otros. "Si todo se acelera, nada se acelera, especialmente respecto de los recursos (humanos y materiales) no incrementados"5; sin olvidar que en ocasiones la rapidez va en detrimento de la calidad.
Una mayor rapidez podría ser útil solo si la prestación robótica pudiera garantizar el mismo estándar de calidad de la humana, asegurando el respeto del principio de tutela jurisdiccional efectiva. Solo de esta forma la decisión robótica podría, al mismo tiempo, garantizar la mayor seguridad jurídica arriba mencionada sin perder de vista los dos motivos que han originado esta reflexión6.
El punto de partida es una situación problemática: tiempos demasiado largos, falta de previsibilidad de las decisiones, recursos escasos, costes excesivos del sistema judicial en comparación con el resultado. A su vez, la ausencia de un sistema coherente y homogéneo genera conflictos. En este contexto la decisión robótica se considera una herramienta capaz de aportar mayor seguridad al tiempo que reduce la litigiosidad.
La tesis que se respalda es que la IA puede ser una herramienta útil para el sistema judicial moderno; una ayuda muy valiosa, si se usa bien, pero no en sustitución del juez.
No es casual que, por un lado, la informática haya sido incorporada a la justicia y que, por otro, se haya introducido un juicio civil casi totalmente digitalizado7 (aunque todavía no se haya extendido al juez de paz ni al Tribunal de Casación). En ese orden de ideas, traducir en lenguaje informático las reglas del proceso representa sin duda un objetivo importante.
Además, es apreciable una tendencia a la estandarización de los pronunciamientos de los jueces y de los actos de los abogados8, según un esquema estándar informatizado que se propone eliminar la incertidumbre y el caos9. Todo ello conlleva beneficios en lo que se refiere a la claridad de las cuestiones y la rapidez de los procedimientos, optimiza la dialéctica entre las partes y valoriza la comunicación en el proceso, en el ámbito de un diálogo en el que los operadores del derecho, comenzando por los jueces, están llamados a conservar y custodiar el papel de sujetos con poder de decisión, a los que corresponde escoger entre las diversas opciones en materia de interpretación y del mérito de las respectivas cuestiones jurídicas10.
En especial, la estandardización de la motivación de la decisión es un primer paso hacia la posible "estandardización" de las decisiones tomadas por el juez que se apoya en el sistema informático11.
Naturalmente, la extraordinaria novedad de las modernas inteligencias artificiales es la posibilidad de procesar datos de forma masiva, agregándolos y disgregándolos entre sí, como solo un gran número de investigadores podría hacer, con una velocidad muy elevada que con dificultad podría ser alcanzada por un ser humano12.
Un ulterior paso que aquí ha sido considerado está representado por la capacidad por parte de la máquina de "transformar" los datos introducidos, interpretándolos y activando un razonamiento lógico típico de la mente humana, en actos o contratos13.
En todo caso, no obstante la capacidad de las máquinas de aprender de forma autónoma a través del llamado "machine learning", o incluso de procesar nuevas rutas de aprendizaje con el llamado "deep learning", les falta la capacidad, totalmente humana, de evaluar las abundantes variables imprevistas o imprevisibles: el llamado discernimiento14.
II. Primeras reflexiones y perspectivas de investigación en el contexto jurídico italiano
La capacidad de procesar enormes cantidades de datos y conocimientos ha permitido la evolución de las herramientas de IA, capaces de utilizar, manipular y combinar mejor los big data15, que hoy en día representan la nueva frontera de aplicación de la IA, incluso en el ámbito del derecho16.
Además, no hay que subestimar las potencialidades de la formación de la base de datos de las decisiones a nivel nacional, proyecto en el cual está trabajando el CNF (Consejo Nacional de Abogados en Italia), partiendo del presupuesto de que la máxima disponibilidad de los datos es imprescindible para garantizar la uniformidad del derecho.
En la prospectiva de automatizar la decisión, existen en Italia muchas experiencias de ODR -online dispute resolution- destinadas a la creación de una nueva relación juez-partes y a la maximización del objetivo de adelantar conciliaciones, en las que la composición de los intereses se realiza por medio de algoritmos creados para la asignación de bienes más que de derechos.
La tecnología, por lo tanto, ha entrado plenamente en el amplio mundo de la justicia y ha demostrado resultados significativos, como contribuir a reducir las decisiones judiciales represadas en la jurisdicción civil italiana, en comparación con tiempos no lejanos.
Manteniéndonos en el marco de los dos motivos de investigación mencionados, en lo que se refiere a la rapidez de los procesos, inclinar la balanza hacia una decisión robótica resulta necesariamente condicionado, en el sentido de que es necesario constatar que la prestación robótica y aquella intelectual humana17 sean equivalentes a nivel cualitativo, sin perjudicar el principio de la tutela jurisdiccional plena y efectiva del ciudadano y de la empresa.
En lo que se refiere a los costes, no es seguro que los gastos relativos a la proyección, realización y mantenimiento de una estructura robótica se revelen menos dispendiosos que los del ordinario sistema judicial operado por seres humanos. Sería necesario realizar cálculos rigurosos antes de poder afirmar con seguridad que, desde el punto de vista económico, la opción robótica sea más conveniente que la opción humana18.
Es verdad que las decisiones robóticas pueden aportar importantes beneficios -no solo por su intrínseca capacidad para la racionalización del proceso de decisión, con elevados niveles de rapidez y eficiencia y con herramientas para la reducción de las desigualdades a través de la lucha contra los fraudes19-, pero también es verdad que, a partir de las evidencias empíricas existentes, las decisiones robóticas suelen "codificar" el pasado, capturando soluciones y predicciones en esquemas procedentes de acontecimientos históricos y de valores que han dirigido la programación del algoritmo en que se apoya el proceso decisorio20.
Por esta razón es necesario reducir al mínimo los riesgos de impacto negativo en los derechos civiles, sociales y políticos de las personas21. En esta perspectiva, es normal dudar tanto de la utilidad del desarrollo de algoritmos específicos de aprendizaje autónomo para encontrar y corregir la existencia de sesgos en la toma de decisiones (fairness formulas)22 como de la adopción de códigos de autorregulación de los sujetos implicados23. Dichas herramientas son útiles sin duda, pero se mueven en una lógica de autodisciplina que, por su propia naturaleza, está supeditada solo a aquellos vínculos que la cultura de los operadores pueda sugerir en un determinado momento histórico24.
Volviendo a la exigencia objetiva de certeza, con su "perfil de confiabilidad"25 por parte de los ciudadanos, tan relevante en los complejos ordenamientos contemporáneos, necesariamente debemos convenir en que una justicia "previsible" es de gran interés para los empresarios o, en general, para aquellas personas que quieren invertir su capital. Sin embargo, un derecho "calculable"26 -concebido como fundamento absoluto de seguridad jurídica, más aún en la actual realidad normativa compleja y globalizada- representa simplemente una aspiración -o poco más que eso-, que además no es nueva para la humanidad ya que esta la persigue desde hace al menos un par de siglos (por ejemplo con las codificaciones de principios del siglo XIX), o incluso dos milenios (si se consideran las monumentales obras de reorganización del derecho romano).
Entre múltiples autores cabe traer a colación a Leibniz, que ya en 1666 se proponía extender al dominio de la jurisdicción el ideal de la calculabilidad universal, que basaba su reflexión en la lógica. Él afirmaba que era necesario reducir el lenguaje a la simplicidad, para así poder calcular errores y razones (la llamada ars combinatoria), y expresaba su deseo de que "Las partes un día, frente a una disputa, podrán sentarse y realizar un cálculo"27, suponiendo así una calculabilidad que conllevaba plena previsibilidad: "Todas las cuestiones de derecho puro pueden definirse con certidumbre geométrica"28.
Partiendo del hecho de que distinguir entre robot e IA es difícil29, normalmente cuando hablamos de 'robot' nos referimos a la idea de "un conjunto de metal y plástico" que parece un ser humano o que es capaz de replicar las acciones humanas30, mientras que con 'inteligencia artificial'31 se hace referencia a la capacidad de la "máquina" de interactuar con el exterior "imitando" los procesos mentales humanos32.
Entonces, si lo que se pide a la máquina no es que realice lo que un sujeto ha decidido, sino que decida de forma autónoma, nos encontramos frente a una mutación tanto de la máquina como de la tecnología en la que se basa, que de "herramienta" pasa a ser "sujeto". Por esta razón se habla cada vez más de agentes humanos como sistemas tecnológicos automatizados proyectados para tomar decisiones o expresar evaluaciones por su propia cuenta33.
En este contexto es imprescindible identificar las pretensiones de iuris-dictio (id est: ejercer la función judicial, concepto diferente al de garantizar "justicia") tradicionalmente dirigidas a un juez-humano y que sería deseable que se exigieran a los robots con resultados al menos equivalentes a lo que legítimamente se podría pretender del primero34.
Por consiguiente, del juez robot no hay que pretender, legítimamente, la decisión "justa", sino la decisión "exacta", es decir, que aplique de forma correcta las fuentes pertinentes35, posiblemente al final de un proceso "justo", entendiendo con esto que respete los procedimientos previstos según el principio de legalidad.
III. La aspiración a la objetividad y la despersonalización de la función jurisdiccional
Si lo que acabamos de expresar resulta claro, existe una tercera razón que, más que las analizadas hasta ahora, podría ser argüida a favor de una justicia robótica, esto es, la "exactitud" de una decisión "objetiva", considerando que si un robot es capaz de realizar operaciones matemáticas extremamente complejas con una rapidez y una exactitud de manera mucho más precisa, neutra y rápida que los seres humanos, se espera que también esté a la altura de la tarea en caso de tener que proporcionar prestaciones judiciales36.
Dicha exigencia se coloca perfectamente en continuidad con la tendencia, que surgió entre finales del siglo XVIII y finales del siglo XIX y que duró más de un siglo, a una progresiva despersonalización de la figura del juez, cuya actividad resulta cualificada cada vez menos por sus virtudes individuales y mucho más por su profesionalidad; esto es, no por su sabiduría sino por su saber, no por sus dotes morales sino por las intelectuales. De hecho, hemos sido testigos de la transición del modelo de referencia, cuyos orígenes son muy antiguos, del juez-oráculo al juez-funcionario.
Como es notorio, se subsiguieron sensibilidades jurídico-filosóficas muy diferentes entre ellas (el realismo escandinavo, el americano37, la hermenéutica contemporánea, la doctrina de la pre-comprensión, el modelo analítico), pero a todas las acomunaba la tendencia a afirmar la insignificancia del texto de la disposición legislativa y a brindar atención a la "realidad" de la norma "creada" por el juez. No obstante, precisamente la automatización de la jurisdicción confiada al robot podría incluso acercar los dos "mundos distintos" (descritos por Kelsen38): el de la naturaleza, gobernado por el principio de causalidad, y el de la cultura, gobernado por normas sociales.
Para que esto pudiera ocurrir sería necesario pronosticar una exactitud matemática y la unidad del derecho para realizar, al menos de manera abstracta, una justicia mecánica delegada a los jueces robot. Sobre la base de la evolución sumariamente delineada, la justicia robótica parece, en el mejor de los casos, un "paradigma ideal-típico" que nace como reacción ante aquellas doctrinas de la interpretación que a menudo acabaron legitimando la arbitrariedad y el subjetivismo del juez.
Mientras tanto, aumentan las dudas sobre la factibilidad tout court de una robot-justice capaz de prescindir del factor humano, ya que renunciar al componente humano parece hoy en día una hipótesis remota39.
Más allá del debate aquí mencionado -que en el ordenamiento italiano puede conectarse con la "deseada" interpretación uniforme de la ley, relativa al artículo 65 del Decreto real 12 de 1941 sobre el ordenamiento judicial- subsisten fuertes dudas sobre la posibilidad de transformar cada decisión en modelos matemáticos, caracterizados por el automatismo de los algoritmos40.
Por otra parte, el mismo legislador, por ejemplo, sin querer vuelve inutilizable todo tipo de modelo matemático posible como demuestra, en el proceso declarativo sumario, el inciso que consagra que el juez "actuará de la forma que considere más adecuada" (art. 702 ter inc. 5 del código de procedimiento civil, c.p.c., italiano); a su vez, es un ejemplo el campo del derecho de familia. De hecho, cuando la ley le atribuye tan amplios poderes al juez, se precluye el empleo de modelos matemáticos. Por consiguiente, así como es cierto que la interpretación tiene que responder a exigencias de objetividad, también es importante que dicha interpretación tenga que considerar sus límites, establecidos por el mismo legislador que, en algunos casos, atribuye mayor discrecionalidad al intérprete41.
El Tribunal Constitucional italiano, por su parte, ha sostenido en diversas ocasiones que el juez no puede ser vinculado a presunciones absolutas, es decir, a automatismos respecto de la decisión42. En estos casos, y no solamente en el derecho penal, el juez no puede estar totalmente "vinculado" a ningún automatismo que le impida "personalizar" la decisión incluso yendo más allá de los esquemas pre-determinados43. Siguiendo esta misma línea lógica, en efecto, encontramos también la jurisprudencia administrativa44, que rechaza todo tipo de hipótesis de uso exclusivo de algoritmos en las decisiones administrativas.
Así pues, al menos en Italia, aún predomina la idea de que una decisión jurídicamente relevante que se base en un algoritmo, aunque el mismo esté bien estructurado en el marco de la predicción, resulta de todas formas en contraste con la teoría jurídica misma si su uso implica que no se puedan proporcionar razones lógicas comprensibles45, ya que estas serían interpretables solo por parte de los matemáticos46. La decisión de los robots garantiza sin duda un riguroso alineamiento al proceso de decisión, ya que este se basa en un algoritmo capaz de garantizar un mayor grado de exactitud. La máquina puede, por tanto, garantizar objetividad solo dentro de los límites de la precisión del proceso de decisión47, mientras que el resultado de la decisión sigue siendo subjetivo y estrictamente relacionado con los datos y los hechos del respectivo proceso48-49.
IV. Datos, hechos y decisiones de la robot-justice 50
A pesar de la crisis del trinomio hecho-norma-efecto (en italiano, la "crisi della fattispecie")51, la parte preponderante de la actividad del juez sigue siendo la subsunción del hecho en la norma o, dicho de otra manera, conectar la circunstancia concreta a la circunstancia abstracta. En ese orden de ideas, adquieren una importancia decisiva los hechos "comunicados" al juez (humano) y que representan el inevitable resultado de una selección de hechos relativos a la res iudicanda. Si el juez humano fuera reemplazado por el juez robot, los datos "digitalizados" introducidos en la "máquina pensante" no incluirían todos los datos disponibles, ya que se trataría de todas formas de los que se hayan considerado relevantes y que son accesibles en la dimensión que se suele denominar "datasphere"52.
La única diferencia entre el juez con inteligencia humana y el robótico dotado de IA sería, por tanto, que el primero adquiere los datos sobre la base de los hechos que se le han "representado", mientras que respecto del juez robot dichos datos se "introducen"; de esta manera, en ambos casos la "exactitud" de la decisión estará condicionada por la totalidad y la pertinencia de los datos que los terceros habrán proporcionado al juez, sea humano o sea un robot53.
Sin embargo, en uno y otro caso, si entre los infinitos datos y hechos se selecciona solamente una parte, entonces la exactitud de los cálculos útiles para la subsunción del hecho a la norma sigue igualmente dependiendo de un proceso cognitivo humano y, como tal, "falible"54.
Por consiguiente, la decisión robótica, al igual que la humana, estará sujeta a errores y las decisiones robóticas no podrán considerarse exactas ya que no existen máquinas infalibles55, no porque arrojen resultados basados en una lógica imperfecta de instrucciones proporcionadas a la máquina, sino por una introducción defectuosa o incompleta de datos erróneamente considerados relevantes56. Hay que tener en cuenta que cualquier máquina puede equivocarse.
La cuestión es diferente cuando el robot se presenta como alter ego del juez, ya que el primero ayuda al segundo a tomar conciencia de la manera en que está razonando y decidiendo, apoyándolo para una correcta toma de decisiones, con el fin de integrar, y no de reemplazar, su actuar lógico-jurídico57.
Si lo mencionado se considera aceptable, se podría entonces convenir en que la inmediata consecuencia sería que no se podría hablar de la seguridad del derecho y, en su lugar, lo que sería seguro es la falibilidad de la máquina que tuviera que desempeñar las funciones del juez en lugar del hombre.
Ciertamente se podría objetar que el juez robot resultaría de todas formas, desde diversos puntos de vista, más fiable que el ser humano, por lo que la solución de la jurisdicción robótica, aunque no perfecta, sería preferible58.
Si la decisión resultado de la IA depende no solo de lo que se ha descrito arriba sino también del algoritmo utilizado, que "consiste en una secuencia de instrucciones con la que el calculador elabora un proceso de cálculo"59, la decisión será entonces el resultado derivado del programador que creó el código de procesamiento de datos y de la mente que seleccionó los datos introducidos60.
Si trasladamos la decisión judicial del hombre al robot, esencialmente se traslada el poder de un hombre a otro hombre, no de un hombre a una máquina. Todo ello hasta cuando tengamos máquinas totalmente autónomas y que puedan reproducirse de forma autónoma61.
Si la subsunción de la circunstancia concreta en la circunstancia abstracta es una actividad silogística, no implica que también lo sea la reconstrucción de la circunstancia abstracta a través de la interpretación por parte de un juez, dotado de IA, aunque en realidad sería posible introducirle instrucciones en ese sentido62. De hecho, se trataría, incluso en este caso, de "enseñarle" al robot el uso de los criterios interpretativos que los juristas, dotados de la simple y falaz inteligencia humana, suelen utilizar63.
La interpretación mecánica del juez robot sería simplemente una interpretación matemática basada en datos y algoritmos elaborados por medio de una máquina64. Pero hay que considerar que, por muy claras que fueran las palabras consignadas en una ley, siempre es necesario relacionar las palabras del texto con el contexto65, siempre es útil conocer los antecedentes, siempre es importante tener en cuenta la realidad social del tiempo en el que estas palabras tienen que ser aplicadas, siempre hay que considerar la ratio de la norma. Así, por ejemplo, puede que diversas normas no se apliquen según un criterio estrictamente literal, porque el resultado sería absurdo o injusto. Dichos resultados se pueden evitar empleando precisamente los criterios de interpretación o criterios hermenéuticos, ya que -no hay que olvidarlo-la técnica hermenéutica (ἑρμηνευτική τέχνη) es el arte de explicar66.
V. La justicia predictiva
El recorrido de la toma de decisiones con la intervención de la IA se configura ante todo creando bases de datos que contengan el conjunto de normas; el archivo de la jurisprudencia sobre los precedentes; la predisposición de modelos de redacción judiciales; el uso de un lenguaje jurídico predeterminado y vinculado a nivel semántico; la sistematización, identificación e indexación de los contenidos argumentativos67. Esencialmente se trata de proyectar algoritmos finalizados a la identificación de soluciones sobre la base de precedentes judiciales y otros elementos, según un esquema matemático, con la introducción de pruebas y elementos factuales como input, y la decisión final como output68.
No está de más precisar que elegir racionalmente significa tener en cuenta todos los datos pasados con el fin de prever eventos futuros con cierto grado de "certeza", aunque sería mejor hablar de "probabilidad"69.
La posibilidad de predecir el futuro es un deseo que desde siempre ha sido connatural al hombre. De hecho, la ciencia misma tiene como fin buscar leyes y fórmulas capaces de explicar los acontecimientos del mundo para así poder preverlos.
Sin embargo, el comportamiento humano y su connatural capacidad de elegir no son elementos determinables con base en las mismas leyes con las que se comprenden los fenómenos físicos o químicos, ya que el hombre es un producto muy especial de la evolución del planeta Tierra llamado homo sapiens, que se destaca por ese peculiar elemento que lo autodetermina de manera imprevisible: la libertad. Por tanto el comportamiento del hombre no es solamente el producto de sus estímulos bioquímicos o neurofisiológicos, sino también el resultado de las condiciones socioeconómicas o ambientales en las que vive70.
Ya a mitad del siglo XX, con la emergente cibernética, Lee Loevinger, jurista estadounidense, hablando de Jurimetría71 esperaba poder valerse de las ventajas de las técnicas electrónicas para resolver los problemas jurídicos, básicamente intentando reproducir, por medio de un calculador, los mecanismos intelectuales típicos de la mente humana72, con el fin de alcanzar la previsión informatizada de los comportamientos en relación con la toma de decisiones por parte de los jueces73.
La exigencia de racionalizar la incertidumbre del futuro se traduce en la creación de una ciencia del razonamiento jurídico que va de la mano del antiguo sueño de predecir el futuro74. La "justicia predictiva" ha de entenderse como la posibilidad de prever el resultado de un juicio a través de algunos cálculos, en particular predecir la probable sentencia relativa a un caso específico, con el auxilio de algoritmos75.
Por un lado se trata, evidentemente, de un enfoque distinto del que suele denominarse "precedente judicial"76, por el otro, la llamada predictive coding, es decir, la justicia predictiva, está lejos de asimilarse al sistema de justicia al que hace referencia la famosa película Minority Report77.
La redefinición en términos racionales de la justicia "predictiva", así como la posibilidad de utilizar los métodos de la ciencia exacta en el ámbito jurídico para predecir eventos futuros, no puede dejar de relacionarse con el mito griego, específicamente con la diosa Diké, esto es "La Justicia" (que tenía que controlar las acciones de los hombres y sancionarlos por sus culpas)78, pero más aún con el culto de Apolo en el templo de Delfos que, como es sabido, al menos hasta la época clásica, inducía a los antiguos griegos a dirigirse a tal isla para consultar a Apolo, que contestaba por medio de las palabras de la sacerdotisa Pitia. Fue solo a partir de la época romana que la función jurídica se reservó a una severa y especial clase y sus respectivos expertos, los "juristas" (término que, como es notorio, procede del latín), cuyas tareas se separaron de la religión, la moral y la misma política, permitiendo así una identificación autónoma que consintió que tal actividad se connotara como técnica en las manos de los sabios79.
Sin duda alguna, cuando se habla de juez robot pareciera que se quisiera volver al modelo ideal de un "oráculo".
El uso del pasado para el futuro es un auxilio fundamental para la jurisdicción y también puede ayudar a los jueces en la inclusión de su decisión en el ámbito de los precedentes.
Ahora que fueron definidos los límites de la función jurisdiccional hipotéticamente asignada a la IA dotada de capacidad para emitir output en la forma de decisiones robóticas80, es necesario centrarnos en un aspecto que resulta cada vez más interesante en este campo: en lo que atañe a las exigencias de seguridad, como se especificó arriba, ciertamente hay que dudar de la existencia de máquinas infalibles.
Para incrementar el grado de seguridad de las decisiones es común que los expertos de la materia aseveren que es importante la posibilidad de instruir al juez robot introduciendo en su memoria todos los posibles "repertorios de jurisprudencia". De esta manera parecería posible contar con un dato objetivo e indiscutible, superando el ya citado subjetivismo que caracteriza tanto al juez humano como a la máquina proyectada para desempeñar las mismas funciones81.
Se ha discutido ampliamente acerca del orden y el peso de los criterios de interpretación como input necesarios para garantizar una mayor seguridad jurídica82.
Si bien es cierto que la restricción de la actividad interpretativa a modelos matemáticos podría llevar a consecuencias perjudiciales y, entre ellas, ante todo la prevalencia de un canon de interpretación estrictamente literal83, también hay que poner de relieve que, con una producción normativa tan policéntrica y reticular, a estas alturas el intérprete está obligado a reconstruir, mediar e inclusive identificar el correcto grado jerárquico y el grado de fuerza vinculante de la fuente, o la relación de prevalencia entre distintas fuentes en conflicto84.
Antes de continuar es preciso resaltar algunos límites estructurales de dicha hipótesis. El primer límite estaría representado por la delicada decisión sobre "cuándo" dejar de recoger datos. También sería difícil establecer cuándo la adquisición se haya completado, considerando que no se cuenta con una total digitalización de la inmensa producción jurídica, ni siquiera de las últimas décadas.
Existen otros límites85: 1) Si los repertorios comprendieran también la jurisprudencia anterior86, el robot dispondría de un bagaje tan completo cuanto "superado", determinando posibles conflictos de instrucciones (p. ej., la jurisprudencia pre-republicana o la del período fascista). 2) Hipotéticamente, si se introdujera también la voluminosa jurisprudencia contemporánea los costes irían más allá del más mínimo respeto del principio de economía. 3) Si no se encuentran decisiones nomofilácticas de la Corte de Casación, o si existen pronunciamientos que entran en conflicto (incluso entre decisiones de las Secciones Unidas), sería necesario establecer un criterio para resolver el contraste, ya que no se podría recurrir al simple criterio cronológico que se aplica en la sucesión de las fuentes. 4) Vincular el juez robot a la jurisprudencia consolidada impediría la evolución misma de las orientaciones jurisprudenciales; además el resultado sería no tener la posibilidad de considerar el cambio de las exigencias sociales y de la sensibilidad de la comunidad humana en cuestión, sometiendo al juez ya no solo a la ley (art. 101 Constitución italiana), sino a la jurisprudencia. 5) Todo ello sería incompatible con la lógica de los ordenamientos de derecho romano, en los cuales no puede valer el "vínculo del precedente"87. 6) Se menospreciaría notablemente el papel del abogado y del mismo arte del derecho, transmitido desde hace milenios en los actos y en la retórica forense88. 7) La motivación misma de la sentencia perdería su significado en la sentencia robótica, ya que el único motivo para que se efectuara sería garantizar su controlabilidad social o encontrar un posible error, ya sea informático o de ingeniería.
La respuesta no podría ser solo educar al juez robot para que adquiera las posiciones doctrinales y las praxis administrativas, ya que tendríamos otros problemas. De hecho, se trataría de establecer, al menos, qué peso atribuir a las tres distintas fuentes (jurisprudencia, doctrina, praxis) y entre las distintas praxis y doctrinas, incluyendo entre ellas las llamadas especulativas o más originales, que no representan una fuente de seguridad sino de dudas para considerar y solucionar.
Incluso en la literatura extranjera más apercibida, cuando se habla de riesgos concretos de la decisión robótica se tienen en cuenta, al menos, tres categorías de problemas: a) el carácter secreto o la inteligibilidad de la lógica que reside en el proceso de decisión, especialmente en el caso de los algoritmos de aprendizaje automático (problema de la black box)89; b) la aptitud discriminatoria del algoritmo90, y c) la humillación de la persona humana, objeto de decisiones totalmente automatizadas (problema de la dignidad)91.
Por lo tanto, si las decisiones robóticas no se controlan podrían consolidar las posiciones de privilegio, las desigualdades y las asimetrías que existen en una comunidad92.
Después de lo que se ha dicho sobre los riesgos y las críticas cabría preguntarnos, con el objeto de provocar una reacción, si sería posible que un robot, a través de su lógica binaria rígida, reconstruya una noción de "duda", "equidad" o "discrecionalidad" (como cuando se tiene que determinar una sanción entre un mínimo y un máximo), o si se quedaría en el mero nivel numérico-estadístico que, en todo caso, sería arbitrario93; sin considerar, además, las cláusulas generales94 y el uso de categorías e institutos que atañen a la conciencia social (p. ej., los conceptos de "moral pública" o de "diligencia del buen padre de familia")95.
Sin duda, hoy en día los robots (en cuanto máquinas inteligentes) pueden realizar con éxito una serie de actividades que requieren habilidades cognitivas que antes se consideraban demasiado difíciles de automatizar (p. ej., la IA aplicada a la conducción de vehículos)96. A la luz de lo que se ha dicho, la consideración más realista es que la justicia robótica no debería reemplazar la actividad del jurista, sino ponerse a su servicio en cuanto herramienta de trabajo.
Por lo tanto, el objetivo no debe ser limitar el razonamiento jurídico a una ecuación que, como se ha demostrado, dependería demasiado de las variables introducidas, por no mencionar más.
Desde esta perspectiva, el robot puede ser valioso, por ejemplo, para dirigir soluciones y para apoyar la fase de investigación en casos más sencillos y en aquellos basados en cálculos y evaluaciones de pronóstico. Pensemos en las llamadas cuestiones bagatelares o pequeñas causas (small claims), pero también en la determinación del daño en asuntos de responsabilidad civil (sobre todo en materia de circulación de vehículos) y el requerimiento de pago.
De hecho, se argumenta que la automatización del proceso de toma de decisiones, siempre y cuando esté bien elaborado, permite lograr ventajas significativas en términos de uniformidad, fiabilidad y capacidad de control de la decisión. Por lo tanto, la automatización parecería abstractamente alineada con los principios de eficiencia y economía de la acción judicial, respecto de procedimientos en serie basados en la presunción sobre la significativa probabilidad de un hecho determinado97.
Asimismo, la decisión del robot poco (o nada) procedería en el ámbito del derecho de familia y en asuntos relacionados con los derechos de las personas, tanto en materia de garantías procesales como de protección de los datos personales98.
En este sentido, no se puede pasar por alto el hecho de que un sistema basado en el respeto del precedente jurisprudencial favorece la consecución de la previsibilidad de las decisiones, corolario del principio de seguridad jurídica, en un plano de continuidad y coherencia99.
Los conceptos de "seguridad jurídica" y "previsibilidad" (jurisprudencial) no significan un cálculo aritmético. De hecho, tanto las decisiones puntuales como el "derecho" en general se pueden calcular en cuanto constituyen una mera aplicación de la ley, o bien, tras verificarse el hecho descrito por la ley también debe verificarse el efecto jurídico, según lo establecido por la respectiva norma100. Este enfoque, en realidad, revela una necesidad que, más que de las reales necesidades humanas, surge de la economía moderna101.
Por lo tanto, cabe admitir que la pérdida de seguridad jurídica, tantas veces señalada en la doctrina, se debe principalmente a la falta de una jerarquía segura de las fuentes y a la presencia de una pluralidad de sujetos que hoy desempeñan un papel normativo diferente, aunque se trate de niveles que se distinguen en nacional, supranacional, comunitario, jurisprudencial, convencional, etc. (desde autoridades reguladoras nacionales hasta organizaciones internacionales, desde organismos locales hasta el parlamento nacional y europeo)102. A lo anterior se suma un rol cada vez más importante de entidades privadas nacionales y "globalizadas", tanto individuales como colectivas, algunas de las cuales se pueden ubicar en el plano del llamado soft law103.
Imaginar una justicia ejercitada por un juez robot, en modo tal de proceder a la simple y "mecánica" aplicación de la ley general y abstracta a un caso concreto104, significaría dibujar una falsa representación de la realidad105. Por ende, tal simplificación excesiva106 suscita perplejidad, considerando los actuales desafíos que plantea el ejercicio de la función judicial en la sociedad contemporánea.
Ahora bien, conviene reflexionar sobre las implicaciones de la efectividad de la protección judicial107.
La actividad interpretativa, en cuanto ejercicio de la posibilidad de valorar, está naturalmente caracterizada por una cierta discrecionalidad108. Lo mismo ocurre cuando nos limitamos a identificar el significado -entre las varias opciones argumentables y plausibles- que se puede atribuir al texto, sin llegar a tomar parte en la formulación de la norma, teniendo en cuenta tanto el co-texto como el contexto109, e independientemente del enfoque subjetivo del intérprete110.
Adquiere relevancia, en este sentido, la crítica sobre la ampliación del ámbito de intervención de los jueces, con el riesgo de que estos últimos actúen como legum inventores111.
Así las cosas, el modo correcto de concebir la predictibilidad es la capacidad de previsibilidad de las decisiones en el marco de la seguridad jurídica112, no tanto como la "adquisición preventiva" de un resultado113, sino más bien como la "expectativa razonable". Por consiguiente, la posible sentencia emitida en cada caso específico no representa una especie de justicia anticipada, sino que en últimas constituiría un juicio de pronóstico basado en el razonable resultado de un proceso114.
Entonces, a la tecnología le corresponde ofrecer apoyo y ayuda para que los seres humanos tomen decisiones, sin llegar a reemplazarlos en un ámbito tan delicado como el ejercicio de la función judicial115. A fin de cuentas, el desafío se centra en solucionar algunos de los problemas planteados a través de las matemáticas, sin que esta ciencia se ponga en el lugar de quien juzga, sino que lo apoye116.
VI. Experiencias y modelos probabilísticos en el marco de la justicia robótica
Una experiencia muy exitosa en tiempos recientes es la plataforma holandesa llamada Rechtwijzer uit elkaar (guía legal sobre la separación), que brinda asistencia a las partes en el juicio de separación. A finales de 2016, más de mil parejas habían utilizado dicha plataforma117.
También hay modelos experimentales cuyo objetivo es desafiar las jurisdicciones consolidadas, como el algoritmo desarrollado para predecir las sentencias (más bien, para llegar a la misma decisión, basándose en la misma información) del Tribunal Europeo de Derechos Humanos, con un grado de precisión cercano al 80%118.
De hecho, están aumentando los estudios destinados a llegar a conclusiones similares a las de los tribunales formados por jueces humanos. Ejemplo de ello es la experiencia de los académicos estadounidenses que declaran haber predicho el 67% de las decisiones de los tribunales de bancarrota, a pesar de contar con muy poca información119; otros modelos experimentales han anticipado el 82% de las decisiones en materia de inmigración y asilo120.
Todos estos ejemplos muestran que es cada vez más sutil la frontera entre los algoritmos de apoyo al trabajo de los jueces y los que sugieren una decisión. Por tal razón, no obstante podamos convenir en que la idea de abandonarse a la justicia actuarial procedente de las nuevas tecnologías es preocupante, parece irracional negarse a considerar un fenómeno que amerita ser mayormente conocido y regulado121.
Vale la pena mencionar que en la vecina España, una multinacional que opera en el ámbito editorial jurídico promovió en tiempos recientes una herramienta de análisis jurisprudencial estadístico y predictivo122: "Jurimetría te ofrece respuestas a preguntas complejas, por ejemplo: [...] ¿Cuántas posibilidades de éxito tengo? ¿Cuál es la mejor manera de argumentar este caso concreto [...]?", asimismo, "Jurimetría le proporcionará indicadores, tendencias y pronósticos de los resultados de un caso jurídico concreto. Gracias al análisis y a la clasificación de millones de documentos, al extraer datos clave, como la parte vencedora en la parte resolutiva, la entidad de la condena, el tribunal, entre muchos otros, [...] obtendrás respuestas claras sobre la posibilidad de éxito de tu caso y la probable duración del juicio"123; hay que tener en cuenta el empleo de palabras como: "probable", "probabilidad", "posibilidad", "tendencias" y "pronósticos".
Esta experiencia es muy interesante en cuanto nos permite detectar que el empleo del adjetivo "predictivo" en la literatura es inapropiado, por las razones explicadas anteriormente, considerando que los modelos algorítmicos mencionados no predicen el futuro, pero sí ofrecen una serie de posibles resultados124.
Está claro que la evolución tecnológica que acabamos de describir está provocando una asimilación de facto entre los sistemas de common law y de civil law, acercando a este al primero125.
Merece la pena mencionar, a estas alturas, la decisión del Tribunal Constitucional francés (Conseil constitutionnel) n° 2018-765 del 12 de junio de 2018[126], que reconoció que la Administración Pública puede utilizar algoritmos, incluso en la adopción de decisiones que afectan a una persona solamente. Se especificó que cada vez que se confíe a un algoritmo la toma de una decisión es necesario establecer de antemano las reglas y los criterios que serán aplicados. Si esto se respeta, adoptando un mecanismo de control humano ex ante, no se podrá alegar que se trate de una renuncia de la administración al ejercicio de su poder regulador.
Con dicha premisa, el Tribunal ha identificado tres límites para el uso legítimo de algoritmos en las decisiones: (i) es necesario señalar expresamente si la decisión fue tomada en virtud de un algoritmo y, bajo solicitud de la parte interesada, la administración debe poder explicar las principales características del funcionamiento del respectivo algoritmo; (ii) el uso exclusivo de un algoritmo está prohibido si la decisión se refiere a datos personales sensibles, como el origen étnico; las creencias religiosas, políticas o filosóficas; la afiliación a sindicatos, así como otros datos relativos a la salud, datos genéticos o biométricos, o aquellos relacionados con la inclinación sexual de las personas; (iii) la posibilidad real de que el encargado del tratamiento de los datos pueda controlar el proceso de elaboración del algoritmo, para poder explicar a los destinatarios de las medidas, de manera detallada, clara e inteligible, que la decisión se tomó de conformidad con la ley127.
De lo dicho se deduce que, si estos principios se aplicaran también en el campo jurisdiccional, el resultado sería excluir la mayoría, o incluso todos los procesos penales. En asuntos administrativos, los juicios relacionados con los derechos de la personalidad y la ciudadanía sin duda quedarían fuera del conocimiento del algoritmo. En el contexto de la jurisdicción civil no podría someterse a la utilización del algoritmo una parte importante de los procedimientos de derecho familiar, laboral y sindical, de seguros y de indemnización por daños biológicos, aunque precisamente en estos casos tendría una utilidad indudable128.
Es interesante observar que el Tribunal Constitucional francés dictó unas condiciones tan restrictivas solo para los casos cuya decisión sea tomada exclusivamente por un algoritmo. Cabe resaltar este aspecto muy claramente, ya que si el algoritmo representa un instrumento de ayuda para la decisión del juez, los límites mencionados resultarían superados o, al menos, superables.
Más allá de cualquier legítima sospecha, las nuevas tecnologías de robots y algoritmos pueden proporcionar herramientas valiosas para optimizar el trabajo de abogados y jueces en la selección de la información necesaria para establecer estrategias de decisión129.
Siendo puntuales, ya existe un programa llamado Case Francia Alfa, desarrollado por estudiantes de Cambridge, que ha desafiado a 100 juristas procedentes de los mejores despachos de abogados a tomar decisiones en materia de indemnización de daños, en casos de seguros o de protección del crédito. De 775 casos, el programa acertó el resultado en un 88,6%, mientras que los juristas solamente lo hicieron en el 66,3%.
En tiempos más recientes se han experimentado el programa de algoritmos CoIn - Contract Intelligence, para interpretar acuerdos comerciales, y el sistema KIRA, para evaluar las cláusulas abusivas en los contratos. A partir de estas experiencias queda claro cómo los potenciales de aplicación involucran, teniendo en cuenta los límites expuestos, sectores muy diferentes (seguros, derechos humanos, contratos), pero igualmente caracterizados por una fase de previsión en la que resulta fundamental el estudio y el análisis de los antecedentes.
No es una casualidad que precisamente en Francia hayan surgido start-up que ofrecen las primeras soluciones para el cálculo probabilístico de las decisiones en el ámbito civil130. Son compañías que producen software y, en general, ofrecen servicios a otras empresas o despachos de abogados, aunque nada impide que el destinatario sea la administración de justicia, para proporcionar "ayuda" al trabajo del juez.
Por otro lado, es necesario recordar que la misma Francia ha modificado recientemente (con la Ley n.° 2018-493 del 20 de junio de 2018)131 el artículo 10 de la Ley Informatique et libertés de 1978, relativa a la informática, a los archivos y a las libertades, estableciendo los siguientes límites y principios132: a) Ninguna decisión judicial que implique una evaluación del comportamiento de una persona puede basarse en el procesamiento automatizado de datos personales destinados a evaluar ciertos aspectos de la personalidad del individuo. b) Toda decisión que produzca efectos legales con respecto a una persona y que esté basada en el procesamiento automatizado de datos personales debe necesariamente observar las condiciones establecidas por el artículo 22 del RGPD. c) Decisiones administrativas individuales basadas en el procesamiento automatizado de datos son admisibles, siempre que el procesamiento no se relacione con categorías particulares, como datos genéticos, de salud o sobre preferencias políticas, etc. d) Estas decisiones deben incluir la mención explícita del procesamiento automatizado; para estas decisiones, el responsable de los datos debe garantizar la plena comprensión del procesamiento algorítmico. e) Cualquier decisión por la cual la administración decida sobre un recurso administrativo no puede tomarse únicamente sobre la base de un procesamiento automatizado de datos personales133.
Sin rechazar la oportunidad de tales servicios tecnológicos a priori134, dada la delicadeza y la relevancia constitucional135 del impacto de la robótica en el sistema de "justicia" y considerando las funciones de garantía de la Administración Pública en general, la cuestión que razonablemente debe plantearse es si dichas actividades deberían quedar sujetas a un sistema de vigilancia pública "especializada" o, al menos, a estrictos requisitos de autorización.
El tema de la regulación normativa del fenómeno en cuestión no solo conlleva varios problemas, sino que además es blanco de las críticas de quienes temen limitar el rápido desarrollo tecnológico a través de normas demasiado estrictas, que podrían quedar obsoletas en poco tiempo.
Por lo tanto, parece fundamental desarrollar una infraestructura institucional eficaz, que incluya normas, remedios y procedimientos adecuados a los intereses en juego y que pueda garantizar un control adecuado sobre la adopción de decisiones robóticas.
El Parlamento Europeo, por su parte, aprobó una resolución que contiene recomendaciones específicas, insistiendo en la adopción de normas que regulen el fenómeno que se está analizando136. Se trata de la Resolución del 16 de febrero de 2017, titulada "Normas de Derecho civil sobre robótica''137, cuya lectura refleja la situación actual de la ley en materia de robótica y que, en todo caso, deberá atenerse a la preservación de algunos principios fundamentales como la protección de la seguridad y la salud humana, al igual que la integridad y la dignidad de las personas, el respeto de la vida privada, de la autodeterminación y el principio de no discriminación, además de la protección de datos personales138.
El asunto es que incluso cuando el algoritmo se pueda conocer y comprender, y aunque no represente el único fundamento de la decisión, puede ser discriminatorio en sí mismo139. Esto ocurre cuando el algoritmo predictivo se construye a partir de datos que son discriminatorios a priori, ya que un algoritmo reflejará siempre la calidad de los datos en los que se funda140.
Es por esto que la legislación de la Unión Europea, especialmente en asuntos financieros y bancarios, por un lado, ha fomentado el empleo de formas invasivas de creación de perfiles de clientes, con el fin de tomar decisiones basadas en la evaluación de la solvencia y del mérito crediticio141 (los llamados mecanismos de credit scoring para calcular la fiabilidad financiera en el marco de los procedimientos de financiación para particulares y empresas)142; y por el otro lado, ha requerido que los datos utilizados se caractericen por un alto grado de "calidad", al ser puntuales, exactos y detallados143.
Incluso la sucesiva Comunicación de la Comisión Europea del 25 de abril de 2018 sobre "Inteligencia artificial para Europa"144 se centra en poner la IA al servicio del hombre145. De hecho, tras definir la IA como un conjunto de "sistemas que manifiestan un comportamiento inteligente, pues son capaces de analizar su entorno y pasar a la acción -con cierto grado de autonomía- con el fin de alcanzar objetivos específicos"146, aclara que la Unión Europea tiene que garantizar un marco ético y jurídico que tutele los derechos y las libertades fundamentales de los ciudadanos en el plano económico y social y que respete los principios de transparencia y responsabilidad147.
Se podría mencionar, por último, la Carta Europea sobre el Uso Ético de la Inteligencia Artificial en los Sistemas Judiciales y su Entorno, aprobada en la sesión plenaria del 3 de diciembre de 2018 en Estrasburgo, por parte de la Comisión Europea para la Eficiencia de la Justicia (CEPEJ). La Carta proporciona directrices para que los operadores del derecho elaboren y apliquen tecnologías avanzadas en el ejercicio de la función judicial. Se mencionan especialmente la exigencia de tutela y garantía de los derechos fundamentales de la persona, la exclusión de soluciones y prácticas que induzcan a fenómenos discriminatorios y la adopción de criterios de transparencia y "equidad"148.
Conclusiones
El uso de algoritmos por parte de computadores particularmente avanzados no puede, por la naturaleza misma de la ciencia matemática subyacente, sustituirse a la sensibilidad, percepción y pensamiento humano, necesarios para la interpretación de la ley149.
Es menester concluir que los individuos no pueden y no deben ser sometidos a una decisión totalmente automatizada. No obstante, toda vez que el ordenamiento admitiera que así ocurriera, se tendrían que aplicar, como mínimo, algunas garantías sustanciales, como la reconsideración de la decisión robótica, a través de una participación humana directa; además, obviamente, de la constatación relativa a la conformidad del algoritmo a los requisitos de la ley150.
Ciertamente, no se puede negar que la confianza en la robot-justice, como se ha dicho al principio, se debe a la crisis por una grave incertidumbre que reina en detrimento de la sociedad y a la crisis de la doctrina de la interpretación e incluso de la jurisdicción misma.
Por consiguiente, es razonable pensar que la justicia robótica, en cuanto justicia predictiva, conlleva las mismas limitaciones de cualquier cálculo de probabilidades, con la diferencia de que una previsión no es lo mismo que una predicción151; por lo que, cuando exigimos que las decisiones judiciales sean previsibles, en realidad se manifiesta respecto del juez una pretensión de seguridad jurídica que, desde el punto de vista ontológico, no puede considerarse par a la infalibilidad matemática152.
Con respecto a la "justicia predictiva", hay que considerar además que cuanto más seguro y previsible sea el resultado de un posible juicio, más probable será también que se intente resolver el asunto sin acudir a los tribunales, en últimas recurriendo a procedimientos de justicia alternativos (ya sean Alternative Dispute Resolution - ADR u Online Dispute Resolution - ODR, en las formas contempladas por los diferentes sistemas jurídicos); ya que, cuando el resultado del juicio se considera probable, las partes razonablemente estarán más dispuestas a llegar a un acuerdo, ahorrando así tiempo y conteniendo los gastos153, de manera que discutan directamente el quantum y no el si [an] (que se da por sentado). Esto vale también para el arbitraje porque, al usar modelos matemáticos se puede reducir el riesgo de parcialidad a la vez que se gana mayor velocidad y transparencia.
Lo mejor sería, entonces, no referirse a la justicia predictiva en términos de previsión del futuro basada en fórmulas matemáticas (nuevas sustitutas de las antiguas fórmulas mágicas), sino como la previsión razonable de una decisión jurisdiccional a través de la correcta identificación e interacción de las variables interpretativas de los hechos y las normas. Esto sin la pretensión del supuesto de "seguridad jurídica", que no puede ni debe tener, sino con la claridad de que cuenta con las ventajas y las limitaciones que, en todo caso, no la vuelven mejor, comparada con los tradicionales procedimientos judiciales confiados a hombres y no a robots154. Vale la pena subrayar este aspecto en el sistema jurídico italiano, que ya expresamente prevé y disciplina la llamada "negociación robótica" en el artículo 1, inciso 495 de la Ley n.° 228/2012 (llamada Ley de Estabilidad de 2013)155.
Se señala también la reforma de 2016 que sustancialmente transformó el juicio civil de legitimidad, estableciendo que los precedentes que constituyen la jurisprudencia de la Corte de Casación tienen por ley una naturaleza vinculante, atendiendo lo dispuesto en el artículo 360 bis c.p.c. La Corte Suprema, en la Sección VI Civil, sentencia n.° 7155/2017, dio nueva relevancia a la inadmisibilidad prevista en el artículo 360 bis, con respecto a los casos del carácter manifiestamente fundado o infundado del recurso, al que hace referencia el artículo 375, numeral 5 c.p.c., por lo que se puede afirmar que el stare decisis ha sido acogido también en Italia156. Y esto, hay que decirlo, favorece el posible uso de la robótica aplicada a la justicia.
En el ámbito del derecho procesal civil por lo menos puede esperarse que la previsibilidad de un juicio produzca un efecto virtuoso respecto de la demanda de justicia, de manera que pueda reducir gradualmente los casos no fundados. Por otro lado, los magistrados podrían beneficiarse al ser colocados en las mejores condiciones para decidir con mayor conciencia en aquellos casos en los que asumirán la responsabilidad de un cambio en la jurisprudencia157.
En el momento actual, como se explicó, los numerosos riesgos y obstáculos que se encuentran en el camino hacia un sistema basado en la "predictividad" de las decisiones robóticas parecen prevalecer sobre los beneficios158. Sin embargo, los horizontes que aparecen gracias a las nuevas tecnologías, consideradas como herramientas de apoyo a la actividad del juez y sin que se sustituyan a él en la toma de la decisión (como en el caso del "juez automático" o "juez robot")159, confirman la centralidad del tema de la justicia predictiva o, más correctamente, de la previsibilidad, celeridad y eficiencia de las decisiones160. En el escenario, tal como se mencionó, permanecen las cuestiones relativas, por un lado, a la actividad jurisdiccional y, por otro, a la exigencia de seguridad jurídica161.
Aunque de hecho pareciera imposible que la predictividad se le asignara a un juez robot162, reviste gran interés la discusión aquí planteada sobre la posibilidad de mejorar la previsibilidad de las decisiones en la óptica de una jurisprudencia más uniforme y, por consiguiente, de una mayor seguridad jurídica163, gracias al auxilio de los robots y de los algoritmos164.
En el actual entorno jurídico y social, cada vez más se le pide al juez que configure las técnicas de protección apropiadas para la implementación efectiva de los intereses representados en el proceso, identificados a través de una reconstrucción general del sistema, y que prosiga seleccionando el remedio que está autorizado a seleccionar165. Dado que resolver estos problemas a través de la decisión elaborada por un algoritmo parece una inadecuada simplificación, se propone evitar la idea de la IA como respuesta a la lentitud y la opacidad del sistema de justicia166.
Viceversa, la IA puede ser una herramienta útil para conocer y gestionar las experiencias y las aplicaciones que los juristas ya han puesto en marcha en los ámbitos de interés167.
Además, el potencial derivado del uso de algoritmos predictivos debe aprovecharse aún más con el fin de garantizar el acceso a la justicia para todos168.
Por lo tanto, el problema ya no atañe a una innovación legislativa o a una revolución científica, sino a un enfoque cultural al tema de la justicia humana, ontológicamente diversa de la matemática, de la artificial y, por supuesto, de la "divina".
Alan Turing observó con precisión que "si se espera que una máquina sea infalible, entonces no puede ser también inteligente"169.