SUMARIO
Introducción. I. Big data, las correlaciones y la causalidad. II. Algunos daños causados por los RSA. III. La relación causal como presupuesto de la responsabilidad civil ante los perjuicios causados por los RSA. IV. Una visión prospectiva de la responsabilidad civil en el derecho de la alta tecnología. Conclusiones. Referencias
"La invención genera invención."
RALPH WALDO EMERSON (1830-1882)
"Los datos son la nueva ciencia. Big Data son las respuestas."
PAT GELSINGER
"Artificial Intelligence is whatever hasn't been done yet."
LARRY TESLER (1945-2020)
Introducción
Será decisivo para el progreso jurídico en esta era de big data atender a la regulación del derecho de la responsabilidad civil1 sobre el reconocimiento de los intereses jurídicos que serán afectados por un crecimiento exponencial de daños que hoy podrían ser localizados en el ámbito azaroso o imprevisible. Precisamente, aquí nos referimos a la relación de causalidad2 -que constituye uno de los presupuestos de la responsabilidad civil3- en los daños causados por la robótica y sistemas autónomos (RSA) que, en algunos supuestos, por su propio método de autoaprendizaje infinito, actúan de modo imprevisible haciendo -de ese modo- que en esos casos la relación causal sea inepta para asignar responsabilidad a los diseñadores, fabricantes, propietarios y operadores de los RSA.
Doctrina y jurisprudencia son unánimes en admitir que la relación de causalidad como presupuesto fundamental de la responsabilidad civil comprende dos aspectos: un elemento fáctico y un elemento normativo jurídico4. Así, se torna imprescindible dividir el juicio de constatación causal en dos fases: (1) la fijación del nexo causal en su primera secuencia tiene carácter indefectiblemente fáctico5 y, por lo general, se realiza según el criterio de la conditio sine qua non; (2) una vez explicada la causa del daño en sentido material o científico, es menester realizar un juicio de orden jurídico para establecer si el resultado dañoso causalmente imbricado a la conducta del demandado puede o no serle objetivamente imputado6.
La idea de que los hechos están determinados por las leyes de la naturaleza se halla fuera de la psique del hombre primitivo; que bajo un alto predominio del componente emocional no buscaba una explicación racional del suceder de los hechos; se conformaba con encontrar un responsable7.
En principio, el Derecho fracciona a la causalidad evitando el desfraccionamiento de la causalidad provocado por el azar. El fin de aquél se sustenta en fijar las normas en un contexto de certeza que evite la incertidumbre del azar8.
La noción de azar quizás pueda ser construida como ignorancia provocada de la causalidad (juegos de azar), imprevisto (casualidad) o inexistencia de la causalidad9. A veces se incluye la imposibilidad de evitar los sucesos. Es notorio que los juegos de azar constituyen en gran medida repartos sobre distribuciones de ignorancia pro-vocada10.
Según el Diccionario de la Real Academia Española, el azar consiste en "1. m. casualidad, caso fortuito"11. A su vez, casualidad significa "1. f. combinación de circunstancias que no se pueden prever ni evitar"12.
El azar es una casualidad presente, teóricamente, en diversos fenómenos que se caracterizan por causas complejas, no lineales y, sobre todo, que no parecen ser predictibles en todos sus detalles13.
La palabra "azar" viene del árabe zha'r (azahar, en castellano) término éste que designaba a una flor que se pintaba en una de las caras de los dados usados para jugar14. Sin embargo, a lo largo de los siglos la palabra ha sacrificado algo de su sentido lúdico para entrar a formar parte en muchas de las circunstancias de nuestra vida15.
Un mundo azaroso es inquietante, pues los eventos parecen ocurrir sin causa aparente. El azar nos resta comodidad, inteligibilidad y quietud. A lo largo de su historia, el hombre se da cuenta del poder del azar y de que su seguridad depende, en gran medida, de acontecimientos fortuitos de enorme gravedad que no puede controlar. Por ello, surge nuestro deseo de controlar al azar, de no sentirnos desamparados ante acontecimientos impredecibles; así la humanidad intenta controlar al azar:
(a) interpretando el azar; (b) rindiendo culto a los dioses de la buena suerte; (c) jugando con el azar; (d) calculando probabilidades y (e) rentabilizando el azar16. El azar no es controlado por el Derecho.
Los "cisnes negros" integran la categoría azar. El "cisne negro" es un suceso con tres atributos: rareza, impacto extremo e imprevisible (aunque es de predictividad retrospectiva). Tendemos a actuar como si no existiera. La lógica del "cisne negro" provoca que lo que no sabemos sea más importante que lo que conocemos. La incapacidad de predecir las rarezas implica la imposibilidad de predecir el curso de la historia, dada la incidencia de estos sucesos en la dinámica de los acontecimientos17. Con base en la imprevisibilidad de los "cisnes negros", tenemos que amoldarnos a su existencia. Resulta trascendente la búsqueda de "cisnes negros" a través de la serendipidad, llevando al máximo nuestra exposición a ellos, usando -a tal efecto- el método del ensayo y error18.
Por ello resulta necesario considerar la existencia de los "cisnes negros", que podrían generarse por los RSA, como potenciales daños de consecuencias catastróficas para la sociedad causados en el marco de la aceleración tecnológica imperante en la aldea global.
I. Big data, las correlaciones y la causalidad
Vivimos en una sociedad red donde nuestra vida queda reflejada en los datos volcados a la web, configurando también la sociedad transparente19. La pandemia que nos azota acelerará la revolución digital sobre la humanidad aumentada en este juego de la vida20 en la era de big data21.
Las predicciones constituyen un tema central de big data, ya que este versa sobre la aplicación matemática a cantidades enormes de datos con el fin de inferir probabilidades22. La apertura del futuro es constitutiva de la libertad de acción. Sin embargo, big data permite hacer pronósticos sobre el comportamiento humano. De este modo, el futuro se convierte en predecible y controlable.
La era de big data cambió la forma en que vivimos e interactuamos. La sociedad tendrá que abandonar parte de su obsesión por la causalidad a cambio de correlaciones simples: no saber por qué, sino solo qué. Esto revierte siglos de prácticas establecidas y desafía nuestra comprensión más básica de como tomar decisiones y comprender la realidad23-24.
En probabilidad y estadística, la correlación indica la fuerza y la dirección de una relación lineal y proporcionalidad entre dos variables estadísticas. Se considera que dos variables cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente con respecto a los valores homónimos de la otra: si tenemos dos variables (A y B) existe correlación entre ellas si al disminuir los valores de A lo hacen también los de B y viceversa. La correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad25.
En la era del small data todas nuestras herramientas digitales se basaron en la exactitud. En cambio, big data es desordenado, varía en calidad y se distribuye entre innumerables servidores en todo el mundo. A medida que aumenta la escala, también aumenta la cantidad de inexactitudes26.
Existen dos indicadores importantes de la aceleración tecnológica actual: (a) la ley de Moore, que afirma que las densidades de transistores en microchips se duplican cada dos años (ha sido exacta durante las últimas cuatro décadas y debería mantener la validez durante los próximos decenios) y (b) la ley de Kryder, que indica que el costo de almacenamiento por unidad de información se reduce a la mitad cada dos años27.
Las nuevas tecnologías del siglo XXI podrían invertir la revolución humanista, despojando a los humanos de su autoridad y confiriendo en cambio poderes a algoritmos no humanos.
Los algoritmos tienen las siguientes características:
Es definido como un conjunto finito y organizado de instrucciones, que debe satisfacer cierto conjunto de condiciones con la intención de proveer soluciones a un problema;
Debe ser capaz de ser escrito en un determinado lenguaje;
Es un procedimiento que es llevado a cabo paso a paso;
La acción de cada paso está estrictamente determinada por el algoritmo, la entrada de datos y los resultados obtenidos en pasos previos;
Cualesquiera que sean los datos de entrada, la ejecución del algoritmo debe terminar después de un número finito de pasos;
El comportamiento del algoritmo es físicamente instanciado durante la implementación en la computadora28.
Los algoritmos más avanzados, al ser interpretaciones matemáticas de los datos obtenidos, no explican la realidad subyacente que los produce. Los artefactos o robots, que funcionan por medio de los algoritmos, presentan cierto grado de autonomía en su funcionamiento, de impredecibilidad, y también cuentan con la capacidad de causar daño físico, lo que abre una nueva etapa en la interacción entre los seres humanos y la tecnología.
La ciencia de datos consiste en detectar patrones y predecir como una variable afectará a otra29. Científicos de datos, psicólogos y profesionales de otras ciencias, estudian nuestros comportamientos pasados para predecir nuestras conductas futuras.
Las computadoras cuánticas aumentarán la potencia computacional, ya que al basarse en cubits -uniendo 0 y 1-, a diferencia de las computadoras tradicionales que funcionan a través de los bits -leen los 0 y 1 por separado-, le brindarán al sistema de inteligencia artificial (IA) posibilidad de expansión y junto a las herramientas de aprendizaje automático lograrán una más alta capacidad predictiva de los algoritmos30.
La IA31 puede adoptar dos formas: la IA encarnada y la IA incorpórea32. También podemos clasificar las IA en dos categorías: la primera, que llamamos IA simbólica, consiste en algoritmos con un conjunto de instrucciones lógicas determinadas para producir sistemas expertos -entorno lógico con capacidad de gestionar una base de conocimientos propia, resolver problemas específicos, producir nuevos conocimientos y explicar su razonamiento- específicos. Estos algoritmos, auditables, hacen un razonamiento basado en hechos y reglas conocidos. La IA simbólica se sigue aplicando en algunos dominios pequeños (como la representación del conocimiento), pero la mayoría de las aplicaciones de IA en el siglo XXI no emplean símbolos legibles como sus objetos primarios33.
La segunda categoría, llamada IA conexionista, practica lo que se llama machine learning o aprendizaje automático34, que es un proceso que usa conceptos de múltiples materias, por ejemplo: estadística, modelado cerebral, modelado psicológico, teoría del control adaptativo, IA y modelos evolutivos. Un proceso importante de aprendizaje automático se denomina entrenamiento, donde la máquina se alimenta con datos sobre eventos pasados para que pueda anticipar eventos futuros35. Cuando estos datos de entrenamiento son supervisados, se llama aprendizaje automático supervisado. La información que se alimenta consiste esencialmente en ejemplos de entrenamiento. Estos ejemplos consisten en entradas y salidas deseadas36. A su vez, los algoritmos de aprendizaje por refuerzo definen modelos y funciones enfocadas en maximizar una medida de recompensa, basados en acciones y en el ambiente en el que el agente inteligente se desempeñará37-38.
Los algoritmos de aprendizaje automático aprenden y evolucionan según lo que las personas hacen en línea. Sería imposible para los humanos supervisar cada decisión que toma un algoritmo. Pero las empresas pueden ejecutar simulaciones regularmente para probar los resultados de sus algoritmos39.
Los RSA contienen IA conexionista. Ellos son herramientas interconectadas, interactivas, cognitivas y físicas, capaces de percibir de diversas formas sus entornos, razonar sobre los eventos, hacer o revisar planes y controlar sus acciones; realizan tareas útiles para nosotros en el mundo real, ampliando nuestras capacidades, aumentando nuestra productividad y reduciendo nuestros riesgos40. Los RSA carecen de creatividad; ello podría cambiar si los algoritmos comprendieran los sentimientos de los humanos41.
La autonomía42 de una máquina es su capacidad para realizar por sí misma una función. Ella tiene tres dimensiones: el tipo de tarea que realiza la máquina; la relación entre el humano y una máquina en la realización de la tarea; y la sofisticación de la decisión de la máquina al realizar la tarea. Estas dimensiones son independientes entre sí y las máquinas adquieren mayor autonomía cuando se incrementa cualquiera de esas dimensiones. A su vez, la máquina se transforma en más compleja y menos predecible cuanto menos necesita de la intervención humana43-44. En ese sentido, el autoaprendizaje infinito de la máquina limita el control que los humanos tienen sobre ella. Estas IA eventualmente parecen cajas negras45 y son cada vez más difíciles de auditar. Ellas reflejan la falta de transparencia y comprensibilidad que puede hacer que los procesos de toma de decisiones de IA sean impenetrables.
Estamos siendo partícipes de la incorporación gradual a nuestras vidas de los asistentes virtuales basados en IA, cuya misión es facilitar la vida cotidiana a las personas46-47. Los algoritmos de aprendizaje automático están ayudando a un diagnóstico más temprano y más preciso, apoyando la medicina preventiva y guiando las complejas decisiones de tratamiento48.
También observamos el crecimiento de sistemas de asistencia jurídica basados en aprendizaje automático. Los sistemas jurídicos pretenden situar la IA al servicio del Derecho49. Esto genera más tiempo para la creatividad del abogado50. Estas aplicaciones causarán modificaciones trascendentales en la profesión de abogado en el futuro. También, las correlaciones detectadas por los algoritmos en la era de big data pueden ser útiles en el fuero judicial como un paso previo que filtra información para luego investigar la causa adecuada como presupuesto de la responsabilidad civil51.
En el mundo se han creado empresas que prestan servicios jurídicos de IA que podríamos agrupar conforme a estas categorías: (a) Facturación + aplicaciones de tiempo, (b) Colaboración + Plataformas de datos legales, (c) Plataformas de contratación, (d) Seguridad de datos + Sistemas de riesgo, (e) Revisión de documentos, (f) Sistemas expertos + Bots legales, (g) Investigación legal + Análisis, (h) Contratos inteligentes, (i) Automatización de flujos de trabajo + Herramientas de transacción52-53
II. Algunos daños causados por los RSA
A continuación brindaremos algunos ejemplos de daños causados por los RSA.
Los vehículos autónomos son RSA; ellos se basan en un sistema de conducción automatizado como la tecnología instalada en un vehículo motorizado que tiene la capacidad de conducir el vehículo en modo de automatización alta o completa, sin supervisión de un operador humano, y que posee la capacidad de llevar automáticamente al vehículo a una condición de riesgo mínimo en caso de una falla crítica del vehículo o del sistema u otro evento de emergencia54. Existen algunos países con legislaciones de avanzada que adoptan en sus ordenamientos normativos algunas disposiciones relativas a los vehículos autónomos. Uno de los más desarrollados es Estados Unidos, que a lo largo de sus distintos estados acopia una gran cantidad de normas en la materia55. En 2018 se produjo la primera colisión provocada por un automóvil autónomo que causó la muerte de una mujer cuando cruzaba la calle en Tempe (Arizona); ello condujo a la suspensión de las pruebas automovilísticas autónomas por parte de Uber56.
Otra clase de daños causados por los RSA son aquellos que se basan en los "sistemas de armas matemáticas de destrucción" (SAMD), cuyos tres elementos distintivos son: opacidad, escala57 y daño. Los modelos matemáticos se basan en el pasado y en el supuesto de que los patrones se repetirán. Es necesario tener en cuenta la separación entre los modelos técnicos, las personas reales y sus repercusiones morales58. La escala es lo que convierte los SAMD en fuerzas que definen y delimitan nuestras vidas; si se le aplica el modelo bancario de un prestatario de alto riesgo, por ejemplo, el mundo lo calificará y lo tratará de ese modo. Cuando ese modelo escala, como lo vemos en el esquema crediticio, afecta toda la vida del individuo; por ejemplo, para adquisición de una vivienda, un automóvil, etc. Cuando se trata de escalar, el potencial para modelar la reincidencia continúa creciendo; los SAMD ya se usan en la mayoría de los estados de Estados Unidos. Ellos afectan a los más carenciados, pero también perjudican a la clase media. Sus víctimas, en su mayor parte, carecen de poder económico, acceso a abogados u organizaciones políticas para librar sus batallas. El resultado es un daño generalizado que -frecuentemente- se considera inevitable59. Los RSA son tan neutrales como los datos con los que están alimentados. Los algoritmos, al buscar y explotar patrones de datos, a veces pueden adoptar decisiones erróneas o sesgadas ya que, al igual que la toma de decisiones60 humanas, es a menudo una tarea inexacta. Como resultado, la decisión algorítmica puede afectar desproporcionadamente a ciertos grupos61. Cuando el sesgo o la subjetividad se infiltran en las entradas o inputs de un sistema o en las elecciones de su diseño, esto se refleja inevitablemente en las salidas u outputs del sistema. En consecuencia, los responsables de supervisar el despliegue de los RSA deben considerar la posibilidad de que las aplicaciones estén sesgadas algorítmicamente con el riesgo -consiguiente- de causación de daños de esta naturaleza sistémica a terceros62.
A su vez, en el sistema de la justicia penal algunas fuerzas policiales están usando algoritmos para el reconocimiento de imágenes faciales. Algunos programas de reconocimiento de imágenes tienen dificultades para reconocer y analizar rostros que no son de color claro. El software de seguimiento facial de Hewlett Packard no distinguió las caras de color oscuro como rostros63. A medida que se desarrolla la biometría -verbigracia, mediante sistemas de reconocimiento facial- debemos insistir en fortalecer los mecanismos que le impida seguir el camino recorrido por la frenología ya que aquélla tiene el potencial de dañar a los más vulnerables64.
Así mismo, los algoritmos también se están utilizando para detectar puntos críticos de delincuencia y para encontrar aquellas áreas más susceptibles de ilícitos penales. Por ejemplo, la Herramienta de Riesgo de Evaluación de Daños (HART) -uno de los primeros algoritmos usados por las fuerzas policiales en el Reino Unido- es un sistema de apoyo cuya utilidad recae sobre la predicción de la existencia de riesgo -bajo, moderado o alto- de la comisión de un delito penal por un sospechoso y sobre la determinación de las áreas donde exista mayor probabilidad de que acaezcan delitos. El modelo fue entrenado en más de cien mil eventos de custodia durante un período de cinco años en base a treinta y cuatro predictores diferentes (información sobre comportamiento criminal pasado, edad, género y código postal)65. La forma en que los diseñadores de estos algoritmos seleccionan los datos de entrenamiento puede ser susceptible a sesgos culturales, especialmente cuando se omite la diversidad de la población en los datos. Los diseñadores de algoritmos de aprendizaje automático pueden obtener datos de capacitación de terceros, como los intermediarios de datos, donde el acceso a la base original sobre la que se recopilaron los datos no está disponible. Además de los datos no representativos, los datos insuficientes también pueden causar daños por discriminación66. Precisamente para evitar esos daños, el algoritmo HART se modificó a raíz de la preocupación sobre la posible discriminación a las personas de los barrios más carenciados67.
En 2017, la Comisión Europea multó a Google por manipular sus algoritmos para perjudicar a su competencia en los servicios de comparación de compras en sus resultados de búsqueda y ubicar de modo destacado a su propio servicio de comparación de compras68.
En Inglaterra, la reciente controversia sobre el fallo de un algoritmo informático en el programa de detección de cáncer de seno del National Health Service (NHS) muestra tanto los beneficios como los riesgos de algunos algoritmos ya que el sistema permitió que se invitara automáticamente a una gran cantidad de mujeres a realizar la detección en el momento adecuado, pero se produjo un error dentro del sistema que provocó que las mujeres de entre 68 y 71 años -aproximadamente 450.000- no fueran invitadas a su examen de detección final de cáncer de seno entre 2009 y 201869.
Las máquinas de caja negra son responsables, en gran medida, de la colocación de anuncios en línea, usando sistemas comerciales complejos70 que intentan enviar el mensaje correcto a la persona adecuada en el momento oportuno por el precio más conveniente. Este proceso se denomina publicidad programática; ella ha sido en gran medida fraudulenta desde sus inicios71. Ella permite la compraventa de espacios publicitarios en medios digitales mediante plataformas y soluciones tecnológicas basadas en algoritmos de modo que a cada tipo de cliente se le muestra tan sólo anuncios de productos y servicios sobre los que tenga interés. Sin embargo, los cibercriminales han encontrado la fórmula para cometer fraude y conseguir que las empresas pierdan mucho dinero; así, una vez que ellos manipulan el sistema, las marcas pagan por anuncios que no se muestran en los lugares pactados. Por otra parte, los cibercriminales pueden mostrar sus anuncios en su lugar ofreciendo versiones piratas. Uno de los métodos fraudulentos más usados es el que utiliza una red de bots capaz de imitar la actividad humana72.
El caso de Cambridge Analytica constituye un paradigma del daño causado a la privacidad73 de los datos personales. La consultora Cambridge Analytica, fundada en 2013, está acusada de haber obtenido información de millones de usuarios de Facebook sin permiso, es decir, violando las políticas de uso de la red social. Con esos datos habría generado anuncios políticos dirigidos para favorecer la campaña presidencial de Trump, así como para beneficiar el Brexit del Reino Unido74.
III. La relación causal como presupuesto de la responsabilidad civil ante los perjuicios causados por los RSA
Formulamos las tesis siguientes para el desarrollo de este capítulo:
La causalidad constituye un presupuesto de la responsabilidad civil.
1. La tesis 1 debe ser definida por los encargados del funcionamiento normativo en base a las teorías de causalidad existentes75 teniendo en cuenta la tesis 2. El concepto filosófico de autoría de Mill que mencionamos76 es insuficiente para el campo jurídico77. "El Derecho toma en cuenta la conducta humana en sociedad en cuanto productora de daños, y sólo computa las condiciones físicas o naturales en tanto y en cuanto pueden modificar o excluir la atribución jurídica de un suceso a una persona concreta"78. La llamada 'causalidad jurídica' es un juicio de imputación en virtud del que el intérprete -siguiendo criterios predefinidos por las normas- eleva una o algunas de las condiciones de un resultado a la categoría de causa. Con este fin, en el mundo jurídico se han formulado diversas teorías, v. gr.: de la equivalencia de condiciones o conditio sine qua non, de la causa próxima, de la causa preponderante y de la causa eficiente, de la causa adecuada, etc.79. Por ejemplo: en la Argentina se aplican la teoría de la causa adecuada y la teoría de la previsibilidad. Así, el c.c.c.a usa la teoría de la causa adecuada para la determinación de dicha causalidad jurídica; según ella, "sólo puede considerarse jurídicamente 'causa' de un resultado aquel hecho que, de acuerdo a lo que suele suceder, en función de las reglas de la experiencia, produce normalmente aquel resultado"80. Además, la teoría de la relación causal adecuada permite determinar la extensión del resarcimiento, es decir, las consecuencias que deben ser resarcidas.81 A su vez, cuando la obligación incumplida surge de un contrato celebrado paritariamente, el artículo 1728 c.c.c.a. se aparta de la teoría de la causalidad adecuada, pues dispone que en tal caso el deudor únicamente responde por las consecuencias que hayan sido previstas o previsibles para las partes (y no para un hombre medio) al momento en que se celebró el contrato (y no al momento del incumplimiento), con la salvedad de los casos en que haya actuado con dolo.
2. El azar configura un límite del Derecho privado patrimonial al fin del reconocimiento de efectos jurídicos a terceros.
Pese al reconocimiento de la influencia del azar en algunas circunstancias del resarcimiento de daños y en los contratos que reconocen el azar provocado (contratos aleatorios), el derecho brinda certeza en dichos supuestos a través de la asignación de responsabilidad con base en el factor de atribución objetivo de responsabilidad82 y de la regulación legal de esos contratos, eliminado -así- la nota principal de impre-visibilidad en el otorgamiento de efectos jurídicos en la responsabilidad civil y en el derecho contractual, y refleja -de ese modo- la frontera que traza el derecho privado patrimonial excluyendo al azar de su contenido, ya que éste tutela los intereses jurídicos en un marco de previsibilidad83.
3. La relación de causalidad adecuada juega como una previsibilidad en abstracto. Ella presupone la previsibilidad según la normalidad de las consecuencias en sí mismas conforme al curso natural y ordinario de los acontecimientos (art. 1726 del Código Civil y Comercial de la Nación Argentina, c.c.c.a), ya que de ese modo resultan previsibles para cualquier hombre corriente84. Por consiguiente, se le considera una apreciación en abstracto ya que toma como parámetro al hombre medio.
4. La regla de la previsibilidad contractual y el factor de atribución culpabilidad se describen como una previsibilidad en concreto.
La culpabilidad pondera la previsibilidad en concreto de acuerdo con la especial situación del autor en el caso dado, es decir, como está descripto en el artículo 1724 del c.c.c.a, con ajuste a las circunstancias de las personas, del tiempo, del lugar y de la naturaleza de la obligación infringida85. A su vez, la regla de la previsibilidad contractual descripta en el desarrollo de la tesis 1 se basa en lo que las partes que celebraron el contrato pudieron prever en el caso concreto (apreciación en concreto).
5. En ciertos casos los RSA se comportan de modo imprevisible con base en su autonomía de decisión, o sea, su aptitud para efectuar por sí misma una función. La mayor autonomía se traduce en la superación de la instrumentalidad del RSA.
Como dijimos86, la relación entre la previsibilidad de la máquina y la intervención humana es directamente proporcional; es decir, la máquina es menos predeci-ble cuanto menos necesita de la participación del hombre. Así, el autoaprendizaje ilimitado de algunos RSA transforma a su sistema de funcionamiento en una caja negra que impulsa a ellos a causar daños en algunos casos imprevisibles para sus diseñadores, fabricantes, propietarios y operadores, ya que entre el hecho originario (la conducta del RSA) y el daño se interponen otro u otros hechos (las correlaciones efectuadas por los RSA a través del aprendizaje automático) que no son previsibles de acuerdo al curso normal de los acontecimientos.
La introducción de la IA y el uso de datos para el funcionamiento de las máquinas se hacen desde el diseño. Si bien el diseñador define el objetivo (función de recompensa) del algoritmo y puede ejercer cierto control sobre el entorno de su entrenamiento (que suele ser una simulación), la forma en que el algoritmo aprende y luego realiza una tarea después de la implementación es impredecible y a menudo conduce a soluciones imprevistas para la tarea. Especificar una función de recompensa adecuada puede ser difícil, y más aún para las tareas complejas, ya que la forma en que se formula el objetivo puede provocar que el algoritmo aprenda y funcione de modo imprevisto. Por ejemplo, un robot simulado de seis patas, al que se le dio la función de recompensa de caminar con contacto mínimo entre sus pies y el suelo, aprendió a voltearse y "caminar" sobre su espalda usando sus codos, de modo que logra moverse sin ningún contacto entre sus pies y el suelo87.
Programar la computadora para que actúe como una "red neuronal" consiste en un tipo de IA que se modela en el cerebro y que prometía ser mejor que los algoritmos estándar para hacer frente a situaciones complejas del mundo real. Desafortunadamente, tales redes también son tan opacas como el cerebro. En vez de almacenar lo que han aprendido en un bloque ordenado de memoria digital, difunden la información de un modo que es muy difícil de descifrar88. No sólo es difícil determinar por qué un sistema de IA alcanzó un resultado o una decisión dada, sino que, a raíz de cómo funciona el ecosistema de IA, puede ser imposible realizar ingeniería inversa en el proceso de toma de decisiones para conocer en qué datos se basó el sistema de IA. Este es el problema clásico de las cajas negras89.
6. Se requiere la creación de un fondo de garantía para reparar los daños sufridos por terceros causados por los RSA que sean imprevisibles para sus diseñadores, fabricantes, propietarios y operadores.
A. La imprevisibilidad como obstáculo para la procedencia de la relación causal como presupuesto de la responsabilidad
La previsibilidad es cualidad de previsible, es decir, todo aquello que puede ser previsto. Por el contrario, la probabilidad90 significa verosimilitud, apariencia de verdad o cualidad de probable, esto es, que puede suceder. Por otra parte, prever significa ver con anticipación, conocer o conjeturar por indicios o señales lo que ha de suceder, o disponer, preparar o ambos medios para futuras contingencias. A su vez, la previsibilidad requiere una valoración ex ante, a diferencia de la probabilidad, que se determina ex post.
La teoría de la causalidad adecuada (estructurada bajo un sistema de regularidad estadística) no puede menos que contentarse con una dosis suficiente de probabilidad. Sostener que la causa adecuada es aquella que aparece como probable es determinar la probabilidad en función de la previsión del sujeto91. La certeza absoluta, como criterio de apreciación valorativa de la causalidad que impone el "todo o nada", ciñó en aras de la probabilidad. La causalidad se rediseñó, entonces, en términos de probabilidad92. Por tanto, el juez puede fundar su decisión sobre los hechos que, aún sin estar establecidos de modo irrefutable, aparecen como más verosímiles; es decir, que presentan un grado de probabilidad predominante, suficiente, alta, cualificada, etcétera93. Por consiguiente, la probabilidad estadística es un elemento instrumental que podrá ser usado por el juzgador para alcanzar un juicio de probabilidad lógica o credibilidad racional 94. Por ello puede usarse el método estadístico, aunque de utilizarse sin elevada competencia puede conducir a falacias, no siempre perceptibles con facilidad. La evidencia estadística por sí misma, despojada del caso concreto, no puede constituir el plafón de una decisión, ni aún en un proceso civil; requiere necesariamente la presencia de pruebas vinculadas con el suceso específico95. En ese sentido, las correlaciones detectadas por los algoritmos en la era de big data pueden ser útiles en el fuero judicial como un paso previo que filtra información para luego investigar la causa adecuada como presupuesto de la responsabilidad civil96.
La idea de la previsibilidad se relaciona con el funcionamiento conjetural del derecho, que se caracteriza por contener la predicción de las conductas, no sólo para determinar la eficacia de las normas sino para precisar nuestras actitudes acerca de ellas y también para prevenir o modificar los hechos futuros97. En consecuencia, el funcionamiento conjetural trabaja dentro de los límites de la previsibilidad quedando fuera del campo aleatorio.
En sentido general, la conjetura es el "[...] juicio que se forma de las cosas o acaecimientos por indicios y observaciones". Todo nuestro conocimiento se nutre en gran medida de suposiciones en las que ponemos algo como realidad y la vida jurídica se apoya en ellas de manera permanente. La conjetura se diferencia de lo meramente posible, donde existe en mayor grado la conciencia de que puede o no realizarse. Contiene la afirmación, aunque no del todo cierta, de que algo acaecerá98-99. La conjetura es un mecanismo que promueve la transtemporalidad en el mundo jurídico donde el tiempo100 jurídico abarca todo el pasado, todo el presente y todo el porvenir, influyendo, así, unos momentos sobre otros y captados éstos por los protagonistas de otros.
En la responsabilidad objetiva, es la relación causal la que gobierna la obligación de resarcir, donde juega únicamente la previsibilidad típica de la tesis 3, que cumplirá su propio rol indiferente a que se prescinda de la culpabilidad; de ahí que entonces el metro del deber de resarcir sea la relación causal que el derecho señala como relevante en todos los hechos ilícitos, delitos y cuasidelitos, o sea que la responsabilidad objetiva sólo se extenderá por las consecuencias101.
No obstante, cuando la obligación incumplida surge de un contrato celebrado paritariamente, el artículo 1728 c.c.c.a se aparta de la teoría de la causalidad adecuada102, pues dispone que en tal caso el deudor únicamente responde por las consecuencias que hayan sido previstas o previsibles para las partes (y no para un hombre medio) al momento en que se celebró el contrato (y no al momento del incumplimiento), con la salvedad de los casos en que haya actuado con dolo.
Así, entre la causalidad adecuada descripta en la tesis 3 y la regla de la previsibilidad contractual contenida en la tesis 4 hay diferencias relevantes. En primer lugar, si bien ambas se fundan en lo que era previsible, como expresamos, la primera es una apreciación en abstracto y la segunda es una evaluación en concreto. En segundo término, la causalidad adecuada pone al intérprete -con el fin de determinar si era previsible o no determinada consecuencia- en el momento en que se produjo el hecho ilícito, mientras que en materia contractual se toma en cuenta lo que resultaba previsible para las partes al momento de celebrar el negocio103.
La regla de la previsibilidad determinada por los contratantes al momento de celebrar el negocio es primordial, pues, en caso contrario -esto es, si el magistrado fijara los alcances del deber de resarcir- las partes reaccionarían fijando precios más altos en cobertura de sus seguridades104.
Así mismo, como se señaló expresamente en los "Fundamentos del Anteproyecto de c.c.c.a", la regla de la previsibilidad contractual no es aplicable a los contratos de consumo, pues dicha limitación se asienta, justamente, en que las partes han podido negociar libremente los alcances y características de la relación contractual que las vincula, situación que no se presenta en el ámbito protectorio del consumidor105. En este último caso regirán las reglas establecidas en los arts. 1726 y 1727 c.c.c.a106.
Los desarrollos de investigación dentro del alcance de la IA son responsables de la creación de tecnología innovadora. La tecnología IA se basa en el aprendizaje automático que proporciona algoritmos con la capacidad de tomar sus propias decisiones y proporciona soluciones innovadoras e imprevistas, circunstancia que ampliará los peligros potenciales de confiar en aquélla107. Ante mayor autonomía existe mayor probabilidad que se torne imprevisible o azaroso el actuar para sus diseñadores, fabricantes, propietarios y operadores108. La capacidad de actuar físicamente sobre el mundo real se traduce, a su vez, en el potencial de dañar materialmente a las personas o a las cosas. Así, ante esa aptitud de aprender mediante la interacción con el entorno, un RSA podría llegar a adoptar comportamientos inicialmente no previstos por sus programadores109, aquellos descriptos en la tesis 5. Ante las situaciones que se pudieran dar como consecuencia de conductas inesperadas, ¿qué posición puede o debe adoptar el derecho? Muchos consideran adecuado restringir la capacidad de aprender de los robots hasta un límite de modo que sólo puedan aprender tareas ya contempladas en su programación. Esta postura se conoce como code as law110 - 111 Sostenemos que esta posición impide el progreso tecnológico, ya que obstaculiza el desarrollo de los RSA que -precisamente- evolucionan mediante el autoaprendizaje ilimitado.
A su vez, los RSA no gozan de personalidad jurídica112; por consiguiente, no son responsables, parcial o totalmente, de sus actos u omisiones. Por tanto, carecen de patrimonio y de la obligación de resarcir los daños causados por su accionar.
En el caso de la IA conexionista, la designación de un guardián de algoritmos carece de sentido ya que el ser humano no la controla; el programador crea la IA, que puede llegar a ser tan autónoma que su desarrollo ya no resulta del programa originalmente planeado conforme la tesis 5113. No es inusual que los algoritmos y los programas de software que controlan un robot se basen en kits de herramientas proporcionados como fuente abierta a la comunidad de robótica por un laboratorio de investigación o incluso por un proveedor. Las personas que programan un robot por medio de las rutinas proporcionadas por los juegos de herramientas de terceros no podrán demandar a esos laboratorios de investigaciones o proveedores por la responsabilidad del producto por lesiones, ya que el algoritmo que causó la lesión no fue el producto (en este caso, el robot físico) vendido por ellos114.
Las herramientas de la IA conexionista funcionan a través del sistema de correlaciones115, pero ello no significa que cuando lesionan intereses jurídicos de terceros no podamos analizar la tesis 1, en virtud de la exteriorización de su accionar, a través de la lesión a un interés jurídico.
La responsabilidad civil requiere que todos respondan por sus acciones. Sin embargo, resulta complejo determinar quién es responsable del daño causado por medio de la IA conexionista116, ya que a diferencia de la IA simbolista no hay un programador responsable del desarrollo continuo de la IA en virtud de la tesis 5. Así, en los casos de daños causados por los RSA de modo imprevisible no se configura el elemento de la questio iuris de la teoría de la causa adecuada y de la teoría de la pre-visibilidad; ellas consideran que para imponer a alguien la obligación de reparar el daño sufrido por otro no basta que el hecho haya sido, en el caso concreto, conditio sine qua non del daño (questio facti), sino que es necesario, además, que, en virtud de un juicio (hipotético-retrospectivo) de probabilidad, basado en las máximas de la experiencia, resulte una causa adecuada para ello (questio iuris).
B. Propuesta normativa para la tutela de las víctimas ante los daños causados por los dispositivos autónomos
"Los contornos actuales de la responsabilidad civil son la resultante de enormes cambios derivados de la estampida tecnológica; de su incidencia en el pensamiento de nuestros contemporáneos, que aspiran a la evitación del daño y, en su caso, a que les sea reparado"117. La orientación actual del derecho de la responsabilidad civil nos señala la existencia de una ampliación de los daños resarcibles, el aumento de la nómina de los factores de atribución, la objetivación de la responsabilidad civil, el ensanchamiento de la legitimación activa y pasiva de la acción indemnizatoria, el auge de la prevención y de la evitación de los daños, el proceso gradual de socialización de los daños y, como consecuencia, una mayor certeza de cobro de la indemnización118.
En Argentina, la actividad riesgosa -se la considera así en la medida que aumenta la posible ocurrencia de un daño- con base en el funcionamiento de la robótica cabe encuadrarla en la Ley de Defensa del Consumidor (l.d.c.) y en el c.c.c.a. En el ámbito europeo, aquélla está regida por la Directiva 85/374/CEE del Consejo de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos119.
Los daños que puedan causar robots sencillos y monofuncionales -por ejemplo, una aspiradora- no plantean novedades teóricas. Estos casos no caen bajo la órbita de la tesis 5, ya que esos dispositivos no funcionan basados en el sistema de correlaciones que en ciertos casos genera imprevisibilidad.
Sin embargo, el sistema jurídico argentino requiere la elaboración urgente de un sistema normativo que cubra las lagunas existentes con relación a los RSA ante los diversos dilemas que la robótica avanzada puede causar en el derecho de la responsabilidad civil120, entre ellos los casos de los daños provocados por los RSA que se califican como imprevisibles por el funcionamiento de estos dispositivos.
El Parlamento Europeo, por medio de la resolución de 2017 acerca de las "recomendaciones destinadas a la Comisión sobre normas de Derecho Civil sobre robótica" (2015/2103), ha establecido unas premisas básicas planteadas por Isaac Asimov a mediados del siglo pasado: "1.a Un robot no hará daño a un ser humano ni permitirá que, por inacción, éste sufra daño. 2.a Un robot obedecerá las órdenes que reciba de un ser humano, a no ser que las órdenes entren en conflicto con la primera ley. 3.a Un robot protegerá su propia existencia en la medida en que dicha protección no entre en conflicto con las leyes primera y segunda". Estas leyes se resumen en una denominada 0: "Un robot no hará daño a la humanidad ni permitirá que, por inacción, ésta sufra daño"121.
Las premisas de Asimov nos sirven como principios valorativos que deben integrarse al sistema de la responsabilidad civil con el objetivo de lograr el progreso de esta rama del derecho civil dentro de un ordenamiento normativo que se funde en los valores justicia y humanidad122.
A su vez, dicha resolución en su artículo 59 pide a la Comisión que cuando realice una evaluación de impacto de su futuro instrumento legislativo explore, analice y considere las implicaciones de todas las posibles soluciones jurídicas, tales como:
establecer un régimen de seguro obligatorio en los casos en que sea pertinente y necesario para categorías específicas de robots, similar al existente para los automóviles, en el que los fabricantes o los propietarios de robots estarían obligados a suscribir un contrato de seguro por los posibles daños y perjuicios causados por sus robots.
establecer un fondo de compensación que no sólo garantice la reparación de los daños o perjuicios causados por un robot ante la ausencia de un seguro;
permitir que el fabricante, el programador, el propietario o el usuario puedan beneficiarse de un régimen de responsabilidad limitada si contribuyen a un fondo de compensación o bien si suscriben conjuntamente un seguro que garantice la compensación de daños o perjuicios causados por un robot;
decidir si conviene crear un fondo general para todos los robots autónomos inteligentes o crear un fondo individual para cada categoría de robot, así como la elección entre un canon único al introducir el robot en el mercado o pagos periódicos durante la vida del robot;
crear un número de matrícula individual que figure en un registro específico de la Unión que asegure la asociación entre el robot y el fondo del que depende y que permita que cualquier persona que interactúe con el robot esté al corriente de la naturaleza del fondo, los límites de su responsabilidad en caso de daños materiales, los nombres y las funciones de los participantes y otros datos pertinentes;
crear a largo plazo una personalidad jurídica específica para los robots, de forma que como mínimo los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar, y posiblemente aplicar la personalidad electrónica a aquellos supuestos en los que los robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente123.
Por consiguiente, en la misma línea que las recomendaciones europeas mencionadas, en la Argentina -en principio- resulta necesario sancionar una norma que prescriba la contratación de un seguro obligatorio por responsabilidad civil para que aquellos que colocan los RSA en el mercado respondan dentro del marco de actuación previsible de ella124. De este modo, el empresario podría neutralizar el alea del daño mediante el seguro; la asunción del riesgo por el seguro contenido en el costo de la producción es, a su vez, distribuido entre el público125.
Luego, consideramos que también debe crearse el aserto de la tesis 6 administrado por el Estado constituido por los aportes de las empresas que colocan los RSA en el mercado, y de aquéllas que tienen su dirección, control y uso, que será útil para adjudicarle una suma monetaria a la víctima de los perjuicios sufridos por eventos dañosos producidos en virtud de lo mencionado en la tesis 5, precisamente cuando la tesis 2 impide la asignación correspondiente de responsabilidad civil.
De este modo, proponemos que en el caso de que el funcionamiento del RSA sea normal se apliquen las tesis 3 y la regla de previsibilidad contractual prevista en la tesis 4 -aunque, como dijimos, ella resulta inaplicable a los contratos de consumo-en un marco de responsabilidad objetiva, pero no así en el caso de que exista un daño provocado en el supuesto de la tesis 5, es decir, que ha sido imprevisible para el diseñador, fabricante, propietario y operador, en virtud del accionar del RSA con base en correlaciones ya que éstas impiden que las teorías descriptas por las tesis 3 y 4 actúen como las designadas por la tesis 1; por consiguiente, en este último caso, se efectivizará la tesis 6 en virtud de la imposibilidad de asignación de responsabilidad a aquellos.
Por el contrario, si se aplicaran las tesis 3 y la previsibilidad contractual expuesta en la tesis 4 a todos los eventos dañosos causados por los RSA sería consagrar una ficción que excedería el límite precisado en la tesis 2, ya que el sistema de correlaciones supera el confín de la previsibilidad de los diseñadores, fabricantes, propietarios y operadores de dichas herramientas tecnológicas autónomas, es decir, les impide la previsión adecuada de las acciones futuras de los RSA.
Cuando se produzca un daño causado por los RSA de modo imprevisible para los diseñadores, fabricantes, propietarios y operadores, ellos podrán alegar caso fortuito -causal de eximición de responsabilidad (art. 1730 c.c.c.a)- ya que el RSA funciona a través de correlaciones126; por consiguiente, en ese caso se configura un hecho imprevisible, ajeno a los presuntos responsables, que se constituye en la verdadera causa adecuada del daño y desplaza a la conducta del agente. Decimos que el evento es ajeno a los diseñadores, fabricantes, propietarios y operadores, ya que ellos no están en condiciones de controlar totalmente a los RSA127; éstos son producto de un sistema complejo que se rige por variables imposibles de ser previstas y controladas en su totalidad por el humano. En tal supuesto, el sindicado como responsable se eximirá de responsabilidad128.
La causa de exoneración constituida por el riesgo de desarrollo -vigente en Eu-ropa129- no resulta aplicable a los RSA130, ya que no nos referimos a defectos de los productos desconocidos por la ciencia en un momento determinado, sino que la autonomía de dichos mecanismos genera -por medio del sistema de correlaciones-conductas dañosas imprevisibles para la mente humana; por tanto, aquí nos ubicamos dentro del ámbito de la tesis 2.
Así, atento a la imposibilidad de prever para impedir las consecuencias negativas provocadas en el marco de la tesis 2 se afirma la tesis 6; de este modo se promueve el bien común131 a través del progreso de la IA con los beneficios científicos y sociales que trae aparejado y también se tutela a los damnificados por medio de un resarcimiento subsidiario en caso de la tesis 5132-133. La tesis 6 podría contribuir a atenuar el impacto de los "cisnes negros134" provocados por los RSA. En este sentido, imaginemos eventos raros, imprevisibles y de impacto extremo que podrían acaecer a raíz de RSA dedicados a la coordinación de los sistemas aeroportuario y financiero.
En consecuencia, se fija la garantía establecida en la tesis 6 en el caso de daños causados en el marco de la tesis 5 ya que son insuficientes las tesis 3 y 4 para actuar como la tesis 1 en virtud de la tesis 2.
IV. Una visión prospectiva de la responsabilidad civil en el derecho de la alta tecnología
Surge una doble preocupación jurídica junto con el entusiasmo por las promesas de este campo emergente de la tecnología: por una parte, la erosión de valores fundamentales como la dignidad, la autonomía, la privacidad135 y la no discriminación136, que podrían verse socavados por dichos desarrollos, y la amenaza de que la tecnología se convierta en una vía para transformar a las personas en menos humanas y más pasivas, con una autonomía reducida, con una dependencia creciente y una pérdida de la capacidad de iniciativa con una eventual situación de subordinación irreversible que pueda expropiar la libertad y la humanidad misma137. Por otra parte, el derecho tiene que garantizar la seguridad de los productos disponibles en el mercado y las consiguientes garantías para los consumidores, incluyendo normas adecuadas para la asignación de responsabilidad en caso de daños.
Otorgarle cierto grado de inteligencia a un robot nos hace reflexionar sobre nuestra propia inteligencia y sobre los mecanismos de aprendizaje que operan en nuestro cerebro. Pensar en la creación de robots es un ejercicio de comprensión de nuestras capacidades. O tal vez, mitigar nuestra soledad, como en el caso del mito de Pigmalión138.
Durante la próxima década crecerán exponencialmente los sistemas de IA. El derecho deberá adaptarse para crear un sistema de responsabilidad civil que determine más personas jurídicas asegurables. También, los sistemas de certificación y los mecanismos de mercado podrían impulsar a los fabricantes a desarrollar sistemas de IA cada vez más confiables.
En algunas áreas de experiencia avanzada, el rendimiento de la IA ha superado al de los humanos y se espera que esta aceleración continúe. El derecho tendrá que adaptarse encontrando el equilibrio correcto entre la creación de una personalidad responsable y por tanto asegurable, la distribución de la responsabilidad entre los diferentes actores caso por caso y la mutualización de los riesgos importantes139.
Es necesario disponer de una serie de normas en materia de responsabilidad, transparencia y rendición de cuentas que reflejen los valores humanistas; que esas normas no deben afectar al proceso de investigación, innovación y desarrollo en el ámbito de la robótica140.
La rama del derecho de la alta tecnología requiere una actualización continua; en primer lugar, ella tiene que abordar los efectos secundarios inesperados que las intervenciones regulatorias destinadas a salvaguardar determinados derechos puedan tener sobre otros; en segundo lugar, aquella rama debe mantenerse alerta ante la necesidad actualizar, ampliar o cambiar el marco a la luz de los cambios en la sociedad y de los sistemas de valores que se producen a través del proceso de conformación mutua de tecnologías, procesos sociales y perspectivas normativas141.
El derecho es entrópico142, ya que tiende siempre hacia el desorden y los actos y hechos jurídicos funcionan como el calor que lo dinamiza. Esto condiciona la flecha del tiempo jurídico. Ello potencia la aparición de carencias históricas en virtud de circunstancias novedosas con base en la prospectiva biotecnológica de la sociedad.
Así como para que exista evolución un organismo debe ser capaz de generar variación genética -la mutación es uno de los mecanismos para ello143-, también el derecho evoluciona a través de mutaciones. La jurisprudencia, creando repartos descriptos en normas individuales, muta o transforma otros repartos reflejados en normas generales -legales o jurisprudenciales-, conforme a la tradición jurídica vigente en una nación. Esta característica del derecho promueve su entropía.
En nombre del principio básico tradicional ubi societas ibi ius, el derecho es siempre más lento y se adapta con dificultad a las novedades, incluso más cuando ellas crecen y se desarrollan siguiendo el principio de singularidad tecnológica, es decir, con una aceleración más allá de cualquier capacidad comprensible de anticipación humana144. Parece necesaria una aproximación global e interdisciplinaria, ya que no es suficiente la visión limitada de las estrechas categorías del Derecho para regular fenómenos innovadores145.
Conclusiones
Las consecuencias sociales y ambientales no están predeterminadas por la tecnología. Todo depende del modo en que se gestione la inevitable transición tecnológica146; por tanto, la gestión de dicha transición y la actualización del Derecho es esencial para preservar los derechos humanos. Los RSA constituyen dispositivos que en un futuro cercano invadirán todos los ámbitos del escenario social.
Así, resulta necesaria la creación de un sistema normativo argentino que se adelante al auge mencionado previniendo la aparición de lesiones causadas por los RSA que quedarán sin resarcir con base en las lagunas normativas sobre la materia. A tal efecto, proponemos la contratación de un seguro obligatorio por responsabilidad civil para que aquellos que ponen los RSA en el mercado gocen de cobertura ante los siniestros causados por estos dispositivos tecnológicos dentro del marco de su actuación previsible para sus diseñadores, fabricantes, propietarios y operadores. Así mismo, recomendamos la creación de un fondo de garantía que debería ser administrado por el Estado y formado por las contribuciones de las organizaciones empresariales que colocan los RSA en el mercado, y de aquellas que tienen su dirección, control y uso, que será útil para adjudicarle un monto a la víctima por los perjuicios causados por los RSA cuando ellos actúan de modo imprevisible -en virtud de su decisión autónoma- para sus diseñadores, fabricantes, propietarios y operadores, ya que esos eventos quedarían encuadrados en el azar que opera como un límite para el derecho privado patrimonial; marginando -de ese modo- a la causalidad como presupuesto para asignar responsabilidad civil por los daños causados de modo imprevisible por los RSA.
Las propuestas descriptas en el párrafo previo tienen como fin no entorpecer el desarrollo de la robótica, promoviendo -de ese modo- el progreso tecnológico que beneficie al ser humano, otorgando herramientas que lo liberen de tareas rutinarias y expandan su esfera de libertad para desarrollar su creatividad, tutelando así su persona y su patrimonio en un régimen que tenga a la justicia -que es como una roca situada en la cima de un monte147- como su valor absoluto.