Doctrina
Título:La Responsabilidad Civil derivada del uso de la Inteligencia Artificial y su Aseguramiento
Autor:Tapia Hermida, Alberto J.
País:
España
Publicación:Revista Ibero-Latinoamericana de Seguros - Volumen 30 - Número 54
Fecha:04-06-2021 Cita:IJ-MCCCLXXVII-213
DOI:https://doi.org/10.11144/Javeriana.ris54.rcdu
Índice
Sumarios

Este estudio comienza exponiendo el incremento recíproco de la responsabilidad civil derivada del uso de la inteligencia artificial y su aseguramiento y los riesgos patrimoniales típicos derivados del uso de la inteligencia artificial. En su segunda parte, examina los diferentes aspectos de la responsabilidad civil derivada del uso de la inteligencia artificial: sus presupuestos y principios sobre la base de la Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a la responsabilidad civil por el funcionamiento de los sistemas de inteligencia artificial y los requisitos necesarios para reclamar la responsabilidad civil derivada del uso de la inteligencia artificial. En su parte tercera, el estudio analiza el aseguramiento de la responsabilidad civil de los operadores de sistemas de inteligencia artificial exponiendo sus características, las partes del contrato de seguro, la delimitación sustancial del riesgo cubierto por referencia a los sistemas de inteligencia artificial y otros aspectos relevantes. El estudio acaba ofreciendo las conclusiones que se deducen de su contenido.


Palabras Claves:


Responsabilidad civil, inteligencia artificial, sistemas de inteligencia artificial, riesgos típicos, cobertura, seguro, Propuesta de Reglamento.


This study begins by exposing the reciprocal increase in civil liability derived from the use of artificial intelligence and its insurance and the typical patrimonial risks derived from the use of artificial intelligence. In its second part, it examines the different aspects of civil liability derived from the use of artificial intelligence: its assumptions and principles based on the Proposal for a Regulation of the European Parliament and of the Council on civil liability for the operation of systems of artificial intelligence and the necessary requirements to claim civil liability derived from the use of artificial intelligence. In its third part, the study analyzes the assurance of civil liability of the operators of artificial intelligence systems, exposing their characteristics, the parties to the insurance contract, the substantial delimitation of the risk covered by reference to artificial intelligence systems and other aspects relevant. The study ends up offering the conclusions that are deduced from its content


Keywords:


Civil liability, artificial intelligence, artificial intelligence systems, typical risks, coverage, insurance, Proposal for a Regulation.


Presentación
I. Introducción: Del incremento recíproco de la Responsabilidad Civil derivada del uso de la Inteligencia Artificial y su Aseguramiento
II. La Responsabilidad Civil derivada del uso de la Inteligencia Artificial
III. El aseguramiento de la Responsabilidad Civil de los operadores de Sistemas de Inteligencia Artificial
IV. Conclusiones
Notas

La Responsabilidad Civil derivada del uso de la Inteligencia Artificial y su Aseguramiento*

Alberto J. Tapia Hermida**

Presentación [arriba] 

Una vez más me veo gratamente obligado a comenzar este estudio -en un hábito que comienza a convertirse en costumbre gozosa- con unas brevísimas palabras de agradecimiento -en la persona del prestigioso profesor y muy querido amigo de quien suscribe, Carlos Ignacio Jaramillo- la hospitalidad editorial que me brinda, una vez más, esta Revista Iberolatinoamericana de Seguros, en cuyos números previos he tenido el honor de publicar algunos estudios. Una vez más, regreso al abrigo de la Pontificia Universidad Javeriana de Colombia para ofrecer este nuevo estudio sobre “La responsabilidad civil derivada del uso de la inteligencia artificial y su aseguramiento” elaborado sobre la base de la regulación en la Unión Europea y en España con la seguridad y con el deseo de que resulte útil a los países hermanos de Iberoamérica y compense, de este modo, a este nuevo y manifiesto abuso de la amistad de Carlos Ignacio Jaramillo que públicamente confieso.

I. Introducción: Del incremento recíproco de la Responsabilidad Civil derivada del uso de la Inteligencia Artificial y su Aseguramiento [arriba] 

1. La interferencia recíproca de la Evolución de la Responsabilidad Civil por el uso de la Inteligencia Artificial y su Aseguramiento

La Inteligencia Artificial (IA) fue definida genéricamente, en 1956, por J. McCarthy, como “la ciencia e ingeniería de hacer máquinas que se comporten de una forma que llamaríamos inteligente si el humano tuviese ese comportamiento”[1]. En fechas recientes, la Comisión Europea ha precisado la definición de la Inteligencia Artificial como “un sistema basado en programas informáticos o incorporado en dispositivos físicos que manifiesta un comportamiento inteligente al ser capaz, entre otras cosas, de recopilar y tratar datos, analizar e interpretar su entorno y pasar a la acción, con cierto grado de autonomía, con el fin de alcanzar objetivos específicos”[2]. La noción europea más precisa es la alcanzada por el Grupo de expertos de alto nivel de la Comisión Europea que define los sistemas de inteligencia artificial (IA) como “programas informáticos (y posiblemente también equipos informáticos) diseñados por seres humanos que, dado un objetivo complejo, actúan en la dimensión física o digital mediante la percepción de su entorno mediante la adquisición de datos, la interpretación de los datos estructurados o no estructurados, el razonamiento sobre el conocimiento o el tratamiento de la información, fruto de estos datos y la decisión de las mejores acciones que se llevarán a cabo para alcanzar el objetivo fijado”[3].

De lo anterior podemos inferir que las definiciones de la IA son futo de la acumulación -mas o menos desordenada- de los siguientes factores lógicos, físicos y matemáticos: los sistemas, los programas, los algoritmos, los objetivos definidos y las capacidades de corrección o autoaprendizaje; amén de una semejanza inicial con la inteligencia natural del ser humano.

Una vez establecida la noción europea de la Inteligencia Artificial, conviene dar comienzo a este Estudio constatando que, en el ámbito de la responsabilidad civil derivada del uso de la inteligencia artificial y de su seguro, se observa una tendencia que –como una auténtica “ley de hierro”- afecta a la generalidad de los seguros de responsabilidad civil comunes y, en particular, a los que cubren la responsabilidad civil empresarial y profesional. Así, en términos generales, vemos como, en las sociedades desarrolladas, se extiende, día tras día, una suerte de “cultura de la reclamación” que se manifiesta, entre otras formas, mediante un incremento sostenido de las reclamaciones de responsabilidad civil a los operadores de instrumentos algorítmicos que sirven de base a los procesos de utilización de la inteligencia artificial y ello tanto en sentido cuantitativo, porque cada vez es mayor el número de tales reclamaciones y su cuantía; como en sentido cualitativo, porque la responsabilidad civil tanto empresarial como profesional tiende a objetivarse como consecuencia de la mera explotación de dichas actividades empresariales y profesionales basadas en la inteligencia artificial.

Podemos apreciar, en la actualidad, un cierto subdesarrollo de la “cultura de la reclamación” en el mundo de la inteligencia artificial. Ello contrasta con el desarrollo notable de los usos de dicha inteligencia artificial. Pues bien, de este contraste o paradoja nos permite aventurar un crecimiento exponencial de las reclamaciones de responsabilidad civil -en sede judicial y extrajudicial- de los consumidores frente a los operadores de sistemas de inteligencia artificial en un futuro próximo.

En este momento, procede recordar el entusiasmo generalizado que produce la inteligencia artificial como una especie de “maná” providencial que desterrará automáticamente la pobreza, la ignorancia y la enfermedad de la faz de la Tierra. Ello nos llevó a advertir, hace ya algunos años, sobre una suerte de “mito de los algoritmos neutrales”, que acompañaba la “paradoja de la trasparencia digital”[4]. Con la expresión del “mito de los algoritmos neutrales” nos hemos referido al contraste entre: Por una parte, la afirmación generalizada de que el uso de algoritmos -especialmente, en las finanzas- tenía un impacto neutral en el sentido de que no afectaba a los riesgos para el consumidor porque, por ejemplo, generaban registros desconcentrados e interconectados imposibles de manipular (por ejemplo, en el caso del blokchain). Y, por otra parte, la realidad siempre tozuda y constatable -por ejemplo. cuando se examina la jurisprudencia sobre delincuencia financiera digital- de que los algoritmos pueden mentir, engañar y manipular (y ser manipulados) mediante, por ejemplo, prácticas en el mercado de valores de multiplicación patológica de órdenes (“quote stuffing”), de indicios falsos (“spoofing”), de órdenes contradictorias prácticamente simultáneas (“churning”) y de anticipación parasitaria (“sniffers”)[5].

Esta consciencia de la falibilidad de los sistemas de inteligencia artificial y su potencialidad dañina se ha constatado, recientemente, durante la pandemia del COVID 19, cuando los algoritmos han sido instrumentos decisivos para las estrategias inversoras “bajistas” que han atacado -dentro del IBEX 35- las cotizaciones de ACS, CIE, AUTOMOTIVE, MELIA, NATURGY, etc. Es más, en los últimos meses, la CNMV ha publicado sucesivas advertencias sobre la ciberdelincuencia florecida al calor de la pandemia del COVID 19[6].

Observamos, por lo tanto, que en este ámbito se da la “interferencia recíproca de la evolución de la responsabilidad civil y su seguro” que se ocupó de destacar el maestro Fernando Sánchez Calero[7] y, conforme a la cual podemos anticipar un desarrollo de los seguros de responsabilidad civil derivada del uso de la inteligencia artificial conforme a la dinámica creciente de lo que podríamos denominar “la espiral de la responsabilidad civil y su aseguramiento” porque, en el ámbito en el que operan estos seguros, veremos cómo, día tras día, se incrementarán las exigencias de responsabilidad civil de los distintos operadores implicados. Y ello causará que estos operadores suscriban sus respectivos seguros de responsabilidad civil cada vez con mayor frecuencia y por sumas aseguradas crecientes. Y, a su vez, estas mayores coberturas incentivan que los terceros perjudicados por los actos u omisiones de aquellos operadores con ocasión de los diferentes usos de la inteligencia artificial presenten reclamaciones con mayor frecuencia y por sumas más elevadas. Reclamaciones facilitadas por la consciencia de que disponen de acciones directas contra los aseguradores de aquella responsabilidad civil. Lo que, a la postre, genera la espiral creciente que hemos señalado porque se genera un incremento del riesgo de responsabilidad civil y de la necesidad de asegurarlo[8].

La interferencia anterior produce dos tipos de efectos:

a) Efectos voluntarios en forma de contratación creciente de este tipo de seguros de responsabilidad civil profesional de “motu proprio” por los operadores económicos que generan, explotan o utilizan sistemas de inteligencia artificial.

b) Efectos obligatorios cuando se obliga legalmente a suscribir un seguro de responsabilidad civil profesional de los operadores económicos profesionales que originan riesgos notables con su actividad. Veremos cómo la regulación proyectada en la UE prevé exigir la contratación de este tipo de seguros a los operadores económicos que generan, explotan o utilizan sistemas de inteligencia artificial de alto riesgo. En estos casos, el régimen legal de los seguros obligatorios de responsabilidad civil se establece, dentro de nuestro Derecho, en la Disposición Adicional Segunda de la LOSSEAR que –a diferencia del antiguo art. 75 de la LCS que deroga‒ exige el rango legal para la creación de este tipo de seguros cuando dice que “la obligación de suscripción de seguros deberá establecerse mediante normas con rango de Ley”, que deberán contar con informe preceptivo de la DGSFP o del órgano competente de las Comunidades Autónomas, «con objeto de que puedan formular observaciones en materia de técnica aseguradora»[9].

2. Los riesgos patrimoniales típicos derivados del uso de la Inteligencia Artificial

Siendo cierto que los sistemas de inteligencia artificial proyectan sus riesgos sobre gran parte de los ámbitos en los que se desarrolla la existencia humana[10]; debemos aclarar que, en este Estudio, centraremos nuestra atención sobre los daños patrimoniales típicos que aquellos sistemas pueden ocasionar. E identificaremos estos riesgos típicos sobre la base de algunos de los documentos publicados recientemente producidos por las Instituciones de la UE que interesan a la responsabilidad derivada del uso de la inteligencia artificial en el mercado financiero, como han sido la Comunicación de la Comisión Europea de 8 de abril de 2019 y el Informe del Grupo de Expertos de la Comisión Europea de 2019[11].

En fecha más reciente se han publicado dos Resoluciones del Parlamento Europeo (PE) de 20 de octubre de 2020 que afectan, en parte y en todo, respectivamente, a la responsabilidad derivada del uso de la inteligencia artificial. Se trata de las dos siguientes[12]: a) La Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas (2020/2012(INL)) (RIAE) que lleva por título “Marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas”[13]. b) La Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial (2020/2014(INL)) (RIAR) que lleva por título “Régimen de responsabilidad civil en materia de inteligencia artificial”[14].

II. La Responsabilidad Civil derivada del uso de la Inteligencia Artificial [arriba] 

1. Los presupuestos de la regulación específica de la Responsabilidad Civil en el ámbito de los Sistemas de Inteligencia Artificial (IA)

En su parte introductoria, la Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial (2020/2014(INL)) (RIAR) parte de la base de la importancia de la responsabilidad civil como factor autorregulador de toda actividad económica[15]. Para transitar, de inmediato, hacia las características específicas de la responsabilidad civil en el ámbito específico de los sistemas de inteligencia artificial (IA) en donde establece los presupuestos regulatorios siguientes:

1.1. Necesidad de un debate previo y amplio

La importancia radical que tiene el aspecto de la responsabilidad civil como mecanismo autorregulador de los sistemas de inteligencia artificial (IA) lleva al PE a establecer esta primera premisa diciendo que “cualquier legislación futura de la Unión que tenga por objeto la atribución expresa de responsabilidad en lo que se refiere a sistemas de inteligencia artificial (IA) debe ir precedida de un análisis y una consulta con los Estados miembros sobre el cumplimiento de condiciones económicas, jurídicas y sociales por parte del acto legislativo propuesto”. Este proceso de consulta debe evitar todo apriorismo y, para ello, el régimen proyectado de responsabilidad civil en materia de IA debe someterse a un amplio debate público que tenga en cuenta todos los intereses en juego[16].

1.2. Necesaria adaptación de los regímenes vigentes

En este punto, el PE establece dos premisas generales metodológicas del régimen proyectado de responsabilidad civil en materia de IA que son (apartado 6):

a) Validez de los regímenes vigentes sobre responsabilidad civil de la UE y de los Estados miembros no precisan de una revisión completa.

b) Reforma adaptativa de dichos regímenes vigentes porque los sistemas de IA presentan características propias que requieren adaptaciones específicas y coordinadas de los regímenes de responsabilidad civil para evitar situaciones en las que personas que sufran un daño o un menoscabo a su patrimonio acaben sin indemnización. Tales características son de dos tipos: Características técnicas por completo novedosas, complejas y peligrosas como son su conectividad, su opacidad, su vulnerabilidad, su capacidad de ser modificados mediante actualizaciones y de autoaprendizaje y su autonomía potencial; y características operativas porque los sistemas de IA involucran a una multitud de agentes.

Sobre esta necesaria adaptación de los regímenes vigentes de responsabilidad civil a los nuevos riesgos derivados del uso de los sistemas de IA ya se había pronunciado el “Informe sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica” adjunto al “Libro Blanco sobre la inteligencia artificial - un enfoque europeo orientado a la excelencia y la confianza” que analizaba el marco jurídico pertinente y destacaba las incertidumbres sobre la aplicación de este marco con relación a los riesgos concretos que presentan los sistemas de IA y otras tecnologías digitales[17].

1.3. Noción omnicomprensiva de los sistemas de IA

La eficacia de los regímenes de responsabilidad civil de los sistemas de IA requiere que el concepto de sistemas de IA comprenda un amplio grupo de tecnologías distintas, incluidos la simple estadística, el aprendizaje automático y el aprendizaje profundo.

1.4. Noción específica del término “toma de decisiones automatizada”

Un término esencial para la adecuada construcción de las regulaciones de la responsabilidad civil derivada de los sistemas de IA es el de la “toma de decisiones automatizada” y, por ello, el PE lo define diciendo que implica dos actuaciones por cada una de las partes implicadas en los sistemas de IA: Por una parte, que un usuario delegue inicialmente una decisión, en su totalidad o en parte, en una entidad mediante la utilización de un programa informático o de un servicio; y, por otra parte, que dicha entidad, a su vez, utilice modelos de toma de decisiones ejecutados automáticamente para llevar a cabo una acción en nombre de un usuario o para informar las decisiones del usuario a la hora de realizar una acción.

1.5. Potencialidad dañina de los sistemas de IA

En este sentido, la RIAR -al referirse a la “responsabilidad civil e inteligencia artificial”- manifiesta que el PE “observa que todas las actividades, dispositivos o procesos físicos o virtuales gobernados por sistemas de IA pueden ser técnicamente la causa directa o indirecta de un daño o un perjuicio” y que “casi siempre son el resultado de que alguien ha construido o desplegado los sistemas o interferido en ellos”.

Ante esta situación de riesgo, el PE considera que las regulaciones de la responsabilidad civil derivada de los sistemas de IA deben reaccionar en base a las dos premisas siguientes (apartado 7):

a) No ve necesario atribuir personalidad jurídica propia a los sistemas de IA (cfr. art. 35 y ss. de nuestro Código Civil).

b) Si considera preciso imputar -de conformidad con conceptos de responsabilidad civil ampliamente aceptados- las respectivas responsabilidades a las diferentes personas de toda la cadena de valor que crean, mantienen o controlan cada sistema de IA para evitar que la opacidad, la conectividad y la autonomía de dichos sistemas de IA dificulten o incluso imposibiliten en la práctica la trazabilidad de acciones perjudiciales específicas.

2. Los principios de una Inteligencia Artificial Responsable (IAR) en la UE

Sobre la base de los documentos emanados de las instituciones de la UE -especialmente, de la RIAE y de la RIAR- podemos formular los siguientes principios regulatorios de una Inteligencia Artificial Responsable (IAR):

2.1. El control de riesgos, con identificación de los sectores de alto riesgo en el uso de la IA

Este primer enfoque regulatorio -especialmente sensible para la digitalización financiera (porque recordemos que el mercado financiero es un mercado que gestiona riesgos futuros, por ejemplo, en su sector asegurador o del mercado de valores)- se manifiesta en varias partes de la RIAE y lleva al PE a remarcar la necesidad de diferenciar dos grandes sectores de la IA atendiendo el criterio del riesgo que producen para sus usuarios: a) Los sectores de alto riesgo, determinados por inclusión mediante la elaboración de una lista exhaustiva y acumulativa de sectores de alto riesgo y de usos o fines de alto riesgo; lista debe someterse a una reevaluación periódica[18]. b) Los sectores que no son de alto riesgo, determinados por exclusión lógica respecto de los anteriores.

2.2. Responsabilidad

Este principio regulatorio se manifiesta en dos formas:

a) En primer lugar, en una forma genérica de responsabilidad social, cuando esta RIAE se refiere a la “responsabilidad social y paridad de género” y recoge que el PE “hace hincapié en que la inteligencia artificial, la robótica y las tecnologías conexas socialmente responsables tienen un papel que desempeñar en la búsqueda de soluciones que salvaguarden y promuevan los valores fundamentales de nuestra sociedad”. (apartado 37 y ss.).

b) En segundo lugar, en una forma específica de responsabilidad civil, a cuyos principios derivados nos referimos seguidamente; no sin antes recordar que la estructura de la responsabilidad civil derivada de la IA se construye conforme al parón común como una relación obligacional -ex contracto o ex delicto- en la que el deudor será el operador empresarial o profesional del sistema de IA responsable y el acreedor, el sujeto perjudicado que haya actuado como consumidor o como profesional o empresario[19].

2.3. Imputabilidad

Se establece en la RIAR con un doble alcance:

a) Imputabilidad en todo caso a un agente, para evitar indefensión de los consumidores que usan de ingenios basados en la IA. Así, en su parte introductoria, la RIAR advierte de la indefensión en la que se encuentran los consumidores que usan de ingenios basados en la IA para exigir responsabilidad a las entidades que operan con ellos (por ejemplo, las entidades financieras cuando prestan servicios de pago digitalizados)[20]. Después, la RIAR, el referirse a la “responsabilidad civil del operador” insiste en la idea de la indefensión en la que se encuentran los consumidores que usan de ingenios basados en la IA[21] (apartado 11)[22].

b) Imputabilidad específica al operador de la inteligencia artificial, con la tipificación de las figuras del operador inicial y del operador final en base al criterio del ejercicio de control. En este sentido, el PE considera adecuado que establecer una noción amplia de “operador” que abarque tanto al operador final[23] como al operador inicial[24]. En ambos casos, estas identificaciones deben basarse en el concepto de “ejercicio del control”[25] abarcando todo el desarrollo del proceso de aplicación de la inteligencia artificial[26].

Después, la RIAR matiza este principio de imputabilidad específica en situaciones complejas en las que haya más de un operador, por ejemplo, un operador final y un operador inicial. Porque, entonces, la protección de la víctima perjudicada exige que todos los operadores deban ser responsables civiles solidarios. Lo que, a su vez, plantea el derecho a reclamar en la vía de regreso unos de otros de forma proporcional conforme a los porcentajes de responsabilidad determinados por los respectivos niveles de control que tengan los operadores sobre el riesgo relacionado con la operación y el funcionamiento del sistema de IA, lo que exige, a su vez, garantizar la trazabilidad de los productos con el fin de identificar mejor a los que intervienen en las distintas fases (apartado 12 y ss.)

2.4. Adaptabilidad: Adecuación del régimen de responsabilidad civil a los sistemas de IA de alto riesgo y de riesgo normal.

Este segundo principio regulatorio de una Inteligencia Artificial Responsable (IAR) -que también resulta especialmente relevante en materia de digitalización financiera, por cuanto el mercado financiero está plagado de sistemas de IA autónomos de alto riesgo- se establece en la RIAR cuando, al referirse a las “normas en materia de responsabilidad civil diferentes para riesgos diferentes”, comienza recordando que el tipo de sistema de IA sobre el que el operador ejerce control es un factor determinante en lo que respecta a la responsabilidad Y de ahí deduce una la necesidad de asumir una distinción básica entre dos tipos de sistemas de IA: los de alto riesgo y los de riesgo normal.

La distinción básica mencionada obedece a que un sistema de IA que conlleve un alto riesgo inherente y actúe de manera autónoma pone en peligro potencial en mucha mayor medida al público en general. De lo que el PE infiere “habida cuenta de los retos jurídicos que plantean los sistemas de IA para los regímenes de responsabilidad civil existentes, parece razonable establecer un régimen común de responsabilidad objetiva para los sistemas de IA autónomos de alto riesgo”[27] (apartado 14 y ss.).

3. La propuesta de Reglamento del Parlamento Europeo y del Consejo Relativo a la Responsabilidad Civil por el funcionamiento de los Sistemas de Inteligencia Artificial

3.1. Objeto y ámbito de aplicación

La RIAR concreta la propuesta del PE a la Comisión con una Propuesta de Reglamento cuyo objeto consistirá en “establecer normas en relación con las demandas por responsabilidad civil de las personas físicas y jurídicas contra los operadores de sistemas de IA” (art. 1) y cuyo ámbito de aplicación se extenderá, “en el territorio de la Unión a aquellos casos en que una actividad física o virtual, un dispositivo o un proceso gobernado por un sistema de IA haya causado daños o perjuicios a la vida, la salud, la integridad física de una persona física y los bienes de una persona física o jurídica, o bien haya causado daños morales considerables que den lugar a una pérdida económica comprobable” (art. 2).

Una vez fijado su objetivo y su ámbito de aplicación, la Propuesta de Reglamento aneja a la RIAR distingue dos regímenes de responsabilidad civil derivada de los sistemas de IA de acuerdo con su grado de riesgo respectivo.

3.2. Régimen de responsabilidad objetiva de los sistemas de IA de alto riesgo

Esta responsabilidad objetiva de los sistemas de IA de alto riesgo se establece diciendo que “el operador de un sistema de IA de alto riesgo será objetivamente responsable de cualquier daño o perjuicio causado por una actividad física o virtual, un dispositivo o un proceso gobernado por dicho sistema de IA”. Adviértase que el anexo al Reglamento enumerará todos los sistemas de IA de alto riesgo y los sectores críticos en los que se utilizan y la Comisión estará facultada para adoptar actos delegados para modificar dicha lista exhaustiva (art. 4).

La objetivación de esta responsabilidad se concreta en los mecanismos habituales siguientes:

a) Imputabilidad objetiva[28], que se concreta en la inversión de la carga de la prueba implícita en el siguiente enunciado (art. 4.3).: “los operadores de un sistema de IA de alto riesgo no podrán eludir su responsabilidad civil alegando”: a) Que actuaron con la diligencia debida. b) Que el daño o perjuicio fue causado por una actividad, un dispositivo o un proceso autónomos gobernados por su sistema de IA. Esta imputabilidad objetiva tendrá como límite externo último que los operadores de un sistema de IA de alto riesgo “no serán responsables si el daño o perjuicio ha sido provocado por un caso de fuerza mayor”.

b) Fijación del importe máximo de la indemnización de acuerdo con los tipos de daños que opera estableciéndose que “un operador de un sistema de IA de alto riesgo que haya sido considerado responsable de un daño o perjuicio” deberá pagar diferenciando (art. 5): b.1)) Los daños personales y la salud, “hasta un importe máximo de dos millones de euros en caso de fallecimiento o de daños causados a la salud o a la integridad física de una persona afectada como resultado del funcionamiento de un sistema de IA de alto riesgo”. b.2) Los daños morales o materiales, “hasta un importe máximo de un millón de euros en caso de daños morales significativos que resulten en una pérdida económica comprobable o en daños a bienes, también cuando distintos bienes propiedad de una persona afectada resulten dañados como resultado de un único funcionamiento de un único sistema de IA de alto riesgo”.

c) Fijación de plazos de prescripción diferenciados para dos tipos de demandas (art. 7).: c.1) Las demandas por responsabilidad civil relativas a daños a la vida, la salud o la integridad física que estarán sujetas a un plazo de prescripción especial de treinta años a partir de la fecha en que se produjo el daño. C.2) Las demandas por responsabilidad civil relativas a perjuicios materiales o daños morales considerables que resulten en una pérdida económica comprobable que estarán sujetas a un plazo de prescripción especial de: “a) diez años a partir de la fecha en que se produjo el menoscabo a los bienes o la pérdida económica comprobable resultante del daño moral significativo, respectivamente, o b) treinta años a partir de la fecha en que tuvo lugar la operación del sistema de IA de alto riesgo que causó posteriormente el menoscabo a los bienes o el daño moral”.

3.3. Régimen de responsabilidad subjetiva para sistemas de IA que no sean de alto riesgo

La responsabilidad subjetiva para otros sistemas de IA que no sean de alto riesgo se concreta en que su operador estará sujeto a responsabilidad subjetiva respecto de todo daño o perjuicio causado por una actividad física o virtual, un dispositivo o un proceso gobernados por el sistema de IA.

La subjetivación de esta responsabilidad se concreta en los mecanismos habituales siguientes (art. 8):

a) Posible exclusión: motivos. Por exclusión, ya que “el operador no será responsable si puede demostrar que no tuvo culpa en el daño o perjuicio causado, basándose en uno de los siguientes motivos: a) el sistema de IA se activó sin su conocimiento, al tiempo que se tomaron todas las medidas razonables y necesarias para evitar dicha activación fuera del control del operador, o b) se observó la diligencia debida a través de la realización de las siguientes acciones: la selección de un sistema de IA adecuado para las tareas y las capacidades pertinentes, la correcta puesta en funcionamiento del sistema de IA, el control de las actividades y el mantenimiento de la fiabilidad operativa mediante la instalación periódica de todas las actualizaciones disponibles”. Tampoco será responsable si el daño o perjuicio ha sido provocado por un caso de fuerza mayor.

b) Supuestos especiales de inclusión. Por inclusión en los dos casos siguientes: b.1) “El operador no podrá eludir su responsabilidad alegando que el daño o perjuicio fue causado por una actividad, un dispositivo o un proceso autónomos gobernados por su sistema de IA”. B.2) “Cuando el daño o perjuicio haya sido causado por un tercero que haya interferido en el sistema de IA por medio de una modificación de su funcionamiento o sus efectos, el operador será, no obstante, responsable del pago de una indemnización en caso de que dicho tercero esté ilocalizable o sea insolvente”.

3.4. Imputación de la responsabilidad civil en casos de pluralidad de operadores de IA

Se establecen dos supuestos:

a) Negligencia concurrente que acaece cuando “el daño o perjuicio es causado por una actividad física o virtual, un dispositivo o un proceso gobernados por un sistema de IA o por la actuación de una persona afectada o de una persona de la que la persona afectada sea responsable”; con la consecuencia jurídica de que “el alcance de la responsabilidad civil del operador con arreglo al presente Reglamento se reducirá en consecuencia. El operador no será responsable si la persona afectada o la persona de la que esta es responsable es la única a la que se le puede achacar el daño o perjuicio causado” (art. 10).

b) Responsabilidad solidaria que acaecerán “en caso de que haya más de un operador de un sistema de IA” con la consecuencia jurídica de que estos serán responsables solidarios. Se establecen las reglas específicas aplicables a los casos en los que un operador final es también el productor del sistema de IA cuando el Reglamento prevalecerá sobre la Directiva sobre responsabilidad por los daños causados por productos defectuosos” (art. 11).

4. La Responsabilidad Civil del promotor de los espacios controlados de pruebas (“Regulatory Sandboxes”) establecida, en el derecho español vigente, por la Ley 7/2020, para la transformación digital del sistema financiero

4.1. El régimen establecido en el artículo 12 de la Ley 7/2020, de 13 de noviembre, para la transformación digital del sistema financiero

En el Derecho español vigente, procede destacar el régimen de la responsabilidad civil del promotor por los daños infligidos a los participantes como consecuencia de su participación en las pruebas que ha establecido la Ley 7/2020, de 13 de noviembre, para la transformación digital del sistema financiero al regular los espacios controlados de pruebas (“regulatory sandboxes”)[29]. En efecto, su art. 12 establece un régimen de la responsabilidad que opera sobre una doble base.

4.2. Aspectos subjetivos

La Ley 7/2020 establece la identidad de los sujetos deudores y acreedores de la deuda de responsabilidad que, a su vez, opera en dos sentidos:

a) En sentido afirmativo, por la imputación de la eventual responsabilidad al promotor del proyecto con un doble alcance de imputación subjetiva o por culpa cuando dice que “la responsabilidad por los daños sufridos por los participantes como consecuencia de su participación en las pruebas será exclusivamente del promotor cuando se produzcan por un incumplimiento suyo del protocolo, se deriven de riesgos no informados por él o cuando medie culpa o negligencia por su parte” e imputación cuasi-objetiva o por riesgo cuando dice que “en caso de daños derivados de fallos técnicos o humanos durante el transcurso de las pruebas la responsabilidad será igualmente del promotor”.

b) En sentido negativo, por la exclusión de la responsabilidad de las autoridades que intervengan durante el desarrollo de las pruebas que “no serán responsables de los posibles daños y perjuicios que pudieran originarse”[30].

4.3. Aspectos objetivos

La Ley 7/2020 establece la noción del daño resarcible cuando precisa que “no se considerarán daños las pérdidas que deriven de la fluctuación de los mercados conforme a lo establecido para cada caso en el correspondiente protocolo” (art. 12.2) y añade que “los participantes serán resarcidos conforme al régimen previsto en el protocolo de las pérdidas patrimoniales y otros daños derivados directamente de dicha participación siempre que el promotor sea responsable del perjuicio causado conforme a lo previsto en este artículo” (art. 12.3).

5. Tipos de Responsabilidad Civil por el uso de la Inteligencia Artificial: Derivada de ilícitos civiles y derivada de ilícitos penales

5.1. La responsabilidad civil derivada de ilícitos civiles.

Esta responsabilidad civil de los operadores de inteligencia artificial se podrá articular tanto en forma contractual, conforme al artículo 1101 del Código Civil; como en forma extracontractual conforme al artículo 1902 del mismo Código Civil. Con la consiguiente repercusión en los respectivos plazos de prescripción de las acciones: 1 año o 5 años.

5.2. La responsabilidad civil derivada de ilícitos penales.

Dado que los operadores de inteligencia artificial pueden hacer uso de ella para cometer delitos, en particular los operadores empresariales o profesionales de los sistemas de IA serán responsables civiles de sus resultados patrimoniales. En cuanto interesa a la responsabilidad civil derivada de estos delitos de la que tratamos en este Estudio, procede destacar tres aspectos generales que son:

a) Primero, el que establece el principio mismo de imputación accesoria al autor del delito o falta, responsable penal de aquella; de esa responsabilidad civil derivada de delito o falta en el artículo 116 del Código Penal[31].

b) Segundo, el que señala que esta responsabilidad civil derivada de delito se enjuicia por la Jurisdicción criminal, aplicando las reglas generales del Derecho común que establece el Código Civil, como así lo tiene establecido la Sala Segunda de lo Penal del Tribunal Supremo[32].

c) Tercero, el que establece la responsabilidad civil directa de los aseguradores de la responsabilidad civil, extremo este particularmente relevante a los efectos de este Estudio y con vistas a su segunda parte epígrafe sobre el aseguramiento de la responsabilidad civil, porque los presuntos perjudicados pueden y suelen reclamar la responsabilidad civil directa de los aseguradores conforme al artículo 117 del Código Penal[33].

6. Requisitos para reclamar la Responsabilidad Civil derivada del uso de la Inteligencia Artificial

El éxito de toda demanda de responsabilidad civil derivada del uso de la inteligencia artificial exigirá que el demandante acredite los tres requisitos comunes a toda reclamación de responsabilidad civil que son:

6.1. El acto no ajustado a la diligencia profesional exigible en el uso de la inteligencia artificial

El primero de los requisitos es la comisión de un acto no ajustado a la diligencia exigible (lex artis) a los operadores de la inteligencia artificial que les sea imputable en concepto de dolo o culpa, grave o leve[34].

En este punto, resultan particularmente interesantes las iniciativas europeas recientes de regulación de diligencia debida obligatoria y la responsabilidad derivada. En particular, el Comité Económico y Social Europeo (CESE) acaba de afirmar que “es hora de que la Comisión Europea (CE) actúe y proponga legislación a los Estados miembros y al Parlamento Europeo (PE) sobre diligencia debida obligatoria que reconozca la responsabilidad basada en las normas actuales y ofrezca un marco jurídico claro y seguro para las empresas europeas. (…) La interrelación entre el marco de la diligencia debida y las cuestiones de responsabilidad civil (y potencialmente penales) es obvia. Los procedimientos estrictos de diligencia debida y la información permiten a las empresas demostrar que no son responsables de una infracción específica de los derechos humanos. Las empresas que asumen el deber de diligencia debida tienen que beneficiarse de sus esfuerzos”[35].

En particular, las investigaciones técnicas sistemáticas sobre los fallos en los sistemas de inteligencia artificial han diferenciado dos grandes tipos, que pueden proceder del operador asegurado, sus empleados o de un tercero: los fallos intencionados, que podríamos calificar jurídicamente como dolosos o gravemente culposos; y los fallos no intencionados o casuales, que podríamos dividir en dos especies jurídicas: los que proceden de negligencia leve del operados del sistema o de un tercero; y los que se deben a causas de fuerza mayor o caso fortuito. Cada tipo de fallo producirá -o no- el nacimiento de la deuda correspondiente de responsabilidad civil y será imputable al sujeto causante respectivo[36].

6.2. El daño evaluable patrimonialmente.

El segundo requisito para el éxito de una reclamación de responsabilidad civil a un operador de la inteligencia artificial consiste en que el demandante acredite la generación de un daño evaluable patrimonialmente en el reclamante o en sus herederos. En particular este daño debe caracterizarse por ser real, es decir, que pueda probarse su existencia; resultar evaluable económicamente; y constituir una lesión física o mental o bien daño material o inmaterial (por ejemplo, pérdidas financieras o económicas, pérdida de empleo o de oportunidades educativas, restricción indebida de la libertad de elección o de expresión, pérdida de la privacidad y cualquier infracción del régimen jurídico aplicable que sea perjudicial para una persona)[37].

6.3. La relación de causalidad eficiente entre el acto doloso o negligente del operador de la inteligencia artificial implicado y el daño reclamado.

El tercer requisito para el éxito de una reclamación de responsabilidad civil dirigida frente a un operador de la inteligencia artificial consistirá en que el demandante acredite la relación de causalidad eficiente entre el acto doloso o negligente del operador de la inteligencia artificial implicado y el daño reclamado.

III. El aseguramiento de la Responsabilidad Civil de los operadores de Sistemas de Inteligencia Artificial [arriba] 

1. El seguro como instrumento idóneo para la cobertura preventiva de la Responsabilidad Civil de los operadores de Sistemas de Inteligencia Artificial en beneficio del consumidor

1.1. Relevancia del principio de cobertura preventiva de la responsabilidad civil de los operadores de sistemas de inteligencia artificial para el éxito de estos sistemas

En general, la cobertura de la responsabilidad civil es uno de los factores clave que define el éxito de las nuevas tecnologías, productos y servicios y, en especial, para el de los sistemas de inteligencia artificial[38].

En particular, el de cobertura preventiva es uno de los principios regulatorios de una Inteligencia Artificial Responsable (IAR) que resulta especialmente relevante en materia de digitalización financiera al estar implicada “por partida doble” ya que concurren las dos circunstancias siguientes: Porque el alto riesgo de los sistemas de IA implicados en la digitalización financiera hace especialmente necesario prever la cobertura preventiva de la responsabilidad civil en que puedan incurrir los operadores financieros. Y porque los instrumentos de cobertura preventiva tienen carácter financiero, como el seguro de responsabilidad civil o las garantías bancarias.

1.2. Exigencia de un seguro obligatorio de responsabilidad civil para los operadores de sistemas de IA de alto riesgo

El PE -en el apartado 24 d la RIAR- considera que debe establecerse un régimen de seguro obligatorio para los sistemas de IA de alto riesgo que debe cubrir los importes y el alcance de la indemnización establecidos por el Reglamento propuesto a la Comisión Europea que figura como Anexo a la RIAR, al que nos referiremos más adelante en este Estudio. Y, para el diseño de ese seguro, toma como modelo la Directiva 2009/103/CE del Parlamento Europeo y del Consejo, de 16 de septiembre de 2009, relativa al seguro de la responsabilidad civil que resulta de la circulación de vehículos automóviles, así como al control de la obligación de asegurar esta responsabilidad. De modo tal que todos los operadores de sistemas de IA de alto riesgo deben ser titulares de un seguro de responsabilidad civil.

Una vez establecida esta necesidad de un seguro obligatorio para los sistemas de IA de alto riesgo análogo al seguro de la responsabilidad civil que resulta de la circulación de vehículos automóviles; la RIAR apunta las dificultades que su implantación conllevará que pueden exponerse en forma de causa y efecto:

a) La causa será la falta de estadísticas de siniestralidad, porque esta ausencia de datos sobre los riesgos asociados a los sistemas de IA, unida a la incertidumbre sobre su evolución en el futuro, dificulta al sector de los seguros elaborar productos de seguro nuevos o adaptados.

b) El efecto consistirá en el riesgo de que el mercado asegurador diseñe un seguro obligatorio de “talla única” con primas desproporcionadamente elevadas y los incentivos equivocados, alentando a los operadores a optar por el seguro más barato en lugar de por la mejor cobertura, lo que podría convertirse en un obstáculo para la investigación y la innovación. De ahí infiere “que la Comisión debe colaborar estrechamente con el sector de los seguros para estudiar la forma de poder utilizar datos y modelos innovadores para crear pólizas de seguro que ofrezcan una cobertura adecuada a un precio asequible”.

1.3. Exclusión de un mecanismo o fondo público de indemnización a escala de la UE

En este sentido, PE “cree que un mecanismo de indemnización a escala de la Unión, financiado con fondos públicos, no es la manera adecuada de colmar posibles lagunas en materia de seguros”. (apartado 25).

2. Características del seguro de Responsabilidad Civil de los operadores de Sistemas de Inteligencia Artificial

2.1. Será un seguro obligatorio para los sistemas de inteligencia artificial de alto riesgo

Como acabamos de ver, el PE propone que todos los operadores de sistemas de IA de alto riesgo deban ser titulares de un seguro de responsabilidad civil.

Este carácter obligatorio tendría, en nuestro Ordenamiento las consecuencias siguientes[39]:

a) En cuanto a las razones de su obligatoriedad, los sistemas de inteligencia artificial tienen efectos potencialmente dañinos, que se subliman en los de “alto riesgo”. Se trata, por lo tanto, de actividades que presentan un riesgo directo y concreto para la salud o para la seguridad de las personas, incluida la seguridad financiera[40].

b) En cuanto a su régimen jurídico, se impone el principio de especialidad legal y contractual de acuerdo con el art. 2 de la Ley 50/1980, de 8 de octubre, de Contrato de Seguro (en adelante, LCS) porque, en este seguro, se aplicarán, primero sus normas específicas y, después, la LCS y la LOSSEAR, según después detallaremos.

c) En cuanto a las eventuales sanciones por incumplimiento de la obligación de contratar el seguro, la Disposición adicional segunda de la LOSSEAR dispone, en su apartado 2, que “la realización de actividades careciendo del correspondiente seguro obligatorio será constitutivo de infracción administrativa muy grave, salvo lo dispuesto en su normativa específica”[41].

Podemos concluir este epígrafe dejando constancia de que la existencia de un seguro de responsabilidad comporta un doble y recíproco beneficio para las partes implicadas en el uso de la inteligencia artificial: para el operador profesional, cuyo patrimonio se mantiene indemne frente a reclamaciones de terceros; y para el usuario, que cuenta con la garantía preventiva y adicional prestada por el asegurador.

2.2. Será un seguro de responsabilidad civil empresarial o profesional

Esta característica circunscribe la cobertura del seguro a las responsabilidades civiles en las que pueda incurrir el operador de la inteligencia artificial en su condición de tal, con un doble alcance empresarial y profesional[42]. Sin perjuicio de esta delimitación empresarial o profesional, una vez llegados a este ámbito, se debe prestar una cobertura omnicomprensiva, tanto en sentido subjetivo, al cubrir al operador y, en su caso, sus empleados; como en sentido objetivo, al abarcar las responsabilidades derivadas de los usos de la inteligencia artificial tanto directos como conexos. En términos generales, hay que resaltar la importancia que tiene, dentro de la jurisprudencia sobre seguros de responsabilidad civil, la delimitación precisa de la actividad asegurada en la póliza.

3. Las partes

3.1. El asegurador

Deberá ser una entidad aseguradora autorizada para desarrollar el ramo de “responsabilidad civil en general”[43].

En la práctica, tanto la importancia cuantitativa y cualitativa de la cobertura necesaria como el principio de reparto de cuotas de dicha cobertura podría hacer recomendable, en determinados casos, adoptar la estructura de coaseguro que se caracteriza por la coincidencia de las coberturas de los diferentes coaseguradores, con reparto de cuotas y responsabilidad proporcional, sin solidaridad y con encomienda a la entidad aseguradora abridora de gestión común con interlocución única frente al tomador y asegurados. Todo ello conforme a lo dispuesto en el art. 33 de la LCS[44].

3.2. El tomador. Las pólizas colectivas

Actuará como tomador el operador profesional del sistema de inteligencia artificial que generalmente, actuará por cuenta propia; sin perjuicio de la posibilidad de contratar seguros colectivos por asociaciones de operadores de IA, grupos de empresas u otras personas jurídicas con forma de sociedad mercantil de capital que actúen como operadores profesionales de sistemas de inteligencia artificial. Se trata de una posibilidad extremadamente interesante en la práctica ya que produciría, previsiblemente, un importante ahorro de costes a la asociación o entidad tomadora en forma de abaratamiento de primas respecto de la contratación individual (v. art. 7 LCS).

3.3. El asegurado

El operador profesional del sistema de inteligencia artificial, como potencial responsable civil, será el titular del interés asegurado. Reiteramos el interés que acabamos de indicar que tendrán los seguros colectivos en este ámbito, en los que una asociación de empresas de IA o la matriz de un grupo de sociedades dedicadas a operar en sistemas de IA, especialmente si son de alto riesgo; podrán contratar -como tomadoras- seguros colectivos que cubran la responsabilidad civil de las empresas de IA asociadas o filiales. Fórmula que ofrecerá dos ventajes evidentes: la primera es la mejor racionalización de la gestión de la cobertura de los riesgos derivados de la IA a nival de grupo y la segundas ventaja es el presumible ahorro de costes por disminución del importe de las primas de estas pólizas colectivas frente al sumatorio de tantas pólizas individuales como operadores asegurados.

4. Régimen del seguro de Responsabilidad Civil de los operadores de Sistemas de Inteligencia Artificial

4.1. Seguro de régimen común o por grandes riesgos

El seguro de responsabilidad civil profesional de los operadores de sistemas de inteligencia artificial podrá calificarse como un seguro por grandes riesgos cuando reúna los criterios establecidos en el art. 11 de la LOSSEAR. En tal caso, se le aplicará la previsión del art. 44 de la LCS, por lo que los preceptos de esta LCS se le aplicarán con carácter dispositivo.

Cuando el seguro de responsabilidad civil profesional de los operadores de sistemas de inteligencia artificial no reúna los criterios establecidos en el art. 11 de la LOSSEAR, se calificará somo un seguro de régimen común al que los preceptos de la LCS se le aplicarán con carácter imperativo conforme al art. 2 de esa misma LCS. Procede destacar que esta imperatividad busca la protección del tomador y del asegurado, llegando incluso a considerar válidas las cláusulas eventualmente contrarias a dicha Ley pero que sean más beneficiosas para los asegurados (art. 2 LCS).

Una de las manifestaciones esenciales del principio tuitivo del asegurado consiste en los requisitos que debe cumplir el asegurador, al redactar la póliza, para que las cláusulas eventualmente limitativas de los derechos de los asegurados sean válidamente oponibles a estos. Se trata de los requisitos de resalte en el documento y aceptación específica por el asegurado (art. 3 LCS). En el caso de los seguros colectivos, la jurisprudencia se ha planteado la cuestión de la suficiencia de la aceptación de aquellas cláusulas por el tomador o de la necesidad de aceptación por el asegurado a quien se quieran oponer las limitaciones de sus derechos. En tal sentido, interesa destacar que la jurisprudencia general sobre los seguros colectivos sostiene que no resultan oponibles a los asegurados las cláusulas delimitadoras o limitativas del riesgo que no les hayan sido facilitadas ni hayan suscrito, aceptándolas expresamente[45].

4.2. Aplicación de la LCS

Según señalamos anteriormente, cuando estemos ante un seguro de responsabilidad civil profesional de los operadores de sistemas de inteligencia artificial de alto riesgo, su carácter obligatorio conducirá a aplicarle, en primer lugar, su normativa específica …. Después, procederá aplicarle la LCS conforme a la siguiente sucesión lógica de preceptos: los que regulan el seguro de responsabilidad civil (sección 8ª del título II, arts. 73 a 76)[46], las disposiciones generales de los seguros de daños (sección 1ª del título II, arts. 25 a 44) y las disposiciones generales sobre los contratos de seguro (título I, arts. 1 a 24).

4.3. Aplicación de la LOSSEAR.

Además de la normativa contractual antedicha, el asegurador en el seguro examinado estará sujeto a los deberes que le impone la normativa de ordenación y supervisión a través de la LOSSEAR y el ROSSEAR. En cuanto se refiere al contrato de seguro, estos deberes se establecen, fundamentalmente, en las “conductas de mercado” que deben seguir los aseguradores (capítulo VII del título III) y, más en concreto, en los deberes de información al tomador del seguro y a los asegurados que se corresponden con otros tantos derechos de estos últimos (art. 96 LOSSEAR y art. 122 ROSSEAR).

5. La delimitación sustancial del riesgo cubierto por referencia a los Sistemas de Inteligencia Artificial

5.1. Definición general del riesgo cubierto.

El seguro de responsabilidad civil profesional de los operadores de sistemas de inteligencia artificial será un contrato de seguro por el que el asegurador se obliga, dentro de los límites establecidos en la Ley y en la póliza, a cubrir el riesgo del nacimiento a cargo de los operadores de sistemas de inteligencia artificial de la obligación de indemnizar a una persona física o jurídica usuaria de tales sistemas por los daños y perjuicios causados por una actuación del propio operador o del personal empleado prevista en el contrato de cuyas consecuencias sea civilmente responsable[47].

En la práctica, las pólizas definirán como actividad asegurada el desarrollo de sistemas de inteligencia artificial en ejercicio de la actividad profesional del operador, incluyendo las actuaciones y gestiones previas, posteriores y complementarias al ejercicio de aquella actividad.

En este punto, se plantea el problema concreto de las insuficiencias de cobertura del ciberseguro clásico y la necesidad de diseñar un nuevo seguro específico de inteligencia artificial y aprendizaje automático (AI / ML). En efecto, los fallos típicos de estos sistemas a los que antes nos hemos referido nos conducen a señalar inicialmente, que, dado que la modalidad principal a través de la cual los sistemas de ML y de AI manipulan los datos es el código y el software, un lugar natural para buscar respuestas es el seguro cibernético clásico (“existing cyber insurance”). Pero, llegados a este punto, vemos cómo algunos de los riesgos de la AI pueden ser cubiertos por el seguro cibernético clásico, pero otros no. Es por ello por lo que, si queremos avanzar en nuestra búsqueda, debemos establecer las diferencias entre las coberturas que ofrecen uno y otro tipo de seguro. En términos generales, el seguro cibernético cubre la seguridad de la información, la responsabilidad de la privacidad y la interrupción del negocio. De tal modo que, por ejemplo, los fallos de los sistemas de AI y ML que resultan en la interrupción del negocio y la violación de información privada probablemente estén cubiertas por el seguro cibernético existente; pero los fallos que redunden en daños a la marca, daños corporales y daños a la propiedad probablemente no estarán cubiertos por el seguro cibernético vigente

5.2. Descripción específica de los riesgos incluidos en la cobertura

En la práctica, las pólizas incluirán las coberturas básicas de la propia responsabilidad civil de los operadores de sistemas de inteligencia artificial, amén de su defensa jurídica frente a reclamaciones de terceros usuarios perjudicados y la prestación de fianzas judiciales para garantizar las responsabilidades civiles profesionales tanto derivadas de ilícitos civiles como de delito.

En este punto, interesa aislar cinco tipos de daños digitales asociados a la AI/ML que podrían estar cubiertos por el seguro cibernético vigente y otros que no lo estarían, por lo que precisarían de un seguro específico de AI y ML: Los ataques de robo de modelos (“Model Stealing Attacks”), la fuga de datos (“Data Leakage”), el daño corporal (“Bodily Harm”), el daño a la marca (“Brand Damage”) y el daño a la propiedad física (“Damage to Physical Property”)[48].

5.3. Descripción específica de los riesgos excluidos de la cobertura

En la práctica, las pólizas excluirán la responsabilidad civil derivada de una actuación dolosa del operador o del desarrollo de actividades ajenas al ejercicio de su actividad profesional de desarrollo de sistemas de inteligencia artificial, así como los daños causados al propio notario por infidelidades de sus empleados.

En todo caso, hay que tener en cuenta que la exclusión de cobertura en caso de actuación dolosa del operador no excluirá su defensa jurídica frente a reclamaciones, si bien concede al asegurador un derecho de repetición frente al notario en caso de acreditación de su actuación dolosa.

6. La delimitación temporal del riesgo cubierto por referencia a las reclamaciones presentadas contra el operador de Sistemas de Inteligencia Artificial asegurado. Las cláusulas “Claims Made”

El análisis de las características propias de las futuras reclamaciones de la responsabilidad civil de los operadores de los sistemas de inteligencia artificial, tanto ante la jurisdicción civil como ante la penal; nos permite vaticinar que sus negligencias profesionales se pueden manifestar pasado un tiempo desde el momento de su comisión. Es por ello por lo que, en este tipo de seguros de responsabilidad civil profesional, tiene particular importancia la delimitación temporal del riesgo cubierto. Ello es así porque, con frecuencia, el daño en el patrimonio del usuario de un sistema de inteligencia artificial se manifestará pasado un tiempo desde la intervención del operador y, por ello, la reclamación del tercero perjudicado o de sus herederos se formulará en ese momento. En tal caso, es posible que, durante ese periodo de tiempo, haya sobrevenido un periodo de seguro distinto. Lo cual no planteará problemas de cobertura si continúa actuando el mismo asegurador en ambos periodos; pero si puede plantearlos si hay un cambio el asegurador.

Lo anterior nos lleva a recordar que, en este tipo de seguro, existen dos acontecimientos fundamentales para determinar la cobertura del asegurador que son, por su orden cronológico: primero, el hecho causante o generador del daño, que consistirá en la utilización del sistema de inteligencia artificial, acaecido en el día X; y, segundo, la reclamación del usuario de aquel sistema que resulte perjudicado que será posterior a la manifestación del daño o lesión patrimonial, acaecida en el día Y, siendo Y posterior a X. Cabría, incluso, referirse, basándose en la doctrina jurisprudencial, a tres hechos relevantes: la utilización del sistema de inteligencia artificial; el de la ocurrencia o manifestación del daño y el de la formulación de la reclamación contra el operador por parte del usuario perjudicado.

Es importante señalar que la jurisprudencia de la Sala Primera de lo Civil del Tribunal Supremo tiene reiteradamente establecido –sobre la base del párrafo primero del art. 73 de la LCS que, como antes vimos, se refiere al “nacimiento a cargo del asegurado de la obligación de indemnizar a un tercero los daños y perjuicios causados por un hecho previsto en el contrato”- que el momento decisivo para determinar la cobertura del asegurador es aquel en el que se produce el hecho generador de la responsabilidad civil. Que, en este seguro será el acto o intervención del operador.

Lo anterior significa que la póliza de seguro de responsabilidad civil profesional del operador de los sistemas de inteligencia artificial deberá cubrir a los operadores asegurados frente a reclamaciones que deriven de actos o intervenciones acaecidas en el periodo de seguro, con independencia del momento en el que aquellas reclamaciones se formulen; si bien puede limitar aquellas reclamaciones siempre que se cumplan la garantías establecidas en el segundo párrafo del art. 73 de la LCS, a las que nos referimos seguidamente. En efecto, partiendo de la distinción anterior, entre el hecho causante (utilización del sistema de inteligencia artificial) y la reclamación del usuario como tercero perjudicado o de sus herederos, podemos distinguir dos hipótesis temporales:

a) La primera es cuando la utilización del sistema de inteligencia artificial (hecho causante) y la reclamación del usuario perjudicado coinciden en el período de vigencia de la póliza. En este caso de coincidencia temporal no hay duda razonable sobre la cobertura por parte del asegurador de la responsabilidad civil reclamada de ese periodo.

b) La segunda se produce cuando solo uno de tales hechos acaece en el período de seguro. A su vez, pueden darse dos situaciones de divergencia temporal: La primera se producirá cuando la utilización del sistema de inteligencia artificial anterior al período de seguro da origen a una reclamación durante la vigencia de la póliza. La segunda se produce cuando la utilización del sistema de inteligencia artificial acaecida durante la vigencia de la póliza da lugar a una reclamación posterior.

Para permitir la programación en las pólizas de ambas hipótesis y por razones de seguridad jurídica, el legislador introdujo un segundo párrafo en el art. 73 de la LCS para fijar las condiciones de admisibilidad de las cláusulas que delimitan la cobertura de los seguros de responsabilidad civil por referencia a las reclamaciones (las denominadas “claims made”)[49].

Por lo tanto, resulta admisible excluir la cobertura del asegurador mediante la correspondiente cláusula limitativa en la póliza de seguro que deje fuera las reclamaciones realizadas más allá del año siguiente al término del período de seguro o los usos del sistema de inteligencia artificial acaecidos con una antelación superior a un año al inicio de efectos de la póliza. Y, por esta misma razón, a falta de cláusulas limitativas en los sentidos indicados, el asegurador responderá de la cobertura de la responsabilidad civil del operador asegurado derivada de la utilización del sistema de inteligencia artificial acaecida durante el período de vigencia de la póliza, con independencia del momento en que se produzca la reclamación del usuario perjudicado, siempre que el tercer perjudicado demuestre que el hecho causante se produjo en el período del seguro y ello porque la Jurisprudencia da primacía al propio hecho causante[50].

En la práctica, las pólizas delimitarán temporalmente el riesgo cubierto por referencia a la presentación formal de la reclamación frente al operador del sistema de inteligencia artificial (mediante comunicación escrita, carta, fax, telegrama, etc.) durante el periodo de vigencia de la póliza, con independencia de que el hecho causante se haya producido antes de la vigencia de la póliza (siempre que fuera desconocido) o durante dicha vigencia.

7. La defensa jurídica del operadores de Sistemas de Inteligencia Artificial asegurado frente a la reclamación del usuario perjudicado o de sus herederos.

En estos seguros de responsabilidad civil de los operadores de sistemas de inteligencia artificial, por regla general y en un principio, el asegurador asumirá la dirección jurídica frente a la reclamación del usuario perjudicado contra el operador y serán de su cuenta los gastos de defensa que se ocasionen. Y el operador asegurado deberá prestar la colaboración necesaria en orden a la dirección jurídica asumida por el asegurador (art. 74 LCS)[51].

La regla general anterior cuenta con dos excepciones, todo ello conforme a lo dispuesto en el art. 74 de la LCS[52]:

a) La primera es voluntaria u optativa y consiste en que la póliza otorgue al operador tomador y asegurado la facultad de elegir al abogado o procurador que asuma la dirección jurídica de su defensa, cubriendo el asegurador los gastos consiguientes. En la práctica, cuando un seguro de responsabilidad civil profesional reconoce al asegurado dicha facultad (lo que sucede, por ejemplo, en algunos seguros de responsabilidad civil de administradores y directivos de sociedades, denominados seguros de D&O), el asegurador se reserva la aprobación previa de los honorarios del abogado elegido o admite “ab initio” los honorarios de los abogados de un “panel” de firmas legales relacionadas en un anexo de la póliza.

b) La segunda excepción es obligatoria y nace cuando quien reclame esté también asegurado con el mismo asegurador o exista algún otro posible conflicto de intereses porque, en este caso, el asegurador deberá comunicar de inmediato al operador de sistemas de inteligencia artificial asegurado y demandado la existencia de esas circunstancias para que asegurado pueda optar entre mantener la dirección jurídica por el asegurador o confiar su propia defensa a otra persona, abonando el asegurador los gastos de tal dirección jurídica hasta el límite pactado en la póliza. Y todo ello sin perjuicio de que el asegurador deberá realizar aquellas diligencias que por su carácter urgente sean necesarias para la defensa del al personal de enfermería asegurado y demandado. En la práctica, la póliza establece un mecanismo de designación de los abogados defensores del notario demandado de común acuerdo entre la entidad aseguradora abridora de la póliza y el Consejo General tomador de la misma; con aceptación automática por la primera de los letrados incluidos en la relación que obra en el protocolo de gestión de siniestros, siempre que sus honorarios se acomoden a las reglas acordadas en dicho protocolo. Se reserva al operador asegurado la facultad de designar libremente a letrados y procuradores que le asistan en procedimientos abiertos ante la jurisdicción penal, si bien con reserva de comunicación a la aseguradora de los criterios de fijación de sus honorarios.

8. La acción directa del usuario de un Sistema de Inteligencia Artificial perjudicado o sus herederos contra el asegurador del operador

Al amparo del seguro de responsabilidad civil de los operadores de sistemas de inteligencia artificial, el usuario perjudicado por la actuación profesional dañosa del operador asegurado o sus herederos podrán dirigir una acción directa contra el asegurador para exigirle el cumplimiento de la obligación de indemnizar. Frente a esta acción directa, el asegurador no podrá oponer al tercero perjudicado las excepciones que tenga frente al notario asegurado; pero si podrá oponer la culpa exclusiva del perjudicado y las excepciones personales que tenga contra éste (art. 76 LCS)[53].

En relación con lo anterior, hay que hacer dos precisiones que afectan a otras tantas relaciones:

a) Primera, a la relación entre el notario asegurado y el asegurador porque, si el siniestro ha sido fruto de una conducta dolosa del operador asegurado, el asegurador, después de pagar la indemnización al tercero perjudicado o a sus herederos, tendrá derecho de repetición contra el operador asegurado.

b) Segunda, a la relación entre el operador asegurado y el usuario perjudicado, porque el primero está obligado a manifestar al tercero perjudicado o a sus herederos la existencia del contrato de seguro y su contenido. Todo ello conforme a lo dispuesto en el art. 76 de la LCS[54].

9. La transparencia de las condiciones del seguro de Responsabilidad Civil de los operadores de Sistemas de Inteligencia Artificial

Según adelantamos al hablar de la aplicación a este seguro de las normas de ordenación y supervisión contenidas en la LOSSEAR y en el ROSSEAR, el impacto fundamental de esta normativa de ordenación se produce en cuanto a los deberes de información al tomador del seguro y al operador asegurado[55]. En concreto, estos deberes de los aseguradores - que se corresponden con otros tantos derechos de los primeros- inciden en los tres aspectos siguientes: En la información previa general que debe ofrecer el asegurador sobre su identificación y el régimen de las eventuales reclamaciones. En la información previa específica que debe ofrecer en los seguros colectivos a través de los boletines de adhesión o certificados de seguro. En la información financiera y de solvencia del asegurador.

10. El contenido del contrato de Seguro de Responsabilidad Civil de los operadores de Sistemas de Inteligencia Artificial

10.1. Las obligaciones del tomador y de los asegurados.

Procede destacar las particularidades que presentarán las obligaciones siguientes:

a) En cuanto a la declaración precontractual del riesgo, en estas pólizas se establecerá que el seguro se basa en la declaración de las circunstancias del riesgo por el tomador conforme al cuestionario presentado por el asegurador (art. 10 LCS). Y, conforme a este precepto legal, conviene recordar que la omisión de circunstancias relevantes por el tomador, cuando se acredite que hayan sido imputables a su dolo o culpa grave, puede conducir a la liberación de sus obligaciones por el asegurador. En este punto, tendrá una importancia decisiva la calificación del sistema de IA como de alto riesgo. evitar reiteraciones innecesarias, nos remitimos a lo dicho en el epígrafe I.3.3. de este estudio sobre la Propuesta de Reglamento aneja a la RIAR que distingue dos regímenes de responsabilidad civil derivada de los sistemas de IA de acuerdo con su grado de riesgo respectivo y, en especial, prevé un régimen de responsabilidad objetiva de los sistemas de IA de alto riesgo.

b) En cuanto al pago de la prima, en estas pólizas se podrá establecer el pacto en contrario previsto en el art. 15 de la LCS conforme al cual, la cobertura de la póliza tiene plenos efectos desde la fecha que se indique, sin que se produzca la liberación del asegurador aun cuando el siniestro se produzca antes de que se haya pagado la primera prima. Pacto este innecesario cuando se trate de primas sucesivas.

c) En cuanto a la comunicación de la agravación del riesgo, en estas pólizas se establecerá, previsiblemente, que su tomador se obligará a comunicar al asegurador la alteración sustancial del riesgo. Deber este que –conforme a la redacción vigente del art. 11 de la LCS- debe entenderse referido a los factores y circunstancias declaradas en el cuestionario y que sean de tal naturaleza que, si hubieran sido conocidas por el asegurador en el momento de la perfección del contrato, no lo hubiera celebrado o lo hubiera concluido en condiciones más gravosas.

10.2. Las obligaciones del asegurador.

Procede destacar las particularidades que presentarán las obligaciones siguientes:

a) En cuanto al pago de la indemnización, se plantearán dos cuestiones de la máxima importancia que son: Por una parte, la fijación de la suma asegurada (art. 27 LCS) que podrá afectar a un doble nivel, cuando se trate de pólizas colectivas: a nivel individual, donde se fija la cuantía máxima en euros por siniestro y operador asegurado; y, a nivel colectivo, donde se fija la cuantía máxima agregada en euros por todos los operadores asegurados y todas las coberturas durante el periodo anual del vigencia de la póliza. En este punto, por lo tanto, tiene una especial importancia la delimitación contractual de lo que se entiende por siniestro, incluyendo el siniestro en serie. Por otra parte, la fijación de las franquicias o deducibles que aplicará el asegurador por cada siniestro, tanto con carácter general como con carácter particular para cada cobertura.

b) En cuanto a la gestión del siniestro, en estas pólizas se establecerán protocolos de actuación de común acuerdo entre el operador del sistema de inteligencia artificial que actúe como tomador y asegurado y los aseguradores para administrar de la forma más eficiente las reclamaciones.

11. Algunos ejemplos de exigencia de la contratación de seguros de Responsabilidad Civil obligatorios para los operadores profesionales de la Inteligencia Artificial

11.1. Los seguros de responsabilidad civil obligatorios para los operadores profesionales de la inteligencia artificial en general dentro del Derecho de la UE proyectado

La Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a la responsabilidad civil por el funcionamiento de los sistemas de inteligencia artificial que obra en el Anexo a la RIAR dice que su objeto consistirá en “establecer normas en relación con las demandas por responsabilidad civil de las personas físicas y jurídicas contra los operadores de sistemas de IA” (art. 1) y su ámbito de aplicación se extenderá, “en el territorio de la Unión a aquellos casos en que una actividad física o virtual, un dispositivo o un proceso gobernado por un sistema de IA haya causado daños o perjuicios a la vida, la salud, la integridad física de una persona física y los bienes de una persona física o jurídica, o bien haya causado daños morales considerables que den lugar a una pérdida económica comprobable” (art. 2).

Una vez fijado su objetivo y su ámbito de aplicación, la Propuesta de Reglamento aneja a la RIAR distingue dos regímenes de responsabilidad civil derivada de los sistemas de IA de acuerdo con su grado de riesgo respectivo. En primer lugar, un régimen de responsabilidad objetiva de los sistemas de IA de alto riesgo que se establece diciendo que “el operador de un sistema de IA de alto riesgo será objetivamente responsable de cualquier daño o perjuicio causado por una actividad física o virtual, un dispositivo o un proceso gobernado por dicho sistema de IA”. Adviértase que el anexo al Reglamento enumerará todos los sistemas de IA de alto riesgo y los sectores críticos en los que se utilizan y la Comisión estará facultada para adoptar actos delegados para modificar dicha lista exhaustiva (art. 4).

Como un elemento típico de las regulaciones de los sistemas de responsabilidad civil objetiva se establece su cobertura preventiva mediante la exigencia de un seguro obligatorio de responsabilidad civil para los operadores de sistemas de IA de alto riesgo. El diseño inicial de este seguro se basa en el régimen del seguro de la responsabilidad civil que resulta de la circulación de vehículos automóviles[56].

11.2. Los seguros obligatorios de responsabilidad civil que exige a los promotores de los espacios controlados de pruebas (“regulatory sandboxes”) la Ley 7/2020, para la transformación digital del sistema financiero y su aseguramiento

En el Derecho español vigente, procede destacar el régimen de la responsabilidad civil del promotor por los daños infligidos a los participantes como consecuencia de su participación en las pruebas que ha establecido la Ley 7/2020, de 13 de noviembre, para la transformación digital del sistema financiero al regular los espacios controlados de pruebas (“regulatory sandboxes”)[57]. En efecto, su art. 12 establece un régimen de la responsabilidad que opera sobre una doble base:

a) Subjetiva que establece la identidad de los sujetos deudores y acreedores de la deuda de responsabilidad que, a su vez, opera en dos sentidos:

a.1) En sentido afirmativo, por la imputación de la eventual responsabilidad al promotor del proyecto con un doble alcance de imputación subjetiva o por culpa cuando dice que “la responsabilidad por los daños sufridos por los participantes como consecuencia de su participación en las pruebas será exclusivamente del promotor cuando se produzcan por un incumplimiento suyo del protocolo, se deriven de riesgos no informados por él o cuando medie culpa o negligencia por su parte” e imputación cuasi-objetiva o por riesgo cuando dice que “en caso de daños derivados de fallos técnicos o humanos durante el transcurso de las pruebas la responsabilidad será igualmente del promotor”.

a.2) En sentido negativo, por la exclusión de la responsabilidad de las autoridades que intervengan durante el desarrollo de las pruebas que “no serán responsables de los posibles daños y perjuicios que pudieran originarse”[58].

b) Objetiva que establece la noción del daño resarcible cuando la Ley 7/2020 precisa que “no se considerarán daños las pérdidas que deriven de la fluctuación de los mercados conforme a lo establecido para cada caso en el correspondiente protocolo” (art. 12.2) y añade que “los participantes serán resarcidos conforme al régimen previsto en el protocolo de las pérdidas patrimoniales y otros daños derivados directamente de dicha participación siempre que el promotor sea responsable del perjuicio causado conforme a lo previsto en este artículo” (art. 12.3).

Y la muestra de la interferencia típica entre el establecimiento de una responsabilidad civil legal de un operador económico profesional y su cobertura preventiva mediante un seguro obligatorio se nos muestra cuando este régimen específico de responsabilidad civil se completa -como es habitual- con una referencia genérica que establece el art. 13 de la Ley 7/2020 a la cobertura preventiva del riesgo de esta eventual responsabilidad por los daños y perjuicios mediante la contratación por los promotores de garantías financieras suficientes en forma de seguros, avales bancarios o fianzas.

IV. Conclusiones [arriba] 

Primera. La responsabilidad civil de los operadores de sistemas de inteligencia artificial y su aseguramiento muestran, en los últimos tiempos y mostrarán con mayor intensidad en un futuro inmediato, una interacción en forma de interferencia recíproca directamente proporcional ya que, a mayor número de reclamaciones, mayor necesidad del seguro de responsabilidad civil que, a su vez, favorecerá las reclamaciones, dada la conciencia del usuario o consumidor de la existencia del patrimonio solvente de la aseguradora para cubrir los daños que ha sufrido a resultas del uso de los sistemas de inteligencia artificial.

Segunda. El contraste que se observa en la actualidad entre un cierto subdesarrollo de la “cultura de la reclamación” en el mundo de la inteligencia artificial y el desarrollo notable de los usos de dicha inteligencia permite aventurar un crecimiento exponencial de las reclamaciones de responsabilidad civil -en sede judicial y extrajudicial- de los consumidores frente a los operadores de sistemas de inteligencia artificial en un futuro próximo.

Tercera. Es más que previsible que las reclamaciones de responsabilidad civil contra los operadores de sistemas de inteligencia artificial se incrementen en su número y cuantía tanto por razones generales, como es la denominada “cultura de la reclamación” que rige en las sociedades desarrolladas respecto de las actividades económicas y las profesiones en general; como por razones específicas, como son la digitalización creciente de la economía y, en particular, de las tecnofinanzas (Fintech) con el empleo masivo de algoritmos (que generarán mayor riesgo de siniestralidad conforme a la ecuación de función – obligación – responsabilidad).

Cuarta. La responsabilidad civil de los operadores de sistemas de inteligencia artificial puede derivar de ilícitos civiles, en forma de responsabilidad contractual o extracontractual, conforme a los arts. 1101 y 1902, respectivamente, del Código Civil; o de ilícitos penales, en forma de responsabilidad civil derivada de delito, delito conforme al art. 116 del Código Penal. Respecto de esta última destaca la responsabilidad civil directa del asegurador que establece en artículo 117 del Código Penal.

Quinta La exigencia de responsabilidad civil a los operadores de sistemas de inteligencia artificial requiere acreditar la concurrencia de tres requisitos esenciales: la actuación negligente o dolosa del operador, el daño sufrido por el usuario que la reclama y la relación de causalidad eficiente entre los dos elementos anteriores.

Sexta. En cuanto al primer requisito de la actuación negligente o dolosa del operador de sistemas de inteligencia artificial, los fallos en los sistemas de inteligencia artificial pueden ser de dos tipos: fallos intencionados, jurídicamente calificables como dolosos o gravemente culposos; y fallos no intencionados o casuales, que pueden proceder de negligencia leve o de fuerza mayor o caso fortuito. A su vez, ambos fallos pueden proceder del operador asegurado, de sus empleados o de un tercero que interfiera en el funcionamiento de tales sistemas (por ejemplo, después de la comercialización de un producto que incorpora factores de IA). Cada tipo de fallo producirá -o no- el nacimiento de la deuda correspondiente de responsabilidad civil y será imputable al sujeto causante respectivo; jugando, en caso de duda y en defensa del usuario, el principio de solidaridad de los agentes de los sistemas de IA.

Séptima. En cuanto se refiere al segundo requisito de la acreditación de un daño patrimonial, este daño debe caracterizarse por ser real (que pueda probarse su existencia), resultar evaluable económicamente y constituir una lesión física o mental o bien daño material o inmaterial. El examen de la jurisprudencia en este tipo de seguros de responsabilidad civil profesional o empresarial nos permite aventurar que una parte significativa de las reclamaciones se desestimarán porque los actores no acreditarán el daño patrimonial sufrido; sin que ello sea óbice para recordar que, en algunas ocasiones, los tribunales han admitido como daño resarcible la pretensión de reparación in natura por equivalencia y han condenado también a indemnizar los daños morales.

Octava. En cuanto se refiere al tercero de los requisitos, consistente en la acreditación de una relación de causalidad eficiente entre el acto negligente del operador de sistemas de inteligencia artificial y el daño patrimonial sufrido por el usuario que reclama; podemos pronosticar, sobre la base del examen de la jurisprudencia dictada sobre este tipo de seguros de responsabilidad civil profesional o empresarial, que una parte significativa de reclamaciones de responsabilidad civil de los operadores de sistemas de IA se desestimarán por falta de acreditación de aquella relación de causalidad por los reclamantes.

Novena. El aseguramiento de la responsabilidad civil de los operadores de sistemas de inteligencia artificial se realizará mediante un seguro de responsabilidad civil que presentará tres características esenciales: será un seguro obligatorio para los sistemas de inteligencia artificial de alto riesgo y voluntario para el resto de sistemas de inteligencia artificial; será un seguro de responsabilidad civil empresarial o profesional; y podrá estructurarse como un seguro individual o colectivo.

Décima. El seguro de responsabilidad civil de los de los operadores de sistemas de inteligencia artificial se regirá por la normativa específica que le resulte aplicable, cuando se trate de un seguro obligatorio de los sistemas de inteligencia artificial de alto riesgo y por la Ley de Contrato de Seguro, que se aplicará con carácter imperativo por regla general o dispositivo si se trata de un seguro por grandes riesgos que cumpla los requisitos del art. 11 de la LOSSEAR. Todo ello sin perjuicio de que el asegurador deba cumplir con las normas de conducta –especialmente en materia de documentación e información-que le imponen la LOSSEAR y el ROSSEAR.

Undécima. Los puntos críticos del seguro de responsabilidad civil de los operadores de sistemas de inteligencia artificial serán: la delimitación material de la cobertura, con las inclusiones y exclusiones pactadas en la póliza; la delimitación temporal de la cobertura, con la precisión de las reclamaciones cubiertas; el régimen de la defensa jurídica del operador demandado y de la acción directa del usuario perjudicado frente a la aseguradora.

Duodécima. El diseño adecuado del seguro de responsabilidad civil de los operadores de sistemas de inteligencia artificial deberá producir un doble y recíproco beneficio: para los operadores, cuyo patrimonio se mantendrá indemne frente a las reclamaciones de los usuarios perjudicados; y para los usuarios, que contarán con la garantía preventiva y adicional prestada por el asegurador.

 

 

Notas [arriba] 

* Artículo de Reflexión.
** Licenciado en Derecho por la Universidad Autónoma de Madrid. Doctor en Derecho por la Universidad Complutense de Madrid. Es Abogado de Estudio Jurídico Sánchez Calero. Ha sido Letrado de la Comisión Nacional del Mercado de Valores. Es experto en Derecho de seguros y ha intervenido en numerosos litigios relativos a este sector. También tiene una dilatada experiencia en mercados financieros y en Derecho bancario y bursátil. Emite dictámenes e informes en asuntos mercantiles y ha sido requerido para actuar como experto en procedimientos judiciales y arbitrales. Catedrático Acreditado de Derecho mercantil. Facultad de Derecho. Universidad Complutense de Madrid. Contacto: atapia@sanchezcalero.com; Orcid: https://orcid.org/0000-0002-5736-1611

[1] Esta definición se recoge en el documento denominado “Estrategia Española de I+D+I en Inteligencia Artificial” Editado en 2029 por la Secretaría General Técnica del Ministerio de Ciencia, Innovación y Universidades. Publicación incluida en el programa editorial del Ministerio de Ciencia, Innovación y Universidades. Catálogo general de publicaciones oficiales. https://cpage.mpr.gob.es. Documento del que dimos cuenta en la entrada de nuestro blog financiero (ajtapia.com) de 9 de diciembre de 2020 sobre “El desarrollo de la Inteligencia artificial en España: La “Estrategia española de I+D+I en inteligencia artificial” del Gobierno de España”.
[2] Se trata de una adaptación realizada en el Documento de recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas (2020/2012(INL)), Comisión de Asuntos Jurídicos, sobre la base de la definición hecha en la Comunicación de la Comisión Europea al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones, “Inteligencia artificial para Europa”. COM (2018) 237 final, de 25.4.2018, p. 1. que definía estos sistemas como “sistemas que manifiestan un comportamiento inteligente, al ser capaces de analizar su entorno y pasar a la acción —con cierto grado de autonomía— con el fin de alcanzar objetivos específicos”. Entre nosotros, Iturmendi Morales, G., en su estudio sobre la “Responsabilidad civil por el uso de sistemas de Inteligencia Artificial” publicado en Actualidad Civil, Nº 11, Sección Persona y derechos / A fondo, Noviembre 2020, Wolters Kluwer (LA LEY 14075/2020) define los sistemas que emplean la llamada Inteligencia Artificial (IA) como “aquellos que funcionan de forma autónoma interpretando determinados datos de entrada mediante un conjunto de instrucciones predeterminadas, sin limitarse a ellas, a pesar de que el comportamiento del sistema esté orientado a cumplir el objetivo que se le haya asignado y esté limitado por este y por otras decisiones de diseño pertinentes tomadas por su desarrollador”.
[3] Esta definición se recoge en la nota a pie 47 de la página 20 del “Libro Blanco sobre la inteligencia artificial - un enfoque europeo orientado a la excelencia y la confianza” Comisión Europea, “”, Bruselas, 19.2.2020, (COM (2020) 65 final).
[4] Sobre ambos se puede ver nuestro estudio “Las tecnofinanzas (FINTECH). Retos a la regulación y a la supervisión financieras” publicado en la Revista Iberoamericana del Mercados de Valores (RIMV) n.º 54 (julio 2018), pp. 1 y ss.
[5] En todo caso, compartimos el diagnóstico que, entre nosotros, hace Iturmendi Morales, G., en su estudio sobre la “Responsabilidad civil por el uso de sistemas de Inteligencia Artificial” cit. cuando dice: “Podemos afirmar que las herramientas empleadas en los sistemas de IA, la robótica y las tecnologías conexas (los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías), no son el problema. El problema lo constituye el mal uso que se haga de estas tecnologías. Nos encontramos ante un conjunto de tecnologías estratégicas que ofrece numerosas ventajas a particulares, empresas y la sociedad en su conjunto, gracias a las muchas aplicaciones que en ocasiones son gratuitas, atractivas, aparentemente inofensivas y de utilidad práctica. Estas aplicaciones penetran con facilidad en los consumidores, en tales casos no existe una percepción de los riesgos soportados, así como que, al utilizarlas, el producto verdaderamente es el propio usuario”.
[6] En este sentido, ver las entradas de nuestro blog financiero (ajtapia.com) de 23.11.2020 sobre “Nuevos fraudes informáticos en el mercado financiero al calor del COVID 19. Advertencia de la CNMV”; 26.11.2020 sobre “Del furtivo cibernético al cazador desaprensivo: “Aviso al navegante” de la CNMV sobre determinadas malas prácticas en la comercialización transfronteriza de servicios de inversión por entidades radicadas en la UE”; de 10.12.2020 sobre “Ciberseguridad institucional: “phishing” del dominio de la CNMV en época de la pandemia del COVID 19”.
[7] A esta “interferencia recíproca de la evolución de la responsabilidad civil y su seguro” se refería nuestro Maestro Fernando Sánchez Calero, en su comentario al art. 73 de la LCS en Sánchez Calero F. (Dir.) y otros, “Ley de Contrato de Seguro. Comentarios a la Ley 50/1980, de 8 de octubre y a sus modificaciones”, 4ª Edición, Cizur Menor 2010, p.1594 y ss. Ver, asimismo, Garrigues, J., “L'assicurazione della responsabilità civile totale nel diritto spagnolo”, A.S.S., I, 1963, pág. 295 y ss. En fecha reciente, puede verse nuestro estudio Tapia Hermida, A.J. “La responsabilidad civil derivada del uso de la inteligencia artificial y su aseguramiento” en la Revista de la Asociación Española de Abogados Especializados en Responsabilidad Civil y Seguro n.º 76 (2020), pp. 79 a 104.
[8] Sobre esta tendencia expansiva del seguro de responsabilidad civil pueden verse las siguientes obras: AA.VV., “Perfiles de la responsabilidad civil en el nuevo milenio”, (Coord. Moreno Martínez, J.A.), Madrid 2000 y AA.VV., “Estudios sobre el aseguramiento de la responsabilidad en la gran empresa” (Dir. Sánchez Calero, F.) Madrid 1994.
[9] Sobre la configuración legal de estos seguros obligatorios de responsabilidad civil y sus consecuencias se puede ver nuestra “Guía del Contrato de Seguro”, Colección Monografías Aranzadi, Aranzadi, Cizur Menor (2018), pág. 136 y ss.
[10] V. Goñi Sein, José Luis, “Defendiendo los derechos fundamentales frente a la inteligencia artificial. Lección inaugural del curso académico 2019-2020” Universidad Pública de Navarra y Kearns, M./ Roth, A. “El algoritmo ético», Ed. LA LEY, octubre 2020. Sobre los “riesgos para los derechos fundamentales, protección de los datos personales, privacidad y no discriminación” se refiere entre nosotros, Iturmendi Morales, G., en su estudio sobre la “Responsabilidad civil por el uso de sistemas de Inteligencia Artificial” cit. cuando comienza señalando: “La irrupción disruptiva de la tecnología digital ha puesto en riesgo la protección de los derechos fundamentales como los reconocidos en el Capítulo 3 de la Carta de los Derechos Fundamentales de la UE”.
[11] Ver las entradas de nuestro blog financiero (ajtapia.com) de 18 de junio de 2019 sobre “Los siete requisitos esenciales para una inteligencia artificial fiable. Comunicación de la Comisión Europea de 8 de abril de 2019”; de 14 de enero de 2020 sobre “Responsabilidad derivada del uso de la inteligencia artificial. Informe del Grupo de Expertos de la Comisión Europea de 2019 (1). Características esenciales de los regímenes de responsabilidad derivada de la inteligencia artificial y el uso de otras tecnologías digitales”; de 15 de enero de 2020 sobre “Responsabilidad derivada de la inteligencia artificial en los mercados financieros. Informe del Grupo de Expertos de la Comisión Europea de 2019 (2) Cobertura preventiva de responsabilidad mediante los seguros de responsabilidad civil y los fondos de compensación”. No pretendemos ser exhaustivos, sino selectivos y así, dejamos al margen, por ejemplo, documentos de indudable interés en la materia como el “Libro Blanco sobre la inteligencia artificial - un enfoque europeo orientado a la excelencia y la confianza” Comisión Europea, “”, Bruselas, 19.2.2020, (COM (2020) 65 final).
[12] Ver nuestros estudios “Decálogo de la inteligencia artificial ética y responsable en la Unión Europea” publicado en el Diario La Ley del 4 de diciembre de 2020 y “Regulación de la inteligencia artificial en la Unión Europea. Ética y responsabilidad” publicado en La Ley Unión Europea, número 87 de diciembre de 2020.
[13] P9_TA-PROV(2020)0275. Se puede consultar la entrada de nuestro blog financiero (ajtapia.com) de 12 de noviembre de 2010 sobre “Digitalización financiera: Los 7 principios regulatorios de una Inteligencia Artificial Ética (IAE) en la UE. Resolución del Parlamento Europeo de 20 de octubre de 2020 sobre los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas”.
[14] P9_TA-PROV(2020)0276. Se puede consultar la entrada de nuestro blog financiero (ajtapia.com) de 13 de noviembre de 2020 sobre “Digitalización financiera: Los 3 principios regulatorios de una Inteligencia Artificial Responsable (IAR) en la UE. Resolución del Parlamento Europeo de 20 de octubre de 2020 sobre la responsabilidad civil en materia de inteligencia artificial”.
[15] Cuando dice: “Considerando que el concepto de «responsabilidad civil» desempeña un importante doble papel en nuestra vida cotidiana: por una parte, garantiza que una persona que haya sufrido un daño o perjuicio tenga derecho a reclamar y recibir una indemnización a quien se haya demostrado que es responsable de dicho daño o perjuicio y, por otra parte, proporciona incentivos económicos para que las personas físicas o jurídicas eviten en primer lugar causar daños o perjuicios o consideren en su comportamiento el riesgo de tener que pagar una indemnización”.
[16] El PE sigue diciendo: “en particular los aspectos éticos, jurídicos, económicos y sociales, a fin de evitar las confusiones y los temores injustificados que esa tecnología pueda causar entre los ciudadanos; que el estudio cuidadoso de las consecuencias de cualquier nuevo marco normativo para todos los agentes en una evaluación de impacto debe ser un requisito previo para adoptar nuevas medidas legislativas”.
[17] Comisión Europea, “Libro Blanco sobre la inteligencia artificial - un enfoque europeo orientado a la excelencia y la confianza”, Bruselas, 19.2.2020, (COM (2020) 65 final). En particular, este Informe -según refiere el Libro Blanco ( pág. 19) “Llega a la conclusión de que la legislación vigente sobre seguridad de los productos ya recoge un concepto amplio de protección de la seguridad frente a todo tipo de riesgos derivados del producto en función de su uso. No obstante, cabe introducir disposiciones que aborden de manera explícita los nuevos riesgos derivados de las tecnologías digitales emergentes, a fin de ofrecer mayor seguridad jurídica” y señala: “Las características de las tecnologías digitales emergentes, como la inteligencia artificial, el internet de las cosas y la robótica, pueden poner en cuestión algunos elementos de los marcos de responsabilidad civil y reducir su eficacia. Algunas de estas características podrían dificultar la trazabilidad de los daños sufridos por una persona, lo que resultaría necesario en el caso de una demanda de responsabilidad civil subjetiva según la mayoría de las normas nacionales. Ello podría aumentar significativamente los costes para las víctimas, y haría más difícil exigir o demostrar la responsabilidad civil de los agentes que no sean los productores”.
[18] A tal efecto, el PE -en los apartados 12 y ss. del RIAE- considera que, para determinar si la inteligencia artificial, la robótica y las tecnologías conexas deben considerarse de alto riesgo, es necesario basarse siempre en una evaluación ex ante imparcial, regulada y externa apoyada en criterios concretos y definidos. De tal manera que la inteligencia artificial, la robótica y las tecnologías conexas deben considerarse de alto riesgo cuando su desarrollo, despliegue y uso entrañen un riesgo significativo de causar lesiones o daños a particulares o a la sociedad, vulnerando los derechos fundamentales y las normas de seguridad establecidas en el Derecho de la Unión. En concreto, para evaluar si las tecnologías de inteligencia artificial entrañan un riesgo de ese tipo, el PE considera que deben tenerse en cuenta el sector en el que se desarrollan, despliegan o utilizan, su uso o finalidad específicos y la gravedad de la lesión o daño que cabe esperar que se produzca de forma acumulativa.
[19] Entre nosotros, Iturmendi Morales, G., en su estudio sobre la “Responsabilidad civil por el uso de sistemas de Inteligencia Artificial” cit., cuando se refiere a la “responsabilidad civil por productos, servicios y procedimientos que utilizan sistemas de IA” comienza identifiando al acreedor cuando dice: “Toda persona física o jurídica tiene derecho a obtener la reparación por las lesiones y los daños causados por el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, cuando se infrinjan el régimen jurídico y las obligaciones de gobernanza y diligencia en el debido control encaminadas a evitar y minimizar las consecuencias dañosas cuando se produzcan”.
[20] En este sentido, la RIAR dice: “Considerando que ciertos sistemas de IA presentan importantes retos jurídicos para el actual marco de responsabilidad civil y podrían dar lugar a situaciones en las que su opacidad podría hacer extremadamente costoso, o incluso imposible, determinar quién controlaba el riesgo asociado al sistema de IA o qué código, entrada o datos han provocado en última instancia el funcionamiento lesivo; que este factor podría dificultar la identificación de la relación entre el daño o perjuicio y el comportamiento que lo causa, con el resultado de que las víctimas podrían no recibir una indemnización adecuada”.
[21] Cuando refleja que el PE “opina que las normas en materia de responsabilidad civil que afecten al operador deben cubrir todas las operaciones de los sistemas de IA, independientemente de dónde se lleve a cabo la operación y de que esta sea física o virtual; observa que las operaciones en espacios públicos que exponen a muchas personas a un riesgo constituyen, sin embargo, casos que requieren una consideración más profunda; considera que a menudo las víctimas potenciales de daños o perjuicios no son conscientes de la operación y no suelen disponer de derechos a reclamar por responsabilidad contractual contra el operador; señala que, si se produce un daño o perjuicio, esas personas solo tendrían una pretensión por responsabilidad subjetiva y podrían tener dificultades para demostrar la culpa del operador del sistema de IA, por lo que podrían fracasar las correspondientes demandas por responsabilidad civil”.
[22] Entre nosotros, destacamos lo que dice De La Nuez, E. cuando se cuestiona en «Inteligencia artificial y transparencia», en Derecho Digital e Innovación, N.o 5, Sección Doctrina, Segundo trimestre de 2020, Wolters Kluwer. Diario La Ley, (LA LEY 6786/2020) y formula las agudas preguntas siguientes: “¿Quién responderá si las decisiones tomadas en base a la utilización de inteligencia artificial no son las más adecuadas? ¿Quién responderá por los perjuicios ocasionados?¿Tiene la inteligencia artificial obligaciones? ¿Cómo podemos prevenir sus sesgos? ¿Cómo podemos conocer cómo se han tomado las decisiones para determinar, en su caso, las correspondientes responsabilidades?”
[23] “Debe entenderse la persona física o jurídica que ejerce un grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA y se beneficia de su funcionamiento”.
[24] “debe entenderse la persona física o jurídica que define, de forma continuada, las características de la tecnología, proporciona datos y un servicio de apoyo final de base esencial y, por tanto, ejerce también un grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA”.
[25] “Se entiende cualquier acción del operador que influya en el funcionamiento del sistema de IA y, por consiguiente, en la medida en que expone a terceros a sus potenciales riesgos”.
[26] El PE “considera que esas acciones podrían afectar al funcionamiento de un sistema de IA desde el inicio al fin, al determinar la entrada, la salida o los resultados, o podrían cambiar las funciones o procesos específicos dentro del sistema de IA”.
[27] Además, el PE “subraya que este enfoque basado en el riesgo, que puede incluir varios niveles de riesgo, debe basarse en criterios claros y una definición adecuada de «alto riesgo», así como ofrecer seguridad jurídica; (…) cree que un sistema de IA presenta un alto riesgo cuando su funcionamiento autónomo conlleva un potencial significativo de causar daño a una o más personas, de forma aleatoria y yendo más allá de lo que cabe esperar razonablemente; considera que, a la hora de determinar si un sistema de IA es de alto riesgo, también debe tenerse en cuenta el sector en el que cabe esperar que surjan riesgos importantes y la naturaleza de las actividades realizadas; considera que la magnitud del potencial depende de la relación entre la gravedad del posible daño, la probabilidad de que el riesgo cause un daño”.
[28] Al “criterio de imputación de responsabilidad objetiva” se refiere Iturmendi Morales, G., en su estudio sobre la “Responsabilidad civil por el uso de sistemas de Inteligencia Artificial” cit. cuando comienza diciendo: “La responsabilidad de los fabricantes de productos, prestadores de servicios, operadores y desarrolladores de sistemas de IA está muy cerca de la responsabilidad objetiva sin culpa tal y como la conocemos en nuestro régimen jurídico de responsabilidad civil. Resulta relevante el criterio de imputación de responsabilidad civil basado en que la misma debería ser proporcional a las instrucciones impartidas a los sistemas de IA y a su grado de autonomía o capacidad de aprendizaje, imputación basada en el diseño y seguimiento por parte de los desarrolladores del aprendizaje y entrenamiento del sistema. Sin embargo, no debe ser el único criterio de imputación a considerar, sino que debe conjugarse con el criterio de previsibilidad, evitabilidad del daño y grado de cumplimiento de las normas de gobernanza establecidas de conformidad con la legislación, los principios y los valores de la Unión Europea y por las autoridades nacionales de control”.
[29] Sobre esta Ley, puede verse la entrada de nuestro blog financiero (ajtapia.com) de 17.11.2020 sobre “FINTECH: Ley 7/2020 para la transformación digital del sistema financiero: Espacios controlados de pruebas (“regulatory sandbox”) y otras medidas de innovación en las tecnofinanzas” y nuestro estudio “FINTECH: Comentario urgente de la Ley 7/2020 para la transformación digital del sistema financiero. Espacios controlados de pruebas (“regulatory sandboxes”) y otras medidas de innovación en las tecnofinanzas”, en la Revista de Derecho del Mercado de Valores, RMV n.º 27 (2020).
[30] Resulta particularmente contundente la Ley 7/2020 en esta exclusión cuando reitera que “en ningún caso podrá el protocolo prever que el promotor sea resarcido por la Administración de las pérdidas patrimoniales resultantes de su participación en el espacio controlado de pruebas” (art. 12.4).
[31] Este precepto dispone: “1. Toda persona criminalmente responsable de un delito lo es también civilmente si del hecho se derivaren daños o perjuicios. Si son dos o más los responsables de un delito los jueces o tribunales señalarán la cuota de que deba responder cada uno. 2. Los autores y los cómplices, cada uno dentro de su respectiva clase, serán responsables solidariamente entre sí por sus cuotas, y subsidiariamente por las correspondientes a los demás responsables. a responsabilidad subsidiaria se hará efectiva: primero, en los bienes de los autores, y después, en los de los cómplices. Tanto en los casos en que se haga efectiva la responsabilidad solidaria como la subsidiaria, quedará a salvo la repetición del que hubiere pagado contra los demás por las cuotas correspondientes a cada uno. 3. La responsabilidad penal de una persona jurídica llevará consigo su responsabilidad civil en los términos establecidos en el artículo 110 de este Código de forma solidaria con las personas físicas que fueren condenadas por los mismos hechos”.
[32] V. Sánchez-Calero Guilarte, J./ Tapia Hermida, A.J., “La responsabilidad civil derivada de los delitos de los administradores y directivos de sociedades y su aseguramiento: reflexiones sobre la jurisprudencia reciente” La Ley Mercantil nº 10, Sección banca y seguros (enero 2015), pp. 84 y ss.
[33] Este precepto dispone: “Los aseguradores que hubieren asumido el riesgo de las responsabilidades pecuniarias derivadas del uso o explotación de cualquier bien, empresa, industria o actividad, cuando, como consecuencia de un hecho previsto en este Código, se produzca el evento que determine el riesgo asegurado, serán responsables civiles directos hasta el límite de la indemnización legalmente establecida o convencionalmente pactada, sin perjuicio del derecho de repetición contra quien corresponda”.
[34] A este primer “requisito de la acción relevante, obligaciones para eliminar o paliar los daños de los sistemas de IA” se refiere Iturmendi Morales, G., en su estudio sobre la “Responsabilidad civil por el uso de sistemas de Inteligencia Artificial” cit.
[35]El Dictamen del Comité Económico y Social Europeo sobre «Diligencia debida obligatoria» (Dictamen exploratorio, 2020/C 429/19, DOUE 11.12.2020 pág. C 429/136 y ss.) sigue afirmando, en su apartado 3.14: “Esto no puede interpretarse como una exclusión general de responsabilidad. Los principios rectores de las Naciones Unidas sobre las empresas y los derechos humanos abordan esta cuestión en su comentario al Principio 17 al afirmar: «El hecho de proceder con la debida diligencia en materia de derechos humanos debería reducir el riesgo de acciones judiciales contra las empresas, ya que les permite mostrar que tomaron todas las medidas razonables para evitar cualquier participación en una supuesta vulneración de los derechos humanos. Sin embargo, las empresas que ejerzan esa debida diligencia no deben asumir que de esa forma vayan a quedar automática y plenamente exentas de toda responsabilidad por provocar o contribuir a provocar violaciones de los derechos humanos”.
[36] Sobre esta distinción entre los fallos intencionados (“intentional failures”), en los que un agente intenta subvertir el sistema de IA para lograr sus objetivos de inferir datos de entrenamiento privados, robar el algoritmo subyacente u obtener cualquier resultado deseado del sistema de IA y los fallos casuales o no intencionados (“unintentional failures”), en los que los sistemas de IA fallan por sí mismos, sin ningún tipo de manipulación adversa. Se puede ver la entrada de nuestro blog financiero (ajtapia.com) de 1 de diciembre de 2020 sobre “Robots responsables (1): La responsabilidad civil derivada del uso de la inteligencia artificial y su seguro”
[37] Sobre esta noción amplia del daño potencialmente derivado de la IA ver, entre nosotros Iturmendi Morales, G., en su estudio sobre la “Responsabilidad civil por el uso de sistemas de Inteligencia Artificial” cit.
[38] Es por ello por lo que el apartado 23 de la RIAR - al referirse a los “seguros y sistemas de IA”- manifiesta que el PE “considera que la cobertura de la responsabilidad civil es uno de los factores clave que define el éxito de las nuevas tecnologías, productos y servicios; observa que una cobertura de la responsabilidad civil adecuada es también esencial para garantizar que el público pueda confiar en la nueva tecnología, a pesar de las posibilidades de sufrir un daño o de hacer frente a demandas judiciales por parte de las personas afectadas; observa, al mismo tiempo, que este sistema regulador se centra en la necesidad de explotar y potenciar las ventajas de los sistemas de IA, a la vez que se establecen sólidas salvaguardias”.
[39] Sobre los efectos de esta obligatoriedad prevista en la Disposición adicional segunda de la LOSSEAR sobre en unos seguros de responsabilidad civil profesional pueden verse nuestros estudios sobre “Los seguros obligatorios de responsabilidad civil de los mediadores y de los administradores concursales”. Cuadernos de Derecho y Comercio. Derecho concursal: cuestiones actuales, Extraordinario 2016, Consejo General del Notariado, pp. 643-665 Asimismo, resultan de interés las consideraciones que hacía Fernando Sánchez Calero al comentar el anteriormente vigente art. 75 de la LCS en Sánchez Calero F., Ley de Contrato de Seguro. Comentarios a la Ley 50/1980, de 8 de octubre y a sus modificaciones, 4ª ed. (2010), Thomson Reuters, p. 1700 y ss.
[40] En este sentido, la Disposición adicional segunda de la Ley 20/2015, de 14 de julio, de ordenación, supervisión y solvencia de las entidades aseguradoras y reaseguradoras (en adelante, LOSSEAR) dedicada al “establecimiento e información sobre seguros obligatorios” comienza estableciendo, en su apartado 1, que “se podrá exigir a quienes ejerzan determinadas actividades que presenten un riesgo directo y concreto para la salud o para la seguridad de las personas, incluida la seguridad financiera, la suscripción de un seguro u otra garantía equivalente que cubra los daños y perjuicios que puedan provocar y de los que sean responsables”, añadiendo que “la garantía exigida deberá ser proporcionada a la naturaleza y alcance del riesgo cubierto”.
[41] Sigue diciendo: “Será sujeto infractor la persona física o jurídica que viniera obligada a la suscripción del seguro, pudiendo ser sancionado con multa de 1.000 a 20.000 euros. (…) La instrucción y resolución del procedimiento sancionador corresponderá a la Administración pública competente por razón en la materia cuya regulación impone la suscripción del seguro obligatorio”.
[42] En este sentido, resulta interesante la descripción de los riesgos para la seguridad y el funcionamiento eficaz de productos y servicios que hace, entre nosotros, Iturmendi Morales, G., en su estudio sobre la “Responsabilidad civil por el uso de sistemas de Inteligencia Artificial” cit. cuando comienza diciendo: “Los sistemas que emplean tecnologías de IA, la robótica y las tecnologías conexas pueden presentar nuevos riesgos de seguridad para los usuarios cuando tales tecnologías estén integradas en productos y servicios, ello independientemente de la responsabilidad civil profesional de los técnicos y profesionales responsables del diseño, ejecución y supervisión de estos sistemas”.
[43] Ramo 13 de los Ramos de seguro distintos del seguro de vida enumerados en el Anexo de la LOSSEAR.
[44] Que dispone: “Cuando mediante uno o varios contratos de seguros, referentes al mismo interés, riesgo y tiempo, se produce un reparto de cuotas determinadas entre varios aseguradores, previo acuerdo entre ellos y el tomador, cada asegurador está obligado, salvo pacto en contrario, al pago de la indemnización solamente en proporción a la cuota respectiva. No obstante lo previsto en el párrafo anterior, si en el pacto de coaseguro existe un encargo a favor de uno o varios aseguradores para suscribir los documentos contractuales o para pedir el cumplimiento del contrato o contratos al asegurado en nombre del resto de los aseguradores, se entenderá que durante toda la vigencia de la relación aseguradora los aseguradores delegados están legitimados para ejercitar todos los derechos y para recibir cuantas declaraciones y reclamaciones correspondan al asegurado. El asegurador que ha pagado una cantidad superior a la que le corresponda podrá repetir contra el resto de los aseguradores”.
[45] En este sentido, la Sentencia núm. 541/2016 de 14 septiembre de la Sala Primera de lo Civil del Tribunal Supremo (RJ 2016\4109) estableció que, en una póliza colectiva de seguro de accidentes merecía la calificación de una cláusula limitativa la determinación de la indemnización por incapacidad permanente mediante un porcentaje sobre el capital garantizado en función del grado de invalidez permanente y secuelas sufridas por el asegurado, expresado en una tabla contenida en la condiciones generales, en contradicción con las condiciones particulares, en las que únicamente figura una cifra fija, como importe de la indemnización por tal concepto; y que, no resultaba oponible al asegurado puesto que no constaba que el asegurado hubiera aceptado expresamente dicha limitación, ni siquiera que se le ofreciera la posibilidad de hacerlo, mediante el oportuno boletín de adhesión, o documento similar. También la Sentencia núm. 187/2016 de 16 junio de la Audiencia Provincial de Valladolid (Sección 3ª) (JUR 2016\186070) estimó una reclamación de cantidad derivada de un seguro colectivo de desempleo por considerar que la aseguradora no podía oponer al asegurado el contenido de las cláusulas delimitadoras del riesgo incluidas en las cláusulas generales de la póliza ya que los únicos documentos que fueron facilitados al demandante fueron el boletín de adhesión y el certificado de seguro, sin que las condiciones generales fueran firmadas por éste, careciendo las mismas de virtualidad.
[46] Ver, por todos, los comentarios de Fernando Sánchez Calero a estos preceptos en Sánchez Calero F., Ley de Contrato de Seguro. Comentarios a la Ley 50/1980, de 8 de octubre y a sus modificaciones, cit. p. 1589 y ss.
[47] Se trata de una adaptación de la definición del seguro de responsabilidad civil por el primer párrafo del art. 73 de la LCS que dice: “Por el seguro de responsabilidad civil el asegurador se obliga, dentro de los límites establecidos en la Ley y en el contrato, a cubrir el riesgo del nacimiento a cargo del asegurado de la obligación de indemnizar a un tercero los daños y perjuicios causados por un hecho previsto en el contrato de cuyas consecuencias sea civilmente responsable el asegurado, conforme a derecho”.
[48] Para una descripción detallada de estos cinco tipos de daños digitales asociados a la AI/ML, nos remitimos a la puede la entrada de nuestro blog financiero (ajtapia.com) de 2 de diciembre de 2020 sobre “Robots responsables (2): La responsabilidad civil derivada del uso de la inteligencia artificial y su seguro”.
[49] Lo hace del modo siguiente: “Serán admisibles, como límites establecidos en el contrato, aquellas cláusulas limitativas de los derechos de los asegurados ajustadas al artículo 3 de la presente Ley que circunscriban la cobertura de la aseguradora a los supuestos en que la reclamación del perjudicado haya tenido lugar dentro de un período de tiempo, no inferior a un año, desde la terminación de la última de las prórrogas del contrato o, en su defecto, de su período de duración. Asimismo, y con el mismo carácter de cláusulas limitativas conforme a dicho artículo 3 serán admisibles, como límites establecidos en el contrato, aquéllas que circunscriban la cobertura del asegurador a los supuestos en que la reclamación del perjudicado tenga lugar durante el período de vigencia de la póliza siempre que, en este caso, tal cobertura se extienda a los supuestos en los que el nacimiento de la obligación de indemnizar a cargo del asegurado haya podido tener lugar con anterioridad, al menos, de un año desde el comienzo de efectos del contrato, y ello aunque dicho contrato sea prorrogado”.
[50] En este sentido nos pronunciamos en nuestro manual de “Derecho de seguros y fondos de pensiones”, Ed. Iustel, Madrid 2014, p.184.
[51] Ver, por todos, el comentario del art. 74 de la LCS por Fernando Sánchez Calero en Sánchez Calero F., Ley de Contrato de Seguro. Comentarios a la Ley 50/1980, de 8 de octubre y a sus modificaciones, cit. p. 1589 y ss.
[52] Que dice “Salvo pacto en contrario, el asegurador asumirá la dirección jurídica frente a la reclamación del perjudicado, y serán de su cuenta los gastos de defensa que se ocasionen. El asegurado deberá prestar la colaboración necesaria en orden a la dirección jurídica asumida por el asegurador.(…) No obstante lo dispuesto en el párrafo anterior, cuando quien reclame esté también asegurado con el mismo asegurador o exista algún otro posible conflicto de intereses, éste comunicará inmediatamente al asegurado la existencia de esas circunstancias, sin perjuicio de realizar aquellas diligencias que por su carácter urgente sean necesarias para la defensa. El asegurado podrá optar entre el mantenimiento de la dirección jurídica por el asegurador o confiar su propia defensa a otra persona. En este último caso, el asegurador quedará obligado a abonar los gastos de tal dirección jurídica hasta el límite pactado en la póliza”.
[53] Ver, por todos, el comentario del art. 76 de la LCS por Fernando Sánchez Calero en Sánchez Calero F., Ley de Contrato de Seguro. Comentarios a la Ley 50/1980, de 8 de octubre y a sus modificaciones, cit. p. 1721 y ss.
[54] Que dice: “El perjudicado o sus herederos tendrán acción directa contra el asegurador para exigirle el cumplimiento de la obligación de indemnizar, sin perjuicio del derecho del asegurador a repetir contra el asegurado, en el caso de que sea debido a conducta dolosa de éste, el daño o perjuicio causado a tercero. La acción directa es inmune a las excepciones que puedan corresponder al asegurador contra el asegurado. El asegurador puede, no obstante, oponer la culpa exclusiva del perjudicado y las excepciones personales que tenga contra éste. A los efectos del ejercicio de la acción directa, el asegurado estará obligado a manifestar al tercero perjudicado o a sus herederos la existencia del contrato de seguro y su contenido”.
[55] V el art. 96 de la LOSSEAR y el art. 122 del ROSSEAR.
[56] En este sentido, el PE “opina que, sobre la base del potencial significativo para causar un daño o un perjuicio y teniendo en cuenta la Directiva 2009/103/CE del Parlamento Europeo y del Consejo, de 16 de septiembre de 2009, relativa al seguro de la responsabilidad civil que resulta de la circulación de vehículos automóviles, así como al control de la obligación de asegurar esta responsabilidad, todos los operadores de sistemas de IA de alto riesgo enumerados en el anexo del Reglamento propuesto deben ser titulares de un seguro de responsabilidad civil; considera que ese régimen de seguro obligatorio para los sistemas de IA de alto riesgo debe cubrir los importes y el alcance de la indemnización establecidos por el Reglamento propuesto; es consciente de que actualmente dicha tecnología es todavía muy inusual, ya que presupone un alto grado de toma de decisiones autónomas, y de que, por consiguiente, los debates actuales están orientados sobre todo al futuro; cree, no obstante, que la incertidumbre relacionada con los riesgos no debe hacer que las primas de seguro sean prohibitivamente elevadas y convertirse así en un obstáculo para la investigación y la innovación” (apartado 24 de la RIAR).
[57] Sobre esta Ley, puede verse la entrada de nuestro blog financiero (ajtapia.com) de 17.11.2020 sobre “FINTECH: Ley 7/2020 para la transformación digital del sistema financiero: Espacios controlados de pruebas (“regulatory sandbox”) y otras medidas de innovación en las tecnofinanzas”.
[58] Resulta particularmente contundente la Ley 7/2020 en esta exclusión cuando reitera que “en ningún caso podrá el protocolo prever que el promotor sea resarcido por la Administración de las pérdidas patrimoniales resultantes de su participación en el espacio controlado de pruebas” (art. 12.4).

Para citar este artículo/To cite this article
Tapia Hermida, Alberto J., La responsabilidad civil derivada del uso de la inteligencia artificial y su aseguramiento, 54 Rev.Ibero-Latinoam.Seguros, XX-XX (2021).  https://doi.org/10.11144/Javeriana.ris54.rcdu
Fecha de recepción: 28 de octubre de 2020
Fecha de aceptación: 30 de enero de 2021
Disponible en línea: 30 de junio de 2021