La responsabilidad por mal funcionamiento de algoritmos en la legislación de la UE

0
4

Autor: Elsa Bivona, Professoressa Ordinaria di Diritto privato Dipartimento di Giurisprudenza- Università di Catania. Correo electrónico: ebivona@lex.unict.it.

RESUMEN: La inteligencia artificial es un tema del que el estudioso del Derecho civil deriva más de un motivo de desaliento, no sólo por la inherente imbricación con conocimientos y disciplinas de carácter técnico, a los que el civilista no suele estar acostumbrado, sino sobre todo por la rapidez con la que la inteligencia artificial se ha introducido en los espacios del Derecho, superando su capacidad de reacción y dejando numerosos interrogantes sin respuesta. Entre ellas, quizá más que otras, emerge la de la responsabilidad por daños vinculados al uso de la inteligencia artificial: incluso el algoritmo puede cometer errores. En este marco, se plantean cuestiones de responsabilidad sin precedentes en caso de que se deriven consecuencias perjudiciales para terceros de procesos automatizados de toma de decisiones mediante algoritmos. En este sentido, si se tiene en cuenta la responsabilidad del productor y la del usuario, también debe tenerse en cuenta una posible contribución causal del programador del algoritmo: para garantizar al perjudicado la máxima protección, no parecen tener cabida los modelos de responsabilidad basados en la culpa, sino que parece más racional la aplicación del régimen más estricto de responsabilidad objetiva. El estudio se detiene en la verificación de las posibles normas aplicables

PALABRAS CLAVE: inteligencia artificial; error algorítmico; responsabilidad objetiva.

ABSTRACT: Artificial intelligence is a subject from which the civil law scholar draws more than one reason for discouragement, not only because of the intrinsic intertwining with knowledge and disciplines of a technical nature, to which the civil jurist is not usually accustomed, but above all because of the speed with which artificial intelligence has entered the spaces of Law, exceeding its capacity to react and leaving numerous questions unanswered. Among these, perhaps more than others, is the question of liability for damages related to the use of artificial intelligence: even the algorithm can make mistakes.

In this context, unprecedented questions of liability arise in the event of harmful consequences for third parties resulting from automated decision-making processes using algorithms. In this regard, if the liability of the producer and the user is taken into account, a possible causal contribution of the algorithm’s programmer must also be considered: in order to ensure maximum protection for the injured party, liability models based on fault do not seem to have a place, but the application of the stricter strict liability regime seems more rational. The study stops at verifying the possible applicable rules.

KEY WORDS: artificial intelligence; algorithmic error; strict liability.

SUMARIO:
I. LA PROBLEMÁTICA DE LA RESPONSABILIDAD POR EL MAL FUNCIONAMIENTO ALGORÍTMICO: QUÉ RÉGIMEN DE RESPONSABILIDAD POR DAÑOS ALGORÍTMICOS. –
II. LAS NORMAS SOBRE IA EN EL DERECHO DE LA UE: LA PROTECCIÓN EX ANTE Y EL REGLAMENTO DE LA LEY DE IA. –
III. EL ERROR ALGORÍTMICO Y LA RESPONSABILIDAD CIVIL DEL PROGRAMADOR A LA LUZ DE LA DIRECTIVA 2024/2853 DE LA UE SOBRE RESPONSABILIDAD POR LOS DAÑOS CAUSADOS POR PRODUCTOS DEFECTUOSOS.-
IV. LA RESPONSABILIDAD DEL USUARIO O “PROPIETARIO” DEL DISPOSITIVO DE IA BAJO EL PRISMA DE LAS NORMAS CODIFICADAS SOBRE RESPONSABILIDAD CIVIL EXTRACONTRACTUAL.

Referencia: Actualidad Jurídica Iberoamericana Nº 23, agosto 2025, ISSN: 2386-4567, pp. 800-821.

Revista indexada en SCOPUS (Q3), CIRC (“B”), ANVUR (clase “A”), RRDe (Q1), IDR (C3), LATINDEX y MIAR.

print

Dejar respuesta

Please enter your comment!
Please enter your name here