INFORMATION TECHNOLOGY
In vigore la Direttiva UE 2853/2024 sulla responsabilità per danno da prodotti difettosi. Novità in materia di prova e nesso di causalità del danno da sistemi di Intelligenza Artificiale.
L'8 dicembre 2024 è entrata in vigore la direttiva del Parlamento europeo e del Consiglio sulla responsabilità per danno da prodotti difettosi e che abroga la direttiva 85/374/CEE del Consiglio (direttiva sulla responsabilità per danno da prodotti difettosi).
La Direttiva è importante soprattutto perché aggiorna le norme sulla responsabilità all’era digitale e introduce le disposizioni sulla responsabilità per danno da Intelligenza artificiale.
Illuminante quanto previsto dal Considerando 13 della Direttiva:
(13) I prodotti nell’era digitale possono essere tangibili o intangibili. Sul mercato è sempre più diffuso il software, come i sistemi operativi, il firmware, i programmi per computer, le applicazioni o i sistemi di IA, e la sua importanza a fini di sicurezza dei prodotti è sempre maggiore. Il software può essere immesso sul mercato come prodotto a sé stante o può essere poi integrato in altri prodotti come componente e può causare danni dovuti al suo funzionamento. Per garantire la certezza del diritto è opportuno chiarire nella presente direttiva che, ai fini dell’applicazione della responsabilità oggettiva, il software è un prodotto, a prescindere dalle modalità con cui viene fornito o usato, e quindi dal fatto che il software sia integrato in un dispositivo, utilizzato tramite una rete di comunicazione o tecnologie cloud oppure sia fornito attraverso un modello software-as-a-service. Le informazioni, invece, non devono invece essere considerate un prodotto e le norme sulla responsabilità per danno da prodotti difettosi non dovrebbero pertanto applicarsi al contenuto dei file digitali, quali file multimediali, e-book o il mero codice sorgente dei software. Il produttore o lo sviluppatore di software, compreso il fornitore di sistemi di IA ai sensi del regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio (5), dovrebbe essere considerato un fabbricante.
Dunque, uno sviluppatore o un produttore di software, compresi i sistemi di intelligenza artificiale (IA) ai sensi del Regolamento 2024/1689 (AI Act) sono considerati “fabbricanti”, come meglio dall'articolo 4, paragrafo 10, della direttiva:
“fabbricante»: qualsiasi persona fisica o giuridica che: (a) sviluppa, produce o fabbrica un prodotto; (b) fa progettare o fabbricare un prodotto o che, apponendo il proprio nome, marchio o altre caratteristiche distintive su tale prodotto, si presenta come fabbricante; o (c) sviluppa, produce o fabbrica un prodotto per uso proprio.
La direttiva sulla responsabilità per danno da prodotti difettosi stabilisce inoltre che, poiché i prodotti possono essere progettati in modo da consentire di apportare modifiche al software, compresi gli aggiornamenti, gli stessi principi si applicano alle modifiche apportate. Di conseguenza, quando una modifica sostanziale è apportata mediante un aggiornamento del software o un aggiornamento dovuto all'apprendimento continuo di un sistema di IA, il prodotto sostanzialmente modificato è considerato messo a disposizione sul mercato o messo in servizio al momento della modifica.
Fondamentali le norme processuali in materia di prova del danno e del nesso di causalità, prova spesso quasi impossibile da fornirsi ad opera del danneggiato, soprattutto in caso di danno creato da sistemi di IA, a causa del cosiddetto effetto di “scatola nera” dell’algoritmo.
Gli potranno dunque presumere il carattere difettoso di un prodotto o il nesso di causalità tra danno e difetto, o entrambi, nel caso in cui, sebbene il fabbricante convenuto abbia divulgato le informazioni pertinenti, risulti eccessivamente difficile per il danneggiato-attore, in particolare a causa della complessità tecnica e scientifica del caso, provare il carattere difettoso del prodotto o l’esistenza del nesso di causalità, o entrambi. Di conseguenza, peer non compromettere il diritto al risarcimento e considerato che i fabbricanti dispongono di conoscenze specialistiche e di migliori informazioni rispetto al danneggiato e al fine di garantire una giusta ripartizione dei rischi evitando l’inversione dell’onere della prova, qualora le sue difficoltà riguardino la prova del carattere difettoso del prodotto l’attore sarà tenuto a dimostrare soltanto che è probabile che il prodotto fosse difettoso o, qualora le sue difficoltà riguardino la prova del nesso di causalità, soltanto che il carattere difettoso del prodotto è una probabile causa del danno. La complessità tecnica o scientifica sarà determinata dagli organi giurisdizionali nazionali caso per caso, tenendo conto di diversi fattori: dalla natura complessa del prodotto, come nel caso di un dispositivo medico innovativo alla natura complessa della tecnologia impiegata, ad esempio l’apprendimento automatico; dalla natura complessa delle informazioni e dei dati che deve analizzare l’attore alla natura complessa del nesso di causalità, ad esempio tra un prodotto farmaceutico o alimentare e il manifestarsi di una patologia, oppure un nesso per la cui prova l’attore sia tenuto a spiegare il funzionamento interno di un sistema di IA. L’attore dovrà fornire argomentazioni per dimostrare l’esistenza delle sopra citate difficoltà eccessive, ma non sarà tenuto a fornire elementi di prova riguardo a tali difficoltà. Ad esempio, in un’azione avente ad oggetto un sistema di IA, affinché l’organo giurisdizionale possa accertare l’esistenza di difficoltà eccessive, l’attore non sarà tenuto a spiegare le caratteristiche specifiche di tale sistema di IA o il modo in cui tali caratteristiche complicano la prova del nesso di causalità. Il convenuto – invece – avrà comunque la possibilità di contestare tutti gli elementi dell’azione, tra cui l’esistenza di difficoltà eccessive.
La Direttiva è importante soprattutto perché aggiorna le norme sulla responsabilità all’era digitale e introduce le disposizioni sulla responsabilità per danno da Intelligenza artificiale.
Illuminante quanto previsto dal Considerando 13 della Direttiva:
(13) I prodotti nell’era digitale possono essere tangibili o intangibili. Sul mercato è sempre più diffuso il software, come i sistemi operativi, il firmware, i programmi per computer, le applicazioni o i sistemi di IA, e la sua importanza a fini di sicurezza dei prodotti è sempre maggiore. Il software può essere immesso sul mercato come prodotto a sé stante o può essere poi integrato in altri prodotti come componente e può causare danni dovuti al suo funzionamento. Per garantire la certezza del diritto è opportuno chiarire nella presente direttiva che, ai fini dell’applicazione della responsabilità oggettiva, il software è un prodotto, a prescindere dalle modalità con cui viene fornito o usato, e quindi dal fatto che il software sia integrato in un dispositivo, utilizzato tramite una rete di comunicazione o tecnologie cloud oppure sia fornito attraverso un modello software-as-a-service. Le informazioni, invece, non devono invece essere considerate un prodotto e le norme sulla responsabilità per danno da prodotti difettosi non dovrebbero pertanto applicarsi al contenuto dei file digitali, quali file multimediali, e-book o il mero codice sorgente dei software. Il produttore o lo sviluppatore di software, compreso il fornitore di sistemi di IA ai sensi del regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio (5), dovrebbe essere considerato un fabbricante.
Dunque, uno sviluppatore o un produttore di software, compresi i sistemi di intelligenza artificiale (IA) ai sensi del Regolamento 2024/1689 (AI Act) sono considerati “fabbricanti”, come meglio dall'articolo 4, paragrafo 10, della direttiva:
“fabbricante»: qualsiasi persona fisica o giuridica che: (a) sviluppa, produce o fabbrica un prodotto; (b) fa progettare o fabbricare un prodotto o che, apponendo il proprio nome, marchio o altre caratteristiche distintive su tale prodotto, si presenta come fabbricante; o (c) sviluppa, produce o fabbrica un prodotto per uso proprio.
La direttiva sulla responsabilità per danno da prodotti difettosi stabilisce inoltre che, poiché i prodotti possono essere progettati in modo da consentire di apportare modifiche al software, compresi gli aggiornamenti, gli stessi principi si applicano alle modifiche apportate. Di conseguenza, quando una modifica sostanziale è apportata mediante un aggiornamento del software o un aggiornamento dovuto all'apprendimento continuo di un sistema di IA, il prodotto sostanzialmente modificato è considerato messo a disposizione sul mercato o messo in servizio al momento della modifica.
Fondamentali le norme processuali in materia di prova del danno e del nesso di causalità, prova spesso quasi impossibile da fornirsi ad opera del danneggiato, soprattutto in caso di danno creato da sistemi di IA, a causa del cosiddetto effetto di “scatola nera” dell’algoritmo.
Gli potranno dunque presumere il carattere difettoso di un prodotto o il nesso di causalità tra danno e difetto, o entrambi, nel caso in cui, sebbene il fabbricante convenuto abbia divulgato le informazioni pertinenti, risulti eccessivamente difficile per il danneggiato-attore, in particolare a causa della complessità tecnica e scientifica del caso, provare il carattere difettoso del prodotto o l’esistenza del nesso di causalità, o entrambi. Di conseguenza, peer non compromettere il diritto al risarcimento e considerato che i fabbricanti dispongono di conoscenze specialistiche e di migliori informazioni rispetto al danneggiato e al fine di garantire una giusta ripartizione dei rischi evitando l’inversione dell’onere della prova, qualora le sue difficoltà riguardino la prova del carattere difettoso del prodotto l’attore sarà tenuto a dimostrare soltanto che è probabile che il prodotto fosse difettoso o, qualora le sue difficoltà riguardino la prova del nesso di causalità, soltanto che il carattere difettoso del prodotto è una probabile causa del danno. La complessità tecnica o scientifica sarà determinata dagli organi giurisdizionali nazionali caso per caso, tenendo conto di diversi fattori: dalla natura complessa del prodotto, come nel caso di un dispositivo medico innovativo alla natura complessa della tecnologia impiegata, ad esempio l’apprendimento automatico; dalla natura complessa delle informazioni e dei dati che deve analizzare l’attore alla natura complessa del nesso di causalità, ad esempio tra un prodotto farmaceutico o alimentare e il manifestarsi di una patologia, oppure un nesso per la cui prova l’attore sia tenuto a spiegare il funzionamento interno di un sistema di IA. L’attore dovrà fornire argomentazioni per dimostrare l’esistenza delle sopra citate difficoltà eccessive, ma non sarà tenuto a fornire elementi di prova riguardo a tali difficoltà. Ad esempio, in un’azione avente ad oggetto un sistema di IA, affinché l’organo giurisdizionale possa accertare l’esistenza di difficoltà eccessive, l’attore non sarà tenuto a spiegare le caratteristiche specifiche di tale sistema di IA o il modo in cui tali caratteristiche complicano la prova del nesso di causalità. Il convenuto – invece – avrà comunque la possibilità di contestare tutti gli elementi dell’azione, tra cui l’esistenza di difficoltà eccessive.