Danni  -  Gabriele Gentilini  -  21/01/2024

Responsabilità civile da intelligenza artificiale, orientamenti europei

Dopo avere ricordato un precedente articolo sulla materia https://www.personaedanno.it/articolo/diritto-europeo-sullintelligenza-artificiale-laccordo-del-9-dicembre-2023-sulla-proposta, sembra utile tornare nello specifico argomento della responsabilità civile per i danni cui potenzialmente l'intelligenza artificiale potrebbe dare luogo i quali a loro volta dovranno presumibilmente essere risarciti, con ciò pervenendo a tutte quelle argomentazioni, molto controverse in materia di nuove tecnologie, la responsabilità civile derivante dall’uso di strumenti basati sull’AI.

Una delle ipotesi che sono state fatte per regolare la materia è contenuta nella risoluzione del Parlamento Europeo del 20 ottobre 2020, con la quale è stata prospettata la possibilità di ricorrere alla responsabilità oggettiva del produttore regolata dalla Direttiva 85/374/CEE. In particolare, questa sussiste anche in assenza di colpa, qualora il danneggiato riesca a provare la difettosità del prodotto, il danno e il nesso di causalità tra quest’ultimo ed il difetto.      A titolo di prova liberatoria, il produttore deve invece dimostrare, in base al c.d. rischio di sviluppo, l’imprevedibilità del difetto al momento della messa in circolazione o la sua sopravvenienza con una grande probabile difficoltà dal lato del consumatore  a dimostrare il difetto, il danno subito e il nesso di causalità in relazione a dispositivi altamente tecnologici.

Anche per altre casistiche normate dal codice civile italiano possono sussistere problemi applicativi.   Più precisamente, gli artt. 2050, 2051 e 2052 c.c., correlativamente dedicati alla responsabilità per l’esercizio di attività pericolose, alla responsabilità per danni causati da cose in custodia e a quella per danni causati da animali, sembrerebbe non propriamente adeguate alle fattispecie dei danni derivanti dai dispositivi basati sull’AI che non presentano pericolosità intrinseche particolari (art. 2050 c.c.) e hanno elementi di autonomia e prevedibilità che potrebbero impedire un riferimento agli artt. 2051 e 2052 c.c..

fermo restando ciò che rimane disegnato nella specifica regolamentazione europea e di cui si è accennato nel https://www.personaedanno.it/articolo/diritto-europeo-sullintelligenza-artificiale-laccordo-del-9-dicembre-2023-sulla-proposta, rimane tutta la partita di cui al titolo di questo articolo, l'aspetto connesso alla responsabilità civile (aquiliana o contrattuale che sia) affrontata nella proposta della Commissione europea presentata come  proposta di direttiva europea su “Nuove regole di responsabilità sui prodotti e sull’IA per proteggere i consumatori e promuovere l’innovazione”, che si riporta di seguito.

Nello stesso documento normativo viene descritto come "Le norme nazionali vigenti in materia di responsabilità, in particolare per colpa, non sono adatte a gestire le azioni di responsabilità per danni causati da prodotti e servizi basati sull'IA. In base a tali norme, coloro che subiscono un danno sono tenuti a dimostrare un'azione o un'omissione illecita da parte della persona che ha causato il danno. Le caratteristiche specifiche dell'IA, tra cui la complessità, l'autonomia e l'opacità (il cosiddetto effetto "scatola nera"), possono rendere difficile o eccessivamente costoso, per quanti subiscono un danno, identificare la persona responsabile e dimostrare che sussistono i presupposti ai fini dell'esito positivo di un'azione di responsabilità. In particolare, quando chiedono un risarcimento, i danneggiati potrebbero dover sostenere costi iniziali molto elevati e affrontare procedimenti giudiziari notevolmente più lunghi rispetto a quanto accade nei casi che non riguardano l'IA, venendo pertanto del tutto dissuasi dal chiedere un risarcimento. Tali preoccupazioni sono state condivise anche dal Parlamento europeo (PE) nella sua risoluzione del 3 maggio 2022 sull'intelligenza artificiale in un'era digitale.".

Inoltre recita  "la presente proposta si prefigge pertanto l'obiettivo di promuovere la diffusione di un'IA affidabile affinché sia possibile sfruttarne appieno i vantaggi per il mercato interno e si propone di conseguirlo garantendo a coloro che hanno subito danni causati dall'IA una protezione equivalente a quella di cui beneficiano quanti subiscono danni causati da prodotti di altro tipo. La proposta riduce inoltre l'incertezza giuridica per le imprese che sviluppano o utilizzano l'IA in relazione alla possibile esposizione alla responsabilità e previene la frammentazione derivante da adeguamenti specifici all'IA delle norme nazionali in materia di responsabilità civile.".

Dispone ancora la proposta di direttiva che nella proposta di legge sull'IA la Commissione ha elaborato norme volte a ridurre i rischi per la sicurezza e a tutelare i diritti fondamentali. Sicurezza e responsabilità sono due facce della stessa medaglia: si applicano in momenti diversi e si rafforzano a vicenda. Le norme volte a garantire la sicurezza e a tutelare i diritti fondamentali ridurranno i rischi, senza tuttavia eliminarli del tutto 8 . Da tali rischi, qualora dovessero concretizzarsi, possono comunque scaturire dei danni. In tali casi si applicheranno le norme in materia di responsabilità previste dalla presente proposta.

Norme efficaci in materia di responsabilità costituiscono inoltre un incentivo economico a rispettare le norme di sicurezza, contribuendo pertanto a prevenire il verificarsi di danni 9 . La presente proposta agevola altresì l'applicazione dei requisiti per i sistemi di IA ad alto rischio imposti dalla legge sull'IA, in quanto il mancato rispetto di tali requisiti costituisce un elemento importante che rende possibile un alleggerimento dell'onere della prova. È inoltre coerente con le norme generali 10 e settoriali proposte in materia di sicurezza dei prodotti applicabili ai prodotti macchina 11 e alle apparecchiature radio 12 basati sull'IA.

Nelle sue politiche in materia di IA la Commissione adotta un approccio olistico alla responsabilità proponendo adeguamenti alla responsabilità del produttore per danno da prodotti difettosi a norma della direttiva sulla responsabilità per danno da prodotti difettosi, nonché l'armonizzazione mirata prevista dalla presente proposta. Le due suddette iniziative politiche sono strettamente collegate e danno vita a un pacchetto, in quanto le azioni che rientrano nel loro ambito di applicazione riguardano tipologie diverse di responsabilità. La direttiva sulla responsabilità per danno da prodotti difettosi riguarda la responsabilità oggettiva del produttore per prodotti difettosi, che determina un risarcimento per alcuni tipi di danni subiti principalmente da persone fisiche. La presente proposta contempla le azioni di responsabilità a livello nazionale, principalmente per colpa di una persona, nell'ottica di risarcire qualsiasi tipo di danno e qualsiasi tipo di danneggiato. I due atti sono complementari e formano un sistema generale di responsabilità civile efficace.

Sempre tra le premesse della proposta della direttiva scrive che        una direttiva è lo strumento più adatto per la presente proposta, in quanto garantisce l'effetto di armonizzazione e la certezza del diritto auspicati, prevedendo nel contempo la flessibilità per consentire agli Stati membri di integrare le misure armonizzate senza attriti nei rispettivi regimi nazionali di responsabilità.

Uno strumento obbligatorio eviterebbe lacune in termini di protezione derivanti da un recepimento parziale o inesistente. È improbabile che uno strumento non vincolante, per quanto meno intrusivo, possa affrontare in modo efficace i problemi individuati. Il tasso di attuazione degli strumenti non vincolanti è difficile da prevedere e non vi sono indicazioni sufficienti per ritenere che l'effetto persuasivo di una raccomandazione sarebbe sufficientemente elevato da produrre un adeguamento coerente delle normative nazionali.

Tale effetto è ancora meno probabile per le misure relative al diritto privato, di cui fanno parte le norme in materia di responsabilità extracontrattuale. Si tratta di un settore caratterizzato da tradizioni giuridiche di lunga data, il che rende gli Stati membri riluttanti a perseguire riforme coordinate, a meno che non siano stimolati dalla prospettiva chiara di vantaggi per il mercato interno nel quadro di uno strumento vincolante dell'UE o dalla necessità di adattarsi a nuove tecnologie nell'economia digitale.

Le notevoli divergenze esistenti tra i quadri in materia di responsabilità degli Stati membri sono un altro motivo per cui è improbabile che una raccomandazione sia attuata in modo coerente.

Dopo le domande iniziali sulla responsabilità che facevano parte della consultazione pubblica sul Libro bianco sull'IA e della relazione della Commissione sulla sicurezza e la responsabilità, dal 18 ottobre 2021 al 10 gennaio 2022 è stata aperta un'apposita consultazione pubblica online per raccogliere i pareri di un'ampia gamma di portatori di interessi, tra cui i consumatori, le organizzazioni della società civile, le associazioni industriali, le imprese, comprese le PMI, e le autorità pubbliche. Dopo aver analizzato tutte le risposte pervenute, la Commissione ha pubblicato sul proprio sito web una sintesi dei risultati e le singole risposte 24 .

In totale sono state ricevute 233 risposte provenienti da 21 Stati membri e da paesi terzi. Nel complesso, la maggior parte dei portatori di interessi ha confermato i problemi relativi all'onere della prova, all'incertezza giuridica e alla frammentazione e si è espressa a favore di un'azione a livello di UE.

I cittadini dell'UE, le organizzazioni dei consumatori e le istituzioni accademiche hanno confermato ad ampia maggioranza la necessità di un'azione dell'UE per alleviare i problemi riscontrati dai danneggiati in relazione all'onere della prova. Pur riconoscendo gli effetti negativi dell'incertezza in merito all'applicazione delle norme in materia di responsabilità, le imprese si sono mostrate più caute e hanno chiesto misure mirate per non limitare l'innovazione.

Un quadro analogo è emerso per quanto riguarda le opzioni strategiche. I cittadini dell'UE, le organizzazioni dei consumatori e le istituzioni accademiche hanno espresso un forte sostegno per le misure sull'onere della prova e sull'armonizzazione della responsabilità senza colpa (denominata "responsabilità oggettiva") abbinata alla copertura assicurativa obbligatoria. Le imprese si sono rivelate più discordanti sulle opzioni strategiche, con differenze dovute in parte alle rispettive dimensioni. La responsabilità oggettiva è stata ritenuta sproporzionata dalla maggior parte delle imprese rispondenti. L'armonizzazione dell'alleggerimento dell'onere della prova ha ottenuto maggiore sostegno, in particolare tra le PMI. Le imprese hanno tuttavia messo in guardia contro un completo trasferimento dell'onere della prova.

L'opzione strategica prescelta è stata pertanto sviluppata e perfezionata alla luce dei riscontri ricevuti dai portatori di interessi durante l'intero processo di valutazione d'impatto, al fine di trovare un equilibrio tra le esigenze espresse e le preoccupazioni sollevate da tutti i gruppi di portatori di interessi pertinenti.

La Commissione europea scrive che l’obiettivo della direttiva sulla responsabilità per l’IA è quello di stabilire regole uniformi per l’accesso alle informazioni e l’alleggerimento dell’onere della prova in relazione ai danni causati dai sistemi di IA, stabilendo una protezione più ampia per le vittime (siano esse persone fisiche o imprese) e promuovendo il settore dell’IA attraverso l’aumento delle garanzie. 

La direttiva armonizzerà alcune norme per le richieste di risarcimento al di fuori dell’ambito di applicazione della direttiva sulla responsabilità per danno da prodotto, nei casi in cui il danno è causato da un comportamento illecito. Ciò riguarda, ad esempio, le violazioni della privacy o i danni causati da problemi di sicurezza.

Le nuove norme, ad esempio, renderanno più facile ottenere un risarcimento se qualcuno è stato discriminato in un processo di assunzione che coinvolge la tecnologia AI. La direttiva semplifica l’iter legale per le vittime quando si tratta di dimostrare che la colpa di qualcuno ha causato un danno, introducendo due caratteristiche principali: in primo luogo, nelle circostanze in cui è stata stabilita una colpa rilevante e sembra ragionevolmente probabile un nesso causale con le prestazioni dell’IA, la cosiddetta “presunzione di causalità” affronterà le difficoltà incontrate dalle vittime nel dover spiegare in dettaglio come il danno sia stato causato da una colpa o da un’omissione specifica, cosa che può essere particolarmente difficile quando si cerca di comprendere e navigare in sistemi complessi di IA.

In secondo luogo, le vittime avranno più strumenti per ottenere un risarcimento legale, introducendo un diritto di accesso alle prove da parte di aziende e fornitori, nei casi in cui sia coinvolta l’IA ad alto rischio.

Si legge infatti nella proposta di direttiva che le opzioni strategiche sono state confrontate per mezzo di un'analisi basata su più criteri, tenendo conto della loro efficacia, efficienza, coerenza e proporzionalità. I risultati dell'analisi multicriterio e di sensibilità indicano che l'opzione strategica 3, che alleggerisce l'onere della prova per le azioni connesse all'IA e prevede la revisione mirata in materia di responsabilità oggettiva, eventualmente abbinata alla copertura assicurativa obbligatoria, è la preferita ed è pertanto l'opzione strategica prescelta per la presente proposta.

L'opzione strategica prescelta garantirebbe che coloro che subiscono danni da prodotti e servizi basati sull'IA (persone fisiche, imprese e altri soggetti pubblici o privati) non siano meno protetti di coloro che subiscono un danno da tecnologie tradizionali. Essa comporterebbe la crescita del livello di fiducia nell'IA e ne promuoverebbe l'adozione.

L'opzione prescelta ridurrebbe inoltre l'incertezza giuridica e preverrebbe la frammentazione, aiutando in tal modo le imprese (soprattutto le PMI) che intendono realizzare appieno il potenziale del mercato unico dell'UE attraverso la diffusione transfrontaliera di prodotti e servizi basati sull'IA. Sarebbero inoltre create condizioni migliori affinché gli assicuratori possano offrire una copertura delle attività connesse all'IA, il che è fondamentale per consentire alle imprese, in particolare alle PMI, di gestire i rispettivi rischi. Si stima in particolare che l'opzione strategica prescelta genererebbe un aumento del valore di mercato dell'IA nell'UE-27 compreso tra 500 milioni di EUR circa e 1,1 miliardi di EUR circa nel 2025.

Per un soggetto danneggiato dall’uso di un sistema o di una tecnologia di intelligenza artificiale può essere piuttosto difficoltoso stabilire un nesso eziologico tra l’inosservanza di un dovere di diligenza e l’output prodotto dal sistema di IA o, anche, la mancata produzione di un output da parte del sistema di IA da cui sia dipeso un pregiudizio.

Pertanto, l’Articolo 4 sancisce una presunzione relativa di causalità che, per la Commissione, costituirebbe la misura “meno onerosa” per soddisfare il diritto della vittima ad un equo risarcimento.

Importante evidenziare infatti la presunzione di colpa nell'art. 4:

Articolo 4

Presunzione relativa del nesso di causalità in caso di colpa

1.Fatti salvi i requisiti di cui al presente articolo, ai fini dell'applicazione delle norme in materia di responsabilità alle domande di risarcimento del danno gli organi giurisdizionali nazionali presumono l'esistenza del nesso di causalità tra la colpa del convenuto e l'output prodotto da un sistema di IA o la mancata produzione di un output da parte di tale sistema se sono soddisfatte tutte le condizioni seguenti:

(a)l'attore ha dimostrato o l'organo giurisdizionale ha presunto, a norma dell'articolo 3, paragrafo 5, la colpa del convenuto o di una persona della cui condotta il convenuto è responsabile, consistente nella non conformità a un obbligo di diligenza previsto dal diritto dell'Unione o nazionale e direttamente inteso a proteggere dal danno verificatosi;

(b)si può ritenere ragionevolmente probabile, sulla base delle circostanze del caso, che il comportamento colposo abbia influito sull'output prodotto dal sistema di IA o sulla mancata produzione di un output da parte di tale sistema;

(c)l'attore ha dimostrato che il danno è stato causato dall'output prodotto dal sistema di IA o dalla mancata produzione di un output da parte di tale sistema.

2.In caso di domanda di risarcimento del danno presentata contro un fornitore di un sistema di IA ad alto rischio soggetto ai requisiti stabiliti al titolo III, capi 2 e 3, della [legge sull'IA] o una persona soggetta agli obblighi del fornitore a norma [dell'articolo 24 o dell'articolo 28, paragrafo 1, della legge sull'IA], le condizioni di cui al paragrafo 1, lettera a), sono soddisfatte unicamente se l'attore ha dimostrato che il fornitore o, se del caso, la persona soggetta agli obblighi del fornitore non ha rispettato uno dei requisiti stabiliti da tali capi e indicati di seguito, tenendo conto delle misure adottate nel quadro del sistema di gestione dei rischi e dei relativi risultati a norma [dell'articolo 9 e dell'articolo 16, lettera a), della legge sull'IA]:

(a) il sistema di IA è un sistema che utilizza tecniche che prevedono l'uso di dati per l'addestramento di modelli e che non è stato sviluppato sulla base di set di dati di addestramento, convalida e prova che soddisfano i criteri di qualità di cui [all'articolo 10, paragrafi da 2 a 4, della legge sull'IA];

(b)il sistema di IA non è stato progettato e sviluppato in modo da soddisfare gli obblighi di trasparenza di cui [all'articolo 13 della legge sull'IA];

(c)il sistema di IA non è stato progettato e sviluppato in modo da consentire una supervisione efficace da parte di persone fisiche durante il periodo in cui il sistema di IA è in uso a norma [dell'articolo 14 della legge sull'IA];

(d)il sistema di IA non è stato progettato e sviluppato in modo da conseguire, alla luce della sua finalità prevista, un adeguato livello di accuratezza, robustezza e cibersicurezza a norma [dell'articolo 15 e dell'articolo 16, lettera a), della legge sull'IA]; oppure

(e)non sono state immediatamente adottate le azioni correttive necessarie per rendere il sistema di IA conforme ai requisiti stabiliti [dal titolo III, capo 2, della legge sull'IA] o per ritirarlo o richiamarlo, a seconda dei casi, a norma [dell'articolo 16, lettera g), e dell'articolo 21 della legge sull'IA].

3.In caso di domanda di risarcimento del danno presentata contro un utente di un sistema di IA ad alto rischio soggetto ai requisiti stabiliti al titolo III, capi 2 e 3, della [legge sull'IA], la condizione di cui al paragrafo 1, lettera a), è soddisfatta se l'attore dimostra che l'utente:

(a)non ha rispettato l'obbligo di utilizzare il sistema di IA o di monitorarne il funzionamento conformemente alle istruzioni per l'uso che accompagnano il sistema o, se del caso, l'obbligo di sospenderne o interromperne l'uso a norma [dell'articolo 29 della legge sull'IA]; oppure

(b)ha esposto il sistema di IA a dati di input sotto il suo controllo che non sono pertinenti alla luce della finalità prevista del sistema a norma [dell'articolo 29, paragrafo 3, della legge sull'IA].

4.In caso di domanda di risarcimento del danno riguardante un sistema di IA ad alto rischio, l'organo giurisdizionale nazionale non applica la presunzione di cui al paragrafo 1 se il convenuto dimostra che l'attore può ragionevolmente accedere a elementi di prova e competenze sufficienti per dimostrare l'esistenza del nesso di causalità di cui al paragrafo 1.

5.In caso di domanda di risarcimento del danno riguardante un sistema di IA che non è ad alto rischio, la presunzione di cui al paragrafo 1 si applica solo se l'organo giurisdizionale nazionale ritiene eccessivamente difficile per l'attore dimostrare l'esistenza del nesso di causalità di cui al paragrafo 1.

6.In caso di domanda di risarcimento del danno presentata contro un convenuto che ha utilizzato il sistema di IA nel corso di un'attività personale non professionale, la presunzione di cui al paragrafo 1 si applica solo se il convenuto ha interferito materialmente con le condizioni di funzionamento del sistema di IA o se il convenuto aveva l'obbligo ed era in grado di determinare le condizioni di funzionamento del sistema di IA e non l'ha fatto.

7.Il convenuto ha il diritto di confutare la presunzione di cui al paragrafo 1.

 ***********************************************************************

Bruxelles, 28.9.2022

COM(2022) 496 final

2022/0303(COD)

Proposta di

DIRETTIVA DEL PARLAMENTO EUROPEO E DEL CONSIGLIO

relativa all'adeguamento delle norme in materia di responsabilità civile extracontrattuale all'intelligenza artificiale
(direttiva sulla responsabilità da intelligenza artificiale)

(Testo rilevante ai fini del SEE)

{SEC(2022) 344 final} - {SWD(2022) 318 final} - {SWD(2022) 319 final} - {SWD(2022) 320 final}

RELAZIONE

1.CONTESTO DELLA PROPOSTA

·Motivi e obiettivi della proposta

La presente relazione accompagna la proposta di direttiva relativa all'adeguamento delle norme in materia di responsabilità civile extracontrattuale all'intelligenza artificiale (IA). In un'indagine rappresentativa realizzata nel 2020 1 , la responsabilità è emersa quale uno dei tre ostacoli principali all'uso dell'IA da parte delle imprese europee, venendo citata come l'ostacolo esterno più rilevante (43 %) per le imprese che intendono adottare l'IA, ma che non lo hanno ancora fatto.

Nei suoi orientamenti politici, la presidente della Commissione Ursula von der Leyen ha definito un approccio europeo coordinato all'IA 2 . Nel suo Libro bianco sull'IA del 19 febbraio 2020 3 la Commissione si è impegnata a promuovere l'adozione dell'IA e ad affrontare i rischi associati a determinati utilizzi di tale tecnologia promuovendo l'eccellenza e la fiducia. Nella relazione sulle implicazioni dell'IA in materia di responsabilità 4 che accompagna il Libro bianco, la Commissione ha individuato le sfide specifiche poste dall'IA alle norme vigenti in materia di responsabilità. Nelle sue conclusioni del 9 giugno 2020 sul tema "Plasmare il futuro digitale dell'Europa", il Consiglio ha espresso il proprio compiacimento in merito alla consultazione relativa alle proposte strategiche contenute nel Libro bianco sull'IA e ha invitato la Commissione a presentare proposte concrete. Il 20 ottobre 2020 il Parlamento europeo ha adottato una risoluzione di iniziativa legislativa a norma dell'articolo 225 TFUE in cui chiede alla Commissione di adottare una proposta relativa a un regime di responsabilità civile per l'IA, basata sull'articolo 114 del trattato sul funzionamento dell'Unione europea (TFUE) 5 .

Le norme nazionali vigenti in materia di responsabilità, in particolare per colpa, non sono adatte a gestire le azioni di responsabilità per danni causati da prodotti e servizi basati sull'IA. In base a tali norme, coloro che subiscono un danno sono tenuti a dimostrare un'azione o un'omissione illecita da parte della persona che ha causato il danno. Le caratteristiche specifiche dell'IA, tra cui la complessità, l'autonomia e l'opacità (il cosiddetto effetto "scatola nera"), possono rendere difficile o eccessivamente costoso, per quanti subiscono un danno, identificare la persona responsabile e dimostrare che sussistono i presupposti ai fini dell'esito positivo di un'azione di responsabilità. In particolare, quando chiedono un risarcimento, i danneggiati potrebbero dover sostenere costi iniziali molto elevati e affrontare procedimenti giudiziari notevolmente più lunghi rispetto a quanto accade nei casi che non riguardano l'IA, venendo pertanto del tutto dissuasi dal chiedere un risarcimento. Tali preoccupazioni sono state condivise anche dal Parlamento europeo (PE) nella sua risoluzione del 3 maggio 2022 sull'intelligenza artificiale in un'era digitale.  6

Se un danneggiato presenta una domanda di risarcimento, gli organi giurisdizionali nazionali, confrontati alle caratteristiche specifiche dell'IA, possono adeguare le modalità di applicazione delle norme vigenti in base ai singoli casi per giungere a un risultato equo per il danneggiato. Ciò provocherà incertezza giuridica. Le imprese avranno difficoltà a prevedere le modalità di applicazione delle norme vigenti in materia di responsabilità e, di conseguenza, a valutare la loro esposizione alla responsabilità e a stipulare la relativa copertura assicurativa. Tale effetto sarà amplificato per le imprese che operano a livello transfrontaliero, in quanto l'incertezza riguarderà diverse giurisdizioni, e interesserà in particolare le piccole e medie imprese (PMI), che non possono avvalersi di competenze giuridiche al loro interno o di riserve di capitale.

Le strategie nazionali in materia di IA mostrano che numerosi Stati membri stanno valutando un'azione legislativa in materia di responsabilità civile per l'IA, o la stanno addirittura pianificando concretamente. Si prevede pertanto che, in caso di mancato intervento dell'UE, gli Stati membri adegueranno le loro norme nazionali in materia di responsabilità alle sfide poste dall'IA. Ciò comporterà un'ulteriore frammentazione e un aumento dei costi per le imprese attive in tutta l'UE.

La consultazione pubblica aperta alla base della valutazione d'impatto della presente proposta ha confermato i problemi illustrati sopra. Secondo quanto espresso dai cittadini in sede di consultazione, l'effetto "scatola nera" può rendere difficile, per il danneggiato, dimostrare la colpa e il nesso di causalità, e potrebbe esservi incertezza sul modo in cui le giurisdizioni interpreteranno e applicheranno le norme nazionali vigenti in materia di responsabilità nei casi riguardanti l'IA. Dalla consultazione è inoltre emersa una preoccupazione generale per quanto riguarda il modo in cui le azioni legislative avviate dai singoli Stati membri per adeguare le norme in materia di responsabilità e la conseguente frammentazione inciderebbero sui costi per le imprese, in particolare le PMI, impedendo l'adozione dell'IA in tutta l'Unione.

La presente proposta si prefigge pertanto l'obiettivo di promuovere la diffusione di un'IA affidabile affinché sia possibile sfruttarne appieno i vantaggi per il mercato interno e si propone di conseguirlo garantendo a coloro che hanno subito danni causati dall'IA una protezione equivalente a quella di cui beneficiano quanti subiscono danni causati da prodotti di altro tipo. La proposta riduce inoltre l'incertezza giuridica per le imprese che sviluppano o utilizzano l'IA in relazione alla possibile esposizione alla responsabilità e previene la frammentazione derivante da adeguamenti specifici all'IA delle norme nazionali in materia di responsabilità civile.

·Coerenza con le disposizioni vigenti nel settore normativo interessato

La presente proposta è parte di un pacchetto di misure volte a sostenere la diffusione dell'IA in Europa promuovendo l'eccellenza e la fiducia. Tale pacchetto comprende tre filoni di lavoro complementari:

una proposta legislativa che stabilisce norme orizzontali sui sistemi di intelligenza artificiale (legge sull'IA) 7 ;

una revisione delle norme settoriali e orizzontali in materia di sicurezza dei prodotti;

norme dell'UE per affrontare le questioni in materia di responsabilità relative ai sistemi di IA.

Nella proposta di legge sull'IA la Commissione ha elaborato norme volte a ridurre i rischi per la sicurezza e a tutelare i diritti fondamentali. Sicurezza e responsabilità sono due facce della stessa medaglia: si applicano in momenti diversi e si rafforzano a vicenda. Le norme volte a garantire la sicurezza e a tutelare i diritti fondamentali ridurranno i rischi, senza tuttavia eliminarli del tutto 8 . Da tali rischi, qualora dovessero concretizzarsi, possono comunque scaturire dei danni. In tali casi si applicheranno le norme in materia di responsabilità previste dalla presente proposta.

Norme efficaci in materia di responsabilità costituiscono inoltre un incentivo economico a rispettare le norme di sicurezza, contribuendo pertanto a prevenire il verificarsi di danni 9 . La presente proposta agevola altresì l'applicazione dei requisiti per i sistemi di IA ad alto rischio imposti dalla legge sull'IA, in quanto il mancato rispetto di tali requisiti costituisce un elemento importante che rende possibile un alleggerimento dell'onere della prova. È inoltre coerente con le norme generali 10 e settoriali proposte in materia di sicurezza dei prodotti applicabili ai prodotti macchina 11 e alle apparecchiature radio 12 basati sull'IA.

Nelle sue politiche in materia di IA la Commissione adotta un approccio olistico alla responsabilità proponendo adeguamenti alla responsabilità del produttore per danno da prodotti difettosi a norma della direttiva sulla responsabilità per danno da prodotti difettosi, nonché l'armonizzazione mirata prevista dalla presente proposta. Le due suddette iniziative politiche sono strettamente collegate e danno vita a un pacchetto, in quanto le azioni che rientrano nel loro ambito di applicazione riguardano tipologie diverse di responsabilità. La direttiva sulla responsabilità per danno da prodotti difettosi riguarda la responsabilità oggettiva del produttore per prodotti difettosi, che determina un risarcimento per alcuni tipi di danni subiti principalmente da persone fisiche. La presente proposta contempla le azioni di responsabilità a livello nazionale, principalmente per colpa di una persona, nell'ottica di risarcire qualsiasi tipo di danno e qualsiasi tipo di danneggiato. I due atti sono complementari e formano un sistema generale di responsabilità civile efficace.

L'insieme di tali norme promuoverà la fiducia nell'IA (e in altre tecnologie digitali) garantendo l'effettivo risarcimento dei danneggiati in caso di danni malgrado i requisiti preventivi della legge sull'IA e altre norme di sicurezza.

·Coerenza con le altre normative dell'Unione

La proposta è coerente con la strategia digitale globale dell'Unione poiché contribuisce alla promozione della tecnologia al servizio delle persone, uno dei tre pilastri principali dell'orientamento politico e degli obiettivi annunciati nella comunicazione "Plasmare il futuro digitale dell'Europa" 13 .

In tale contesto, la presente proposta si prefigge l'obiettivo di rafforzare la fiducia nell'IA e di promuoverne l'adozione. Ciò consentirà di integrare e realizzare sinergie con la [legge sulla ciberresilienza] 14 , che mira anche a rafforzare la fiducia nei prodotti dotati di elementi digitali riducendo le vulnerabilità informatiche e a migliorare la protezione delle imprese e dei consumatori che li utilizzano.

La presente proposta lascia impregiudicate le norme stabilite dalla [legge sui servizi digitali], che prevede un quadro esaustivo e pienamente armonizzato degli obblighi in materia di dovere di diligenza per il processo decisionale algoritmico da parte delle piattaforme online, compresa la relativa esenzione dalla responsabilità dei prestatori di servizi intermediari.

In aggiunta a ciò, promuovendo la diffusione dell'IA, la presente proposta è collegata alle iniziative nell'ambito della strategia dell'UE per i dati 15 e rafforza inoltre il ruolo dell'Unione nel contribuire a definire norme e standard globali e promuovere un'IA affidabile che sia coerente con i valori e gli interessi dell'Unione.

La proposta presenta anche legami indiretti con il Green Deal europeo 16 . Le tecnologie digitali, compresa l'IA, sono in particolare un fattore determinante per conseguire gli obiettivi di sostenibilità del Green Deal in molti settori diversi (tra cui l'assistenza sanitaria, i trasporti, l'ambiente e l'agricoltura).

·Principali ripercussioni a livello economico, sociale e ambientale

La direttiva contribuirà alla diffusione dell'IA. Le condizioni per la diffusione e lo sviluppo delle tecnologie di IA nel mercato interno possono essere notevolmente migliorate prevenendo la frammentazione e aumentando la certezza del diritto attraverso misure armonizzate a livello di UE, rispetto a quanto accadrebbe a seguito di eventuali adeguamenti delle norme in materia di responsabilità a livello nazionale. Lo studio economico 17 su cui è basata la valutazione d'impatto della presente proposta ha concluso che misure di armonizzazione mirate in materia di responsabilità civile per l'IA avrebbero un impatto positivo compreso, secondo una stima prudente, tra il 5 e il 7 % sul valore di produzione dei pertinenti scambi transfrontalieri rispetto allo scenario di riferimento. Tale valore aggiunto sarebbe generato in particolare mediante una minore frammentazione e una maggiore certezza del diritto per quanto riguarda l'esposizione alla responsabilità civile dei portatori di interessi. Ciò ridurrebbe i costi sostenuti dai portatori di interessi per l'informazione giuridica/la rappresentanza legale, la gestione interna dei rischi e la conformità, agevolerebbe la pianificazione finanziaria e le stime dei rischi a fini di copertura assicurativa e consentirebbe alle imprese, in particolare alle PMI, di esplorare nuovi mercati transfrontalieri. Sulla base del valore complessivo del mercato dell'IA dell'UE interessato dai problemi legati alla responsabilità oggetto della presente direttiva, si stima che quest'ultima genererà un valore di mercato aggiuntivo compreso tra 500 milioni di EUR circa e 1,1 miliardi di EUR circa.

In termini di impatto sociale, la direttiva rafforzerà la fiducia della società nelle tecnologie di IA e l'accesso a un sistema giudiziario efficace, contribuendo inoltre a un regime di responsabilità civile efficiente, adattato alle specificità dell'IA, nel cui ambito saranno accolte le domande di risarcimento del danno giustificate. Anche tutte le imprese della catena del valore dell'IA trarrebbero vantaggio da un aumento della fiducia a livello sociale, in quanto rafforzare la fiducia dei cittadini contribuirà a una più rapida adozione dell'IA. Grazie all'effetto incentivante delle norme in materia di responsabilità, prevenire le lacune in materia di responsabilità andrebbe anche indirettamente a beneficio di tutti i cittadini attraverso un livello rafforzato di protezione della salute e della sicurezza (articolo 114, paragrafo 3, TFUE) e l'eliminazione delle fonti di pericolo per la salute (articolo 168, paragrafo 1, TFUE).

Per quanto riguarda l'impatto ambientale, si prevede che la direttiva contribuisca anche al conseguimento dei relativi traguardi e obiettivi di sviluppo sostenibile (OSS). L'adozione di applicazioni di IA è vantaggiosa per l'ambiente. I sistemi di IA utilizzati nell'ottimizzazione dei processi, ad esempio, riducono gli sprechi (limitando, tra l'altro, la quantità di fertilizzanti e pesticidi necessari, il consumo di acqua a parità di rendimento, ecc.). La direttiva avrebbe inoltre un impatto positivo sugli OSS, in quanto una legislazione efficace in materia di trasparenza, rendicontabilità e diritti fondamentali indirizzerà il potenziale dell'IA affinché vada a beneficio delle persone e della società verso il conseguimento degli OSS.

2.BASE GIURIDICA, SUSSIDIARIETÀ E PROPORZIONALITÀ

·   Base giuridica

La base giuridica della proposta è l'articolo 114 TFUE, che prevede l'adozione di misure volte ad assicurare l'instaurazione e il funzionamento del mercato interno.

I problemi che la presente proposta intende affrontare, in particolare l'incertezza giuridica e la frammentazione giuridica, pregiudicano lo sviluppo del mercato interno e costituiscono pertanto ostacoli significativi agli scambi transfrontalieri di prodotti e servizi basati sull'IA.

La proposta affronta gli ostacoli risultanti dalla mancanza di certezze, per le imprese che intendono produrre, diffondere e gestire prodotti e servizi basati sull'IA a livello transfrontaliero, quanto all'eventualità che i regimi di responsabilità vigenti si applichino ai danni causati dall'IA e alle modalità di tale applicazione. Tale incertezza riguarda in particolare gli Stati membri nei quali le imprese esporteranno o gestiranno i loro prodotti e servizi. In un contesto transfrontaliero, la legge applicabile alla responsabilità extracontrattuale derivante da fatto illecito è quella predefinita del paese in cui si verifica il danno. È pertanto fondamentale, per le suddette imprese, conoscere i rischi di responsabilità rilevanti ed essere in grado di stipulare la relativa copertura assicurativa.

Vi sono perdipiù segnali concreti del fatto che diversi Stati membri stanno prendendo in considerazione misure legislative unilaterali volte ad affrontare le sfide specifiche poste dall'IA in materia di responsabilità. Ad esempio, le strategie per l'IA adottate in Cechia 18 , in Italia 19 , a Malta 20 , in Polonia 21 e in Portogallo 22 prevedono iniziative atte a fornire chiarimenti in materia di responsabilità. Date le ampie divergenze tra le norme vigenti degli Stati membri in materia di responsabilità civile, è probabile che qualsiasi misura nazionale specifica in materia di responsabilità da IA segua approcci nazionali diversi e incrementi pertanto la frammentazione.

Gli adeguamenti delle norme in materia di responsabilità adottati su base puramente nazionale aumenterebbero quindi gli ostacoli alla diffusione di prodotti e servizi basati sull'IA in tutto il mercato interno e contribuirebbero ulteriormente alla frammentazione.

·Sussidiarietà

Gli obiettivi della presente proposta non possono essere conseguiti adeguatamente a livello nazionale poiché l'emergere di norme nazionali divergenti aumenterebbe l'incertezza giuridica e la frammentazione, creando ostacoli alla diffusione di prodotti e servizi basati sull'IA in tutto il mercato interno. L'incertezza giuridica danneggerebbe in particolare le imprese attive a livello transfrontaliero, imponendo necessità supplementari in termini di informazioni giuridiche/rappresentanza legale, costi di gestione dei rischi e comportando la perdita di entrate. Allo stesso tempo, le norme nazionali divergenti in materia di richieste di risarcimento di danni causati dall'IA comporterebbero un aumento dei costi di transazione per le imprese, in particolare per gli scambi transfrontalieri, creando ostacoli significativi nel mercato interno. Inoltre, l'incertezza giuridica e la frammentazione danneggiano in modo sproporzionato le start-up e le PMI, che rappresentano la maggior parte delle imprese e la quota principale degli investimenti nei mercati pertinenti.

In assenza di norme armonizzate a livello di UE in materia di risarcimento dei danni causati dai sistemi di IA, i fornitori, gli operatori e gli utenti dei sistemi di IA, da un lato, e i danneggiati, dall'altro, si troverebbero di fronte a 27 regimi di responsabilità differenti, che comporterebbero livelli di protezione disuguali e una distorsione della concorrenza tra le imprese di Stati membri diversi.

Misure armonizzate a livello di UE migliorerebbero notevolmente le condizioni per la diffusione e lo sviluppo delle tecnologie di IA nel mercato interno, prevenendo la frammentazione e aumentando la certezza del diritto. Tale valore aggiunto sarebbe generato in particolare mediante una minore frammentazione e una maggiore certezza del diritto per quanto riguarda l'esposizione alla responsabilità civile dei portatori di interessi. Inoltre, solo un'azione dell'UE può conseguire in modo coerente l'effetto desiderato di promuovere la fiducia dei consumatori nei prodotti e nei servizi basati sull'IA, prevenendo il formarsi di lacune in materia di responsabilità connesse alle caratteristiche specifiche dell'IA in tutto il mercato interno. Ciò garantirebbe un livello di protezione (minimo) coerente per tutti coloro che subiscono un danno (persone fisiche e imprese) e incentivi coerenti intesi a prevenire i danni e garantire la rendicontabilità.

·Proporzionalità

La proposta è basata su un approccio in più fasi. Nella prima fase, gli obiettivi sono conseguiti mediante un approccio poco invasivo; la seconda fase prevede il riesame della necessità di misure più rigorose o più ampie.

La prima fase, limitata alle misure relative all'onere della prova volte ad affrontare i problemi specifici all'IA individuati, è basata sui presupposti sostanziali della responsabilità attualmente esistenti nelle norme nazionali, come il nesso di causalità o la colpa, ma è incentrata su misure mirate relative alle prove e garantisce ai danneggiati un livello di protezione equivalente a quello previsto nei casi che non coinvolgono sistemi di IA. Inoltre, tra i vari strumenti disponibili nel diritto nazionale per alleggerire l'onere della prova 23 , la presente proposta ha scelto di utilizzare quello meno intrusivo, ossia le presunzioni relative. Si tratta di presunzioni comunemente presenti nei sistemi nazionali di responsabilità, che bilanciano gli interessi degli attori e dei convenuti, essendo allo stesso tempo concepite per incentivare il rispetto dei vigenti obblighi di diligenza sanciti a livello nazionale o di Unione. La proposta non determina un'inversione dell'onere della prova per evitare di esporre i fornitori, gli operatori e gli utenti dei sistemi di IA a rischi di responsabilità più elevati, che potrebbero ostacolare l'innovazione e limitare l'adozione di prodotti e servizi basati sull'IA.

La seconda fase inclusa nella proposta garantisce che, nel valutare l'effetto della prima fase in termini di protezione dei danneggiati e diffusione dell'IA, si tenga conto dei futuri sviluppi tecnologici, normativi e giurisprudenziali in sede di riesame della necessità di armonizzare altri elementi delle domande di risarcimento o altri strumenti relativi alle azioni di responsabilità, anche per le situazioni in cui risulterebbe più appropriata la responsabilità oggettiva, come richiesto dal Parlamento europeo. Tale valutazione prenderebbe inoltre probabilmente in considerazione l'eventuale necessità di accompagnare tale armonizzazione con una copertura assicurativa obbligatoria, per garantire l'efficacia.

·Scelta dello strumento

Una direttiva è lo strumento più adatto per la presente proposta, in quanto garantisce l'effetto di armonizzazione e la certezza del diritto auspicati, prevedendo nel contempo la flessibilità per consentire agli Stati membri di integrare le misure armonizzate senza attriti nei rispettivi regimi nazionali di responsabilità.

Uno strumento obbligatorio eviterebbe lacune in termini di protezione derivanti da un recepimento parziale o inesistente. È improbabile che uno strumento non vincolante, per quanto meno intrusivo, possa affrontare in modo efficace i problemi individuati. Il tasso di attuazione degli strumenti non vincolanti è difficile da prevedere e non vi sono indicazioni sufficienti per ritenere che l'effetto persuasivo di una raccomandazione sarebbe sufficientemente elevato da produrre un adeguamento coerente delle normative nazionali.

Tale effetto è ancora meno probabile per le misure relative al diritto privato, di cui fanno parte le norme in materia di responsabilità extracontrattuale. Si tratta di un settore caratterizzato da tradizioni giuridiche di lunga data, il che rende gli Stati membri riluttanti a perseguire riforme coordinate, a meno che non siano stimolati dalla prospettiva chiara di vantaggi per il mercato interno nel quadro di uno strumento vincolante dell'UE o dalla necessità di adattarsi a nuove tecnologie nell'economia digitale.

Le notevoli divergenze esistenti tra i quadri in materia di responsabilità degli Stati membri sono un altro motivo per cui è improbabile che una raccomandazione sia attuata in modo coerente.

1.RISULTATI DELLE VALUTAZIONI EX POST, DELLE CONSULTAZIONI DEI PORTATORI DI INTERESSI E DELLE VALUTAZIONI D'IMPATTO

·Consultazioni dei portatori di interessi

Per garantire un'ampia partecipazione dei portatori di interessi durante tutto il ciclo politico della presente proposta è stata attuata una strategia di consultazione su larga scala. La strategia di consultazione è stata basata sia su consultazioni pubbliche sia su diverse consultazioni mirate (webinar, discussioni bilaterali con imprese e con varie organizzazioni).

Dopo le domande iniziali sulla responsabilità che facevano parte della consultazione pubblica sul Libro bianco sull'IA e della relazione della Commissione sulla sicurezza e la responsabilità, dal 18 ottobre 2021 al 10 gennaio 2022 è stata aperta un'apposita consultazione pubblica online per raccogliere i pareri di un'ampia gamma di portatori di interessi, tra cui i consumatori, le organizzazioni della società civile, le associazioni industriali, le imprese, comprese le PMI, e le autorità pubbliche. Dopo aver analizzato tutte le risposte pervenute, la Commissione ha pubblicato sul proprio sito web una sintesi dei risultati e le singole risposte 24 .

In totale sono state ricevute 233 risposte provenienti da 21 Stati membri e da paesi terzi. Nel complesso, la maggior parte dei portatori di interessi ha confermato i problemi relativi all'onere della prova, all'incertezza giuridica e alla frammentazione e si è espressa a favore di un'azione a livello di UE.

I cittadini dell'UE, le organizzazioni dei consumatori e le istituzioni accademiche hanno confermato ad ampia maggioranza la necessità di un'azione dell'UE per alleviare i problemi riscontrati dai danneggiati in relazione all'onere della prova. Pur riconoscendo gli effetti negativi dell'incertezza in merito all'applicazione delle norme in materia di responsabilità, le imprese si sono mostrate più caute e hanno chiesto misure mirate per non limitare l'innovazione.

Un quadro analogo è emerso per quanto riguarda le opzioni strategiche. I cittadini dell'UE, le organizzazioni dei consumatori e le istituzioni accademiche hanno espresso un forte sostegno per le misure sull'onere della prova e sull'armonizzazione della responsabilità senza colpa (denominata "responsabilità oggettiva") abbinata alla copertura assicurativa obbligatoria. Le imprese si sono rivelate più discordanti sulle opzioni strategiche, con differenze dovute in parte alle rispettive dimensioni. La responsabilità oggettiva è stata ritenuta sproporzionata dalla maggior parte delle imprese rispondenti. L'armonizzazione dell'alleggerimento dell'onere della prova ha ottenuto maggiore sostegno, in particolare tra le PMI. Le imprese hanno tuttavia messo in guardia contro un completo trasferimento dell'onere della prova.

L'opzione strategica prescelta è stata pertanto sviluppata e perfezionata alla luce dei riscontri ricevuti dai portatori di interessi durante l'intero processo di valutazione d'impatto, al fine di trovare un equilibrio tra le esigenze espresse e le preoccupazioni sollevate da tutti i gruppi di portatori di interessi pertinenti.

·Assunzione e uso di perizie

La proposta è basata su 4 anni di analisi e sul forte coinvolgimento dei portatori di interessi, tra cui il mondo accademico, le imprese, le associazioni dei consumatori, gli Stati membri e i cittadini. I lavori preparatori hanno avuto inizio nel 2018 con l'istituzione del gruppo di esperti sulla responsabilità e le nuove tecnologie (formazione sulle nuove tecnologie). Nel novembre 2019 il gruppo di esperti ha elaborato una relazione 25 nella quale sono state valutate le sfide poste da alcune caratteristiche dell'IA alle norme nazionali in materia di responsabilità civile.

Il contributo della relazione del gruppo di esperti è stato integrato da tre ulteriori studi esterni:

uno studio di diritto comparato basato su un'analisi giuridica comparativa delle normative europee in materia di illeciti civili incentrata sulle principali questioni connesse all'IA