Utilizziamo cookie tecnici per personalizzare il sito web e offrire all’utente un servizio di maggior valore. Chiudendo il banner e continuando con la navigazione verranno installati nel Suo dispositivo i cookie tecnici necessari ai fini della navigazione nel Sito. L’installazione dei cookie tecnici non richiede alcun consenso da parte Sua. Ulteriori informazioni sono contenute nella nostra Cookie Policy.



Product liability e IA: profili di rischio secondo la recente esperienza USA e prospettive UE

PrintMailRate-it

​​​​​​​​​​​​​​​​​​​​​​​​​Ultimo aggiornamento del 3.03.2025 | Tempo di lettura ca. 4 minuti


​L’evoluzione normativa e giurisprudenziale in materia di responsabilità da prodotto solleva questioni cruciali per le imprese che sviluppano e commercializzano software basati su intelligenza artificiale. L'estensione della product liability al software, recentemente introdotta dalla Direttiva (UE) 2024/2853, e le tendenze emergenti negli Stati Uniti evidenziano i rischi legati a difetti di progettazione, omissioni informative e danni derivanti dall’utilizzo dell’IA. 

Il 18 novembre 2024 è stata pubblicata nella Gazzetta Ufficiale dell’Unione Europea la nuova Direttiva (UE) 2024/2853, che estende il regime tradizionale della responsabilità da prodotto – tra le altre cose – anche ai software, rispondendo alle sfide poste dalla crescente diffusione delle tecnologie digitali e dall’intelligenza artificiale (AI).

In attesa dell’entrata in vigore delle nuove disposizioni europee, le tendenze in materia di litigation emergenti negli Stati Uniti possono offrire importanti spunti sulle future casistiche relative alla responsabilità derivante dai prodotti digitali e dall’IA, in quanto pongono in evidenza sin da adesso i potenziali rischi per gli operatori economici che immettono siffatti prodotti sul mercato.

A tal riguardo, viene in rilievo il procedimento Garcia v. Character Techs., Inc., No. 6:24-CV-01903, attualmente pendente presso il tribunale federale della Florida.

Il caso​

Nel mese di ottobre 2024, la signora Garcia ha avviato un procedimento presso il tribunale federale della Florida contro vari soggetti, tra i quali la società sviluppatrice di un noto Chatbot AI.
La pretesa azionata ha ad oggetto la richiesta di risarcimento dei danni patiti in relazione al decesso del figlio della signora Garcia, per asserita dipendenza nell’utilizzo del chatbot tale da indurne il suicidio.

La ricorrente ha formulato le proprie pretese nei confronti di vari soggetti, ivi inclusi gli sviluppatori del Chatbot, in quanto gli stessi avrebbero progettato e commercializzato un prodotto difettoso nonché privo di adeguate protezioni per i minori, altresì in ragione dell’assenza di un’adeguata informativa.

Applicabilità del regime di “Product Liability” ​

Un elemento preliminare e centrale della controversia in esame concerne la qualificazione giuridica del software quale “prodotto” ai fini dell’applicabilità della disciplina della product liability. In precedenza, lo stesso (chatbot) sarebbe stato trattato alla stregua di un servizio.

Applicando il regime della responsabilità da prodotto difettoso, invece, è stato invocato un difetto di progettazione dello stesso. In particolare, si contesta che l’addestramento del modello alla base del Chabot sarebbe avvenuto su un dataset inadeguato, con conseguente generazione di output pericolosi e dannosi per gli utenti e, soprattutto, i minori.

Inoltre, è stata censurata l’omissione delle dovute avvertenze, poiché gli sviluppatori non avrebbero fornito alcuna avvertenza adeguata agli utenti, consentendo ai minori di interagire liberamente con il software, senza adeguate protezioni.

La ricorrente ha dunque agito in giudizio chiedendo di essere risarcita per il danno conseguente al decesso del minore, ivi incluso il danno per la sofferenza emotiva dalla stessa patita.

Profili di rischio per gli operatori economici

La pretesa in esame – tuttora in attesa di esito, ma ritenuta preliminarmente ammissibile dal tribunale federale della Florida – pur svolgendosi nell’ambito della giurisdizione statunitense, offre spunti rilevanti per comprendere i possibili rischi giudiziali a carico delle imprese che immettono sul mercato prodotti basati su intelligenza artificiale, anche in punto di risarcibilità del danno da perdita parentale ed esistenziale previsti dall’ordinamento italiano.

I suesposti rischi rendono evidente l’importanza, per gli operatori economici attivi nel settore dell’IA, di adottare sin da subito rigorosi presidi di compliance, nonché una adeguata ed esaustiva informativa, al fine di mitigare il rischio di contenziosi derivanti dai prodotti immessi dagli stessi sul mercato – ivi inclusi i software – e assicurarsi la conformità alle norme vigenti, anche in vista della imminente applicabilità della Direttiva (UE) 2024/2853.

L’evoluzione normativa in materia di responsabilità da prodotto rappresenta, infatti, un cambiamento fondamentale nel trattamento del software e delle tecnologie basate su intelligenza artificiale, con impatti diretti sulle imprese operanti in questi settori.

L’esperienza statunitense, in un contesto giuridico già in evoluzione da anni, evidenzia come si stiano definendo i confini della responsabilità per danni derivanti dall’utilizzo dei suindicati prodotti.

Le aziende che operano in tale settore dovranno, come si è già accennato, rivedere le proprie policy di compliance e sicurezza, adottando misure adeguate anche dal punto di vista dell’informativa destinata agli utenti finali, volte a prevenire i rischi legali, onde evitare potenziali controversie e sfruttare al meglio le opportunità che il nuovo mercato digitale può – e potrà – offrire in misura sempre maggiore.
Autori:
Giuseppe F. Bonacci - Associate Partner
Stephan ​Daniel ​Cascone - Associate
Federico Pavesi - Intern

 dalla newsletter

Legal Newsletter​​​​​​​

contatti

Contact Person Picture

Giuseppe Francesco Bonacci

Avvocato

Associate Partner

+39 02 6328 841

Invia richiesta

Profilo

Deutschland Weltweit Search Menu