Utilizziamo cookie tecnici per personalizzare il sito web e offrire all’utente un servizio di maggior valore. Chiudendo il banner e continuando con la navigazione verranno installati nel Suo dispositivo i cookie tecnici necessari ai fini della navigazione nel Sito. L’installazione dei cookie tecnici non richiede alcun consenso da parte Sua. Ulteriori informazioni sono contenute nella nostra Cookie Policy.



L’AI Act: impatti ed opportunità. Come prepararsi?

PrintMailRate-it

​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​Ultimo aggiornamento del 18.09.2024 | Tempo di lettura ca. 7 minuti


L’intelligenza artificiale (“IA”) consiste in una famiglia di tecnologie in rapida evoluzione che utilizza gli input che riceve per creare risultati come previsioni, contenuti, raccomandazioni o decisioni, così contribuendo al conseguimento di un'ampia gamma di benefici a livello economico, ambientale e sociale nell'intero spettro delle attività industriali e sociali. 

È, in altre parole, l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività. O ancor meglio, un insieme di tecnologie sofisticate che permette ai sistemi di “leggere” il proprio ambiente attraverso i dati, mettersi in relazione con quello che percepisce, risolvere problemi e agire verso un obiettivo specifico, basandosi su specifici algoritmi.

L’IA è stata recentemente disciplinata a livello europeo dal Regolamento UE n. 2024/1689 del 13 giugno 2024 (“AI Act”), entrato in vigore il 1° agosto 2024, che costituisce la prima regolamentazione al mondo riguardante l'uso responsabile e sicuro dell’Intelligenza Artificiale.

Con tale normativa, l’Unione Europea (“UE”) ha voluto disciplinare questa complessa categoria di tecnologie al fine di migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme per lo sviluppo, l’immissione sul mercato, la messa in servizio e l'uso di sistemi di AI; promuovere la diffusione di AI antropocentrica, affidabile e che migliori il benessere degli esseri umani; assicurare un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali e quindi delle persone fisiche, delle imprese, della democrazia e dello stato di diritto e dell'ambiente.

Il tutto, da un lato, per promuovere l'innovazione e rendere l’UE un leader nell'adozione di un’AI affidabile; ma dall’altro, per governarne al meglio gli importanti rischi ed impatti.

Con l'AI Act, l'UE sta infatti creando il primo quadro giuridico completo al mondo per raccogliere i benefici economici e mitigare i rischi legati all'IA, inclusa l'IA generativa (GenAI), vale a dire quei sistemi di IA, utilizzati per finalità generali, in grado di generare contenuti audio, immagine, video o testuali sintetici.

Infatti, l'intelligenza artificiale offre senz’altro grandissime opportunità. Si pensi ad esempio ai vantaggi in termini di predittività (il miglioramento delle previsioni), ottimizzazione (l'ottimizzazione delle operazioni, della produttività e dell'assegnazione delle risorse), sartorialità (la personalizzazione delle soluzioni digitali disponibili per i singoli e le organizzazioni), competitività (può fornire vantaggi competitivi fondamentali alle imprese ed organizzazioni. Ad esempio, in materia di assistenza sanitaria, agricoltura, sicurezza alimentare, istruzione e formazione, media, sport, cultura, gestione delle infrastrutture, energia, trasporti e logistica, servizi pubblici, sicurezza, giustizia, efficienza dal punto di vista energetico e delle risorse, monitoraggio ambientale, conservazione e ripristino della biodiversità e degli ecosistemi, mitigazione dei cambiamenti climatici e adattamento ad essi.

Tuttavia, l’IA presenta, di contro, anche nuove sfide per le nostre organizzazioni e società, con cui occorre confrontarsi. 

L’uso crescente di sistemi di IA può pregiudicare gli interessi pubblici e i diritti fondamentali tutelati dal diritto dell'Unione. Tale pregiudizio può essere sia materiale sia immateriale, compreso il pregiudizio fisico, psicologico, sociale o economico. Si pensi ad esempio ai problemi di abuso, di responsabilità, di danno da prodotto, minacce alla democrazia, alla sicurezza, al mondo del lavoro.

Tutti aspetti che la UE raccomanda di esaminare con un approccio di tipo risk-based, ossia un approccio di risk management che parta dalla mappatura di modelli e sistemi, proceda con la classificazione degli stessi sulla base dei rischi (inaccettabili, alti, limitati, minimi e sistemici) e l’assessment degli stessi e concluda con azioni di remediation e monitoraggio periodiche.

Degno di nota, tra le azioni di remediation, è il Patto sull’IA, che consente alle aziende - che vi aderiscono volontariamente - di implementare anticipatamente gli obblighi previsti dal Regolamento, ancor prima che questi diventino formalmente applicabili.  Tra i molteplici vantaggi connessi all'adesione anticipata al Patto, vi è l'aumento della visibilità e credibilità dell'azienda, nonché delle garanzie messe in atto per dimostrare l'affidabilità dei propri sistemi di IA.

Ma quando si propone l’Unione Europea di raggiungere questi importanti obiettivi? Secondo un approccio graduale. 

L’applicabilità degli obblighi del Regolamento, infatti, segue un’agenda specifica, dettata dalla norma stessa:
  • le regole che impongono divieti di usi proibiti dei sistemi IA e obblighi di alfabetizzazione saranno applicabili dal 1° febbraio 2025;
  • le regole sui modelli di IA per finalità generali (cd. modelli GPAI) si applicheranno dal 1° agosto 2025;
  • tutti gli altri obblighi previsti dal Regolamento, quali gli obblighi per i sistemi di IA ad alto rischio non già soggetti a legislazione sulla sicurezza dei prodotti, saranno applicabili dal 1° agosto 2026 (ad esempio, IA utilizzata per il reclutamento delle risorse o la valutazione del credito);
  • infine, gli obblighi per i sistemi di IA integrati in prodotti già soggetti a valutazione di conformità si applicheranno dal 1° agosto 2027 (ad esempio, in dispositivi medici o macchinari industriali).

In difetto di compliance, le sanzioni potranno essere molto severe, potendo arrivare fino al 7 per cento del fatturato annuo globale di una organizzazione.

La normazione in tema di AI non finisce però qui.

Sul punto, si è mosso infatti anche il legislatore nazionale: il Governo italiano si è infatti dichiarato a favore dell’introduzione di un quadro comune di regole sull’intelligenza artificiale, sottolineando l’importanza che il nuovo regolamento tuteli i diritti fondamentali e imponga obblighi e sanzioni commisurati al rischio. In linea con la normativa europea, il Consiglio dei ministri ha pertanto approvato di recente un disegno di legge che stabilirà i principi guida per l'uso dell'intelligenza artificiale in Italia e su cui si attendono maggiori dettagli. 

Proprio per supportare il Governo nella definizione di una normativa nazionale e delle strategie relative a questa tecnologia, un Comitato di esperti ha predisposto il 22 luglio 2024 il documento della Strategia Italiana per l’Intelligenza Artificiale 2024-2026. La Strategia Italiana per l'Intelligenza Artificiale è un passo cruciale per l’Italia, che mira a assumere un ruolo di primo piano in materia di IA e transizione tecnologica, anche grazie all’importante ruolo che sta svolgendo presidenza del G7. Il documento riflette l'impegno del Governo nel creare un ambiente in cui l'IA possa svilupparsi in modo sicuro, etico e inclusivo, massimizzando i benefici e minimizzando i potenziali effetti avversi.

In questo contesto normativo, cosa dovranno fare, dunque, le imprese e le organizzazioni che abbiano implementato, usato, distribuito, importato queste tecnologie – o che vogliano farlo - per ottemperare agli obblighi prescritti dall’AI Act?

Dovranno, necessariamente e come prima cosa, adottare un metodo di risk management volto a valutare, in prima battuta, il livello di rischio connesso ai singoli sistemi e modelli adottati, per poi stimare le necessarie azioni di remediation e monitoraggio.

Ciò sia disegnando la prima fase del Metodo, ossia i tools di Risk Assessment, volti alla classificazione dei rischi dei sistemi; all’assessment di robustezza; all’assessment dei rischi per i diritti e le libertà dell'individuo (FRIA); all’assessment dei rischi di natura etica (ambiente e ESG); nonché alla valutazione degli impatti interdisciplinari, che può coinvolgere tutta una serie di aree di interesse (e.g. proprietà intellettuale, diritto del lavoro, diritto sanitario, responsabilità civile, penale e da prodotto, compliance 231, food & pharma, tax).

Sia progettando l’avvio della seconda fase del Metodo, ossia la Remediation, volta a individuare le misure tecniche e organizzative più idonee a mitigare i rischi individuati, e l’ultima fase, cioè quella di Monitoring periodico delle misure implementate (ad esempio mediante la nomina – anche per affidamento a terzi - di un Chief AI Officer).

Autori:
Nadia Martini - Partner
Silvio Mario Cucciarrè - Associate
Flavia Salvatore - Associate

dalla newsletter

Legal Newsletter​​​​​​​​​​

autore

Contact Person Picture

Nadia Martini

Avvocato

Partner

+39 02 6328 841

Invia richiesta

Profilo

Contact Person Picture

Silvio Mario Cucciarrè, LL.M.

Avvocato

Associate

+39 02 6328 841

Invia richiesta

Profilo

Skip Ribbon Commands
Skip to main content
Deutschland Weltweit Search Menu