Navigare nella complessità normativa: Intelligenza Artificiale

Davanti al crescente mosaico globale di normative che le aziende si trovano ad affrontare, la regolamentazione dell’Intelligenza Artificiale rappresenta una delle aree più rilevanti e trasformative. Comprendere e anticipare questi cambiamenti è oggi essenziale per garantire una crescita sostenibile e responsabile a livello internazionale.

La regolamentazione dell'intelligenza artificiale (IA) ha sempre cercato di tenere il passo con l'innovazione tecnologica, ma l’impatto dell'IA sul business e sulla società negli ultimi 18 mesi ha sorpreso anche i governi più proattivi. In tutto il mondo, i governi si stanno rapidamente adattando alle nuove sfide poste dall'uso diffuso di sistemi di IA nelle operazioni aziendali, sebbene i loro approcci siano molto diversi.

L'approccio della Cina e degli Stati Uniti

In Cina, l'attenzione è stata posta sullo stimolare l'innovazione nell'IA, adottando un approccio di regolamentazione più flessibile. Sebbene siano state introdotte normative relative all'IA generativa, ai deep fake e agli AI recommendation systems, il Paese ha preferito mantenere una regolamentazione meno restrittiva per favorire lo sviluppo tecnologico.

Negli Stati Uniti, le grandi aziende tecnologiche che stanno guidando la rivoluzione dell'IA generativa hanno avuto un ruolo chiave. L'amministrazione Trump ha revocato l'ordine esecutivo di Biden sulla regolamentazione dell'IA, rimuovendo le politiche restrittive in vigore dal 2023 e rafforzando la leadership globale degli Stati Uniti nell'intelligenza artificiale. Questa decisione mira a eliminare le barriere all'innovazione del settore privato e a promuovere la competitività globale, garantendo anche la sicurezza nazionale.

L'approccio dell'UE con l'AI Act 

Nel frattempo, l'Unione Europea sta sviluppando una regolamentazione più proattiva e completa in risposta ai rapidi sviluppi tecnologici. Il 2 febbraio 2025 segnerà una data cruciale con l'entrata in vigore dell'AI Act, una legislazione che introdurrà un quadro giuridico uniforme per tutti gli Stati Membri dell'UE. L'AI Act si propone di eliminare la frammentazione normativa tra le giurisdizioni, promuovendo una conformità armonizzata delle aziende a livello europeo, e di garantire la protezione dei diritti fondamentali degli individui. Le aziende che sviluppano, vendono o utilizzano sistemi di IA dovranno conformarsi a specifici obblighi, in particolare per le applicazioni ad alto rischio.

Con l’introduzione del Regolamento (UE) 2024/1689 (AI Act), l’Unione Europea ha creato un quadro normativo innovativo che stabilisce i criteri per la regolamentazione dei sistemi di IA, introducendo nuove responsabilità e obblighi di trasparenza per le aziende. Il 2 febbraio 2025 segna un momento cruciale con l'applicazione effettiva dei primi obblighi legati all’AI Act, che obbliga tutte le imprese coinvolte nell'uso di tecnologie di IA, in particolare quelle ad alto rischio, a conformarsi a normative rigorose.

L'AI Act mira a promuovere un'innovazione responsabile, bilanciando i benefici tecnologici con la protezione dei diritti fondamentali delle persone. Le aziende che sviluppano, utilizzano o vendono soluzioni di IA devono ora affrontare sfide normative come:

  • La classificazione dei sistemi di IA in base al rischio;
  • La trasparenza sugli algoritmi e sui dati utilizzati;
  • L’obbligo di fornire spiegazioni chiare sui processi decisionali automatizzati.

Il disegno di Legge italiano sulla regolamentazione dell'IA

In Italia, il Disegno di Legge n. 1146/2024 sta discutendo l’introduzione di regole che pongano al centro dell’IA la autodeterminazione umana e il diritto delle persone a fare scelte consapevoli riguardo la delegazione di decisioni in materia di IA.

Le aziende devono quindi identificare e classificare le applicazioni di IA che sviluppano o utilizzano sulla base delle specifiche caratteristiche e del livello di rischio di ognuna di esse, prerogativa fondamentale e necessaria per determinare gli obblighi di conformità specifici per ciascun applicativo. 

Inoltre, le normative in materia impongono una maggior trasparenza relativamente ai sistemi di IA inclusa, a titolo esemplificativo e non esaustivo, la divulgazione 

  • delle fonti dei dati, 
  • degli algoritmi utilizzati e
  • dei processi decisionali automatici. 

Le aziende devono quindi essere pronte a spiegare come funzionano i loro sistemi di IA e quali dati vengono utilizzati per addestrarli. 

Bias algoritmici e impatti sulla reputazione aziendale

Un altro aspetto critico della regolamentazione dell’IA è la mitigazione dei bias algoritmici, che può portare a discriminazioni e danni reputazionali per le aziende. Le normative impongono maggiore trasparenza sui modelli di IA, inclusi i dati di training, gli algoritmi e i processi decisionali automatici.

 

I nostri esperti