Il
12 luglio 2024 è stato pubblicato nella Gazzetta Ufficiale dell’Unione Europea l’AI Act (Reg. UE 2024/1689): la prima regolamentazione a livello europeo in materia di Intelligenza Artificiale. 

Il regolamento, entrato in vigore il 2 agosto 2024, impone una serie di obblighi normativi per gli operatori, suddivisi in diverse fasi temporali.

Vediamo nel dettaglio le scadenze e i cambiamenti chiave:

  • Febbraio 2025: entreranno in vigore le norme sui sistemi di AI considerati vietati per l’AI Act e per i quali il rischio per i diritti fondamentali è stato considerato inaccettabile. Si tratta, ad esempio, di sistemi di AI con finalità manipolative o sistemi di AI di social scoring o, ancora, sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole. Sarà pertanto opportuno per le aziende, che utilizzano o hanno intenzione di utilizzare sistemi di AI che potrebbero rientrare in questa categoria, avviare le necessarie attività di due diligence al fine di valutare se effettivamente tali sistemi possano essere fatti rientrare nel perimetro vietato ed adottare, nel caso, i necessari correttivi;
  • Agosto 2025: si applicheranno le disposizioni in materia di governance sia a livello europeo (con l’istituzione di un Ufficio per l’AI, un Consiglio per l’AI, un Forum consultivo e un Gruppo di esperti scientifici in materia di AI) sia a livello nazionale, con la previsione che ogni Stato membro dovrà designare come autorità nazionali competenti ai fini dell’AI Act almeno un’autorità di notifica e almeno un’autorità di vigilanza del mercato responsabili del coordinamento degli organismi di valutazione e di monitoraggio. Da questo momento, entreranno in vigore anche gli obblighi per i fornitori di modelli di General Purpose AI (GPAI) ovvero quei modelli in grado di svolgere svariati compiti, come creare un testo o un’immagine e allenati su una grande quantità di dati. Data la loro diffusione sul mercato e il loro rapido sviluppo tecnologico, sono previsti obblighi più stringenti per tali sistemi, come l’adozione di una policy per rispettare il diritto d’autore europeo e la pubblicazione di report sui contenuti utilizzati per il training delle macchine. Misure ulteriori poi si applicheranno se uno di questi modelli di GPAI è considerato a rischio sistemico (ovvero un rischio avente un impatto significativo sul mercato dell’UE e sui diritti fondamentali);
  • Agosto 2026: applicazione in via definitiva dell’AI Act, il quale diventerà ufficialmente obbligatorio in tutte le sue parti e direttamente applicabile in ciascuno degli Stati membri. Infatti, a partire da questo momento, è prevista la piena applicazione delle restanti sezioni dell’AI Act e, in particolare, le disposizioni relative alla violazione degli obblighi – più onerosi – previsti per i sistemi di AI ad alto rischio elencati nell’Allegato III dell’AI Act come ad es. i sistemi di identificazione biometrica remota o i sistemi di riconoscimento delle emozioni o ancora sistemi destinati a essere utilizzati per l’assunzione o la selezione del personale;
  • Agosto 2027: saranno operative anche le norme per le altre tipologie di sistemi di AI ad alto rischio – non ricompresi nell’Allegato III – destinati ad essere utilizzati come componenti di sicurezza di un prodotto o che sono essi stessi un prodotto (come macchinari industriali, giocattoli, dispositivi medici etc.), per i quali è prescritta una valutazione di conformità ai sensi della normativa UE e di cui devono essere rispettati tutti gli obblighi ad essi connessi.

Vuoi saperne di più?