In un panorama in continua evoluzione di sistemi AI, emerge sempre più l’esigenza di attuare discipline in materia di sicurezza tecnica dei prodotti destinati al consumatore finale.

Talvolta, tali discipline sono integrate da standard tecnici elaborati a livello internazionale da organismi privati; tra questi i più rinomati troviamo: l’International Standardization Organization (ISO), l’Institute of Electrical and Electronics Engineers (IEEE), l’International Electrotechnical Commission (IEC) e l’International Telecommunication Union (ITU).

Standard tecnici a livello europeo:

Ma come vengono stabiliti gli standard tecnici a livello europeo? E quale sarà il ruolo delle aziende nella compliance dell’AI Act?

Gli standard tecnici comprendono tutte le misure volte a supportare l’AI Act nell’adozione di soluzioni di intelligenza artificiale, che garantiscano elevati livelli di sicurezza e tutela dei diritti fondamentali dell’uomo.

A livello europeo, gli organismi di standardizzazione saranno incaricati di sviluppare strumenti di regolazione che daranno concretezza ad alcuni obblighi dell’AI Act. 

I principali Enti europei autorizzati sono: 

  • il Comitato europeo di normazione (CEN);
  • il Comitato europeo di normazione elettrotecnica (CENELEC);
  • l’Istituto europeo per le norme di telecomunicazione (ETSI).

Nell’elaborazione degli standard, la Commissione UE ha invitato gli Enti a trovare una sinergia con gli standard internazionali, i quali forniscono un punto di partenza utile per garantire un utilizzo responsabile dei sistemi AI in tutto il loro ciclo di vita. 

Gli ambiti di intervento prioritari:

Gli Enti di standardizzazione sopra indicati dovranno focalizzarsi su dieci ambiti

  • Gestione del rischio: fornire linee guida sulla valutazione e gestione dei rischi, al fine di misurarli, mitigarli o eliminarli durante tutto il ciclo di vita dei sistemi;
  • Governance e qualità dei dati: fornire indicazioni per ottimizzare la qualità dei dataset di addestramento degli LLM in tutte le fasi di sviluppo e progettazione dei sistemi;
  • Conservazione dei registri: fornire indicazioni utili sull’adozione di misure per la conservazione dei registri per garantire la tracciabilità dei sistemi;
  • Trasparenza: definire il processo di utilizzo dei sistemi per supportare la comprensione del loro funzionamento, consentendo agli utilizzatori di prendere decisioni informate e adottare misure correttive, se necessario;
  • Supervisione umana: fornire indicazioni sull’utilizzo di strumenti di interfaccia uomo-macchina in base a 4 criteri: trasparenza; monitoraggio; spiegazione e interpretazione degli output; intervento e controllo dei sistemi.
  • Accuratezza: definire metriche e soglie di accuratezza specifiche;
  • Robustezza: definire requisiti relativi alla resilienza dei sistemi IA al fine di prevenire eventi dannosi;
  • Cybersecurity: definire piani di mitigazione e valutazione del rischio per raggiungere un livello di sicurezza informatica adeguato;
  • Gestione della qualità: specificare le modalità per stabilire un sistema di gestione della qualità efficace che garantisca la conformità all’AI Act, anche attraverso un robusto sistema di monitoraggio post-mercato;
  • Valutazione della conformità: definire processi per valutare la conformità dei sistemi AI prima della loro immissione sul mercato o messa in servizio.

Stato dell’arte:

Ad oggi, il Comitato tecnico congiunto (JTC) 21 del CEN-CENELEC, ha fornito un’analisi preliminare di standardizzazione sui diversi ambiti richiesti dalla Commissione.

Una volta pubblicati sulla Gazzetta Ufficiale dell’UE, gli standard tecnici garantiranno una presunzione legale di conformità per tutti gli operatori di sistemi AI, i quali saranno in grado di offrire sul mercato best practices convincenti e garanzie sufficienti nell’attuazione dell’AI Act.

Vuoi saperne di più?