Rexilience: Il tuo partner per la conformità AI

Rexilience è al fianco delle aziende che utilizzano strumenti di intelligenza artificiale, offrendo supporto per garantire un uso sicuro, conforme e coerente con l’AI Act. Scopri come possiamo aiutarti a navigare in questo nuovo panorama normativo.

Pubblicato in Gazzetta Ufficiale dell'Unione Europea l'AI Act

L’Unione Europea ha recentemente pubblicato nella Gazzetta Ufficiale il tanto atteso AI Act

Cio’ segna un momento cruciale nella regolamentazione dell’intelligenza artificiale (IA) all’interno del mercato unico europeo. Tale regolamento rappresenta un punto di svolta fondamentale, destinato a entrare in vigore il prossimo 2 agosto 2024.

Fasi di Implementazione

L’AI Act prevede un’implementazione graduale in diverse fasi, ciascuna con scadenze specifiche:

– 2 febbraio 2025:Entrata in vigore delle disposizioni generali e delle pratiche vietate. In questa data, diventeranno effettive le restrizioni su una serie di pratiche di IA considerate a rischio inaccettabile dall’UE, inclusa la manipolazione cognitiva e la sorveglianza predittiva basata su profili biometrici.

– 2 agosto 2025:Applicazione delle norme sui modelli di IA a scopo generale, sulle autorità di notifica e sugli organismi notificati, nonché sulle sanzioni e la governance.  Queste disposizioni riguardano principalmente i fornitori di sistemi di IA a scopo generale, come i modelli di linguaggio di grandi dimensioni (LLM) e i modelli di base, e mirano a garantire che tali sistemi siano conformi ai requisiti di trasparenza e sicurezza.

2 agosto 2026: Entrata in vigore della maggior parte delle altre disposizioni dell’AI Act. Questa fase include tutti gli obblighi relativi ai sistemi di IA ad alto rischio utilizzati in settori come la biometria, l’istruzione, l’occupazione, i servizi finanziari e le infrastrutture critiche.

– 2 agosto 2027: Applicazione delle disposizioni relative ai sistemi di IA classificati come ad alto rischio e dei corrispondenti obblighi. Queste norme riguardano in particolare i sistemi di IA che sono già regolati da altre legislazioni europee, come i dispositivi medici, le macchine e le apparecchiature radio.

Norme Chiave e Obblighi

L’AI Act introduce un quadro normativo trasversale per lo sviluppo, la distribuzione e l’uso dei sistemi di IA, con un focus particolare sui sistemi ad alto rischio Gli obblighi imposti dipendono dalla natura e dallo scopo del sistema di IA, nonché dal ruolo dell’organizzazione all’interno della catena di fornitura. In generale, le regole diventano più rigorose man mano che aumenta il livello di rischio associato al sistema di IA.

Le principali categorie di IA sotto il nuovo regolamento sono:

  1. Pratiche di IA vietate: Queste includono sistemi di IA che manipolano il comportamento umano in modo dannoso, come il social scoring e la sorveglianza predittiva.
  2. Sistemi di IA a scopo generale: Questi sistemi, che non presentano rischi sistemici, devono comunque rispettare alcune norme di trasparenza, mentre quelli con rischi più elevati sono soggetti a regolamenti più stringenti.
  3. Sistemi di IA ad alto rischio: Questi devono soddisfare requisiti specifici di trasparenza, sicurezza e conformità per poter essere distribuiti nel mercato UE. Tra questi vi sono sistemi utilizzati in ambiti sensibili come l’istruzione e i servizi finanziari.

Governance e Sanzioni

Per garantire una corretta applicazione del regolamento, l’AI Act prevede la creazione di vari organi di governance, tra cui un Ufficio dell’IA all’interno della Commissione Europea, un pannello scientifico di esperti indipendenti e un Consiglio dell’IA con rappresentanti degli Stati membri.

Per garantire una corretta applicazione del regolamento, l’AI Act prevede la creazione di vari organi di governance, tra cui un Ufficio dell’IA all’interno della Commissione Europea, un pannello scientifico di esperti indipendenti e un Consiglio dell’IA con rappresentanti degli Stati membri.

Le violazioni dell’AI Act possono comportare sanzioni significative, con multe fino a 35 milioni di euro o il 7% del fatturato globale annuale dell’azienda, a seconda di quale importo sia maggiore. Le autorità competenti avranno il potere di accedere ai codici sorgente, ai dati di addestramento e ad altre documentazioni per valutare la conformità dei sistemi di IA e, se necessario, ordinare rettifiche o il ritiro dei sistemi dal mercato.

Misure per le Organizzazioni

Per prepararsi all’applicazione dell’AI Act, le organizzazioni dovrebbero intraprendere le seguenti azioni prioritarie:

  1. Creare un inventario dei sistemi di IA: Dettagliare tutti i sistemi di IA attualmente sviluppati, distribuiti e utilizzati dall’organizzazione.
  2. Effetturare una valutazione di applicabilità: Valutare l’impatto potenziale del regolamento sull’organizzazione e identificare gli obblighi pertinenti.
  3. Condurre una gap analysis: Confrontare le misure di governance attuali con i requisiti dell’AI Act e identificare le necessarie azioni correttive.
  4. Implementare un programma di compliance: Assicurarsi che tutte le misure appropriate siano in atto entro le date di implementazione previste.

Per garantire una corretta applicazione del regolamento, l’AI Act prevede la creazione di vari organi di governance, tra cui un Ufficio dell’IA all’interno della Commissione Europea, un pannello scientifico di esperti indipendenti e un Consiglio dell’IA con rappresentanti degli Stati membri.

Le violazioni dell’AI Act possono comportare sanzioni significative, con multe fino a 35 milioni di euro o il 7% del fatturato globale annuale dell’azienda, a seconda di quale importo sia maggiore. Le autorità competenti avranno il potere di accedere ai codici sorgente, ai dati di addestramento e ad altre documentazioni per valutare la conformità dei sistemi di IA e, se necessario, ordinare rettifiche o il ritiro dei sistemi dal mercato.

Conformità AI: Rexilience c'è

L’AI Act rappresenta un passo avanti significativo nella regolamentazione dell’intelligenza artificiale, con l’obiettivo di promuovere lo sviluppo e l’adozione di sistemi di IA sicuri e affidabili. Questa normativa, unica nel suo genere, non solo garantirà il rispetto dei diritti fondamentali dei cittadini europei, ma stabilirà anche uno standard globale per la regolamentazione dell’IA, in linea con gli sforzi della ISO/IEC 42001.

La ISO/IEC 42001 descrive un Sistema di Gestione per l’IA, fornendo un modello di governance chiaro e completo per la gestione dei rischi nell’uso delle IA. Questo standard include un set di controlli utilizzabili per la gestione dei rischi e rinforza l’attenzione sui rischi verso persone, collettività e società. Può essere utilizzato per la progettazione, sviluppo e uso di sistemi IA e richiama svariati standard utili per la corretta gestione dei Sistemi IA, di cui almeno sei indispensabili al Sistema di Gestione per l’IA.

Rexilience c'è

Rexilience è pronta a supportare le imprese nel mettere in regola e in sicurezza l’uso dell’IA nelle loro operazioni di business, garantendo conformità e protezione in un ambiente normativo in evoluzione.