Rexilience: il tuo partner per la conformità AI

Rexilience è al fianco delle aziende che utilizzano strumenti di intelligenza artificiale, offrendo supporto per garantire un uso sicuro, conforme e coerente con l’AI Act. Scopri come possiamo aiutarti a navigare in questo nuovo panorama normativo.

Legge sull'AI Pubblicata nella Gazzetta ufficiale dell'Unione europea

L'Unione Europea ha ufficialmente pubblicato il tanto atteso AI Act

Questo segna un momento cruciale nella regolamentazione dell’Intelligenza Artificiale (IA) all’interno del mercato unico europeo. Tale regolamento rappresenta un punto di svolta fondamentale, destinato a entrare in vigore il prossimo 2 agosto 2024.

Fasi di implementazione

L’AI Act prevede un’implementazione graduale in diverse fasi, ciascuna con scadenze specifiche:

  • 2 febbraio 2025 – Entrata in vigore delle disposizioni generali e delle pratiche vietate.
    In questa data, diventeranno effettive le restrizioni su una serie di pratiche di IA considerate a rischio inaccettabile dall’UE, inclusa la manipolazione cognitiva e la sorveglianza predittiva basata su profili biometrici.
  • 2 agosto 2025 – Applicazione delle norme sui modelli di IA a scopo generale, sulle autorità di notifica e sugli organismi notificati, nonché sulle sanzioni e la governance.
    Queste disposizioni riguardano principalmente i fornitori di sistemi di IA a scopo generale, come i modelli di linguaggio di grandi dimensioni (LLM) e i modelli di base, e mirano a garantire che tali sistemi siano conformi ai requisiti di trasparenza e sicurezza.
  • 2 agosto 2026 – Entrata in vigore della maggior parte delle altre disposizioni dell’AI Act.
    This phase includes all obligations for high-risk AI systems used in sectors such as biometrics, education, employment, financial services and critical infrastructure.
  • 2 agosto 2027 – Applicazione delle disposizioni relative ai sistemi di IA classificati come ad alto rischio e dei corrispondenti obblighi.
    Queste norme riguardano in particolare i sistemi di IA che sono già regolati da altre legislazioni europee, come i dispositivi medici, le macchine e le apparecchiature radio.

Norme chiave e obblighi

L'AI act stabilisce le regole per lo sviluppo, l'implementazione e l'uso dei sistemi AI, con particolare attenzione ai sistemi ad alto rischio.

Gli obblighi variano in base alla natura, allo scopo del sistema e al ruolo dell’organizzazione nella catena di fornitura, diventando più stringenti all’aumentare del rischio del sistema.

Le principali categorie di IA sotto il nuovo regolamento sono:

1. Pratiche di IA vietate
Queste includono sistemi di IA che manipolano il comportamento umano in modo dannoso, come il social scoring e la sorveglianza predittiva.

2. Sistemi di IA a scopo generale
Questi sistemi, che non presentano rischi sistemici, devono comunque rispettare alcune norme di trasparenza, mentre quelli con rischi più elevati sono soggetti a regolamenti più stringenti.

3. Sistemi di IA ad alto rischio
Questi devono soddisfare requisiti specifici di trasparenza, sicurezza e conformità per poter essere distribuiti nel mercato UE. Tra questi vi sono sistemi utilizzati in ambiti sensibili come l’istruzione e i servizi finanziari.

Governance e sanzioni

Per garantire una corretta applicazione del regolamento, l’AI Act prevede la creazione di vari organi di governance, tra cui un Ufficio dell’IA all’interno della Commissione Europea, un pannello scientifico di esperti indipendenti e un Consiglio dell’IA con rappresentanti degli Stati membri.

Le violazioni dell’AI Act possono comportare sanzioni significative, con multe fino a 35 milioni di euro o il 7% del fatturato globale annuale dell’azienda, a seconda di quale importo sia maggiore. Le autorità competenti avranno il potere di accedere ai codici sorgente, ai dati di addestramento e ad altre documentazioni per valutare la conformità dei sistemi di IA e, se necessario, ordinare rettifiche o il ritiro dei sistemi dal mercato.

Misure per le organizzazioni

Per prepararsi all’applicazione dell’AI Act, le organizzazioni dovrebbero intraprendere le seguenti azioni prioritarie:

1. Creare un inventario dei sistemi di IA
Dettagliare tutti i sistemi di IA attualmente sviluppati, distribuiti e utilizzati dall’organizzazione.

2. Effettuare una valutazione di applicabilità
Valutare l’impatto potenziale del regolamento sull’organizzazione e identificare gli obblighi pertinenti.

3. Condurre una gap analysis
Confrontare le misure di governance attuali con i requisiti dell’AI Act e identificare le necessarie azioni correttive.

4. Implementare un programma di compliance
Assicurarsi che tutte le misure appropriate siano in atto entro le date di implementazione previste.

Conformità AI: ISO/IEC 42001​

L’AI Act rappresenta un passo avanti significativo nella regolamentazione dell’intelligenza artificiale, con l’obiettivo di promuovere lo sviluppo e l’adozione di sistemi di IA sicuri e affidabili. Questa normativa, unica nel suo genere, non solo garantirà il rispetto dei diritti fondamentali dei cittadini europei, ma stabilirà anche uno standard globale per la regolamentazione dell’IA, in linea con gli sforzi della ISO/IEC 42001.

La ISO/IEC 42001 descrive un Sistema di Gestione per l’IA, fornendo un modello di governance chiaro e completo per la gestione dei rischi nell’uso delle IA. Questo standard include un set di controlli utilizzabili per la gestione dei rischi e rinforza l’attenzione sui rischi verso persone, collettività e società. Può essere utilizzato per la progettazione, sviluppo e uso di sistemi IA e richiama svariati standard utili per la corretta gestione dei Sistemi IA, di cui almeno sei indispensabili al Sistema di Gestione per l’IA.

Rexilience è qui

Rexilience è pronta a supportare le imprese nel mettere in regola e in sicurezza l’uso dell’IA nelle loro operazioni di business, garantendo conformità e protezione in un ambiente normativo in evoluzione.

Contattaci

Se desiderate ulteriori informazioni sui nostri servizi, compilate il modulo sottostante. Vi risponderemo al più presto.