AI Act

Il regolamento europeo sull'intelligenza artificiale: entrano in vigore i primi divieti. Le aziende devono agire subito - 24/03/2025
AI Act

AI ACT regolamento europeo

Dal 2 febbraio 2025 è ufficialmente scattata la prima fase applicativa dell’AI Act, il regolamento europeo sull’intelligenza artificiale. Si tratta di un passaggio importante: entrano infatti in vigore i divieti su alcune pratiche AI considerate troppo rischiose e l’obbligo di alfabetizzazione sull’IA per il personale delle aziende che la utilizzano.

L’obiettivo dell’Unione Europea è chiaro: costruire un ecosistema tecnologico innovativo, ma sicuro e rispettoso dei diritti fondamentali. Le imprese, ora, devono adeguarsi in tempi rapidi per evitare sanzioni molto pesanti – si parla fino a 35 milioni di euro o il 7% del fatturato globale.

 

Le pratiche vietate


L’articolo 5 dell’AI Act individua alcune pratiche di intelligenza artificiale che non potranno più essere utilizzate in Europa. Tra le principali:


  • Manipolazione subliminale o ingannevole: sistemi progettati per influenzare inconsapevolmente il comportamento delle persone, ad esempio attraverso un’app che spinge agli acquisti compulsivi in momenti di fragilità emotiva.

  • Sfruttamento delle vulnerabilità: vietati gli strumenti che approfittano di limiti legati all’età, alla disabilità o alla condizione socio-economica (come proporre investimenti rischiosi a persone fragili).

  • Social scoring: non è consentito valutare le persone sulla base di comportamenti o caratteristiche sociali per determinare l’accesso a servizi essenziali.

  • Riconoscimento biometrico “live” in spazi pubblici, ad esempio tramite videocamere, se non in casi eccezionali e autorizzati (come per cercare minacce gravi alla sicurezza).

  • Valutazione del rischio di crimini basata unicamente su algoritmi predittivi (profilazione automatica).

  • Categorizzazione biometrica su dati sensibili: l’uso dell’IA per dedurre religione, orientamento sessuale o opinioni politiche è vietato.

  • Riconoscimento delle emozioni sul lavoro o a scuola, salvo motivazioni mediche o di sicurezza.

  • Creazione di banche dati biometriche da scraping non mirato (es. raccolta immagini da social o webcam senza consenso).

riconoscimento biometrico AI

Obbligo di alfabetizzazione sull’AI


Un’altra novità importante è l’obbligo di garantire un adeguato livello di conoscenza sull’intelligenza artificiale a chiunque utilizzi o implementi sistemi AI in azienda.

Secondo l’articolo 4 dell’AI Act, ogni organizzazione dovrà:

  • formare il personale sui rischi, benefici e funzionamento dell’IA;

  • non limitarsi a fornire documenti informativi, ma promuovere un’effettiva formazione attiva;

  • coinvolgere anche appaltatori e collaboratori esterni, se usano sistemi di IA.

L’obiettivo è assicurare una diffusione consapevole e responsabile della tecnologia, anche quando si usano strumenti integrati in software di uso quotidiano, come i modelli linguistici nei programmi di scrittura.

 

persone in aula per formazione


Cosa devono fare le aziende ora


Le imprese devono iniziare subito ad adeguarsi. Ecco le azioni consigliate:

  1. Mappare i sistemi di IA utilizzati, in fase di sviluppo o in arrivo.

  2. Verificare che non rientrino tra le pratiche vietate.

  3. Pianificare e attivare programmi formativi per tutto il personale coinvolto.

  4. Documentare le azioni intraprese per garantire la conformità.

  5. Restare aggiornati sulle linee guida ufficiali e su future scadenze normative.


Prossime tappe


Questa è solo la prima fase. Le regole per l’IA di uso generale entreranno in vigore ad agosto 2025, mentre dal 2 agosto 2026 si applicheranno le norme più ampie per i sistemi a rischio elevato.


🔗 Fonti ufficiali