Dal 2 febbraio 2025 è ufficialmente scattata la prima fase applicativa dell’AI Act, il regolamento europeo sull’intelligenza artificiale. Si tratta di un passaggio importante: entrano infatti in vigore i divieti su alcune pratiche AI considerate troppo rischiose e l’obbligo di alfabetizzazione sull’IA per il personale delle aziende che la utilizzano.
L’obiettivo dell’Unione Europea è chiaro: costruire un ecosistema tecnologico innovativo, ma sicuro e rispettoso dei diritti fondamentali. Le imprese, ora, devono adeguarsi in tempi rapidi per evitare sanzioni molto pesanti – si parla fino a 35 milioni di euro o il 7% del fatturato globale.
Le pratiche vietate
L’articolo 5 dell’AI Act individua alcune pratiche di intelligenza artificiale che non potranno più essere utilizzate in Europa. Tra le principali:
-
Manipolazione subliminale o ingannevole: sistemi progettati per influenzare inconsapevolmente il comportamento delle persone, ad esempio attraverso un’app che spinge agli acquisti compulsivi in momenti di fragilità emotiva.
-
Sfruttamento delle vulnerabilità: vietati gli strumenti che approfittano di limiti legati all’età, alla disabilità o alla condizione socio-economica (come proporre investimenti rischiosi a persone fragili).
-
Social scoring: non è consentito valutare le persone sulla base di comportamenti o caratteristiche sociali per determinare l’accesso a servizi essenziali.
-
Riconoscimento biometrico “live” in spazi pubblici, ad esempio tramite videocamere, se non in casi eccezionali e autorizzati (come per cercare minacce gravi alla sicurezza).
-
Valutazione del rischio di crimini basata unicamente su algoritmi predittivi (profilazione automatica).
-
Categorizzazione biometrica su dati sensibili: l’uso dell’IA per dedurre religione, orientamento sessuale o opinioni politiche è vietato.
-
Riconoscimento delle emozioni sul lavoro o a scuola, salvo motivazioni mediche o di sicurezza.
-
Creazione di banche dati biometriche da scraping non mirato (es. raccolta immagini da social o webcam senza consenso).

Obbligo di alfabetizzazione sull’AI
Un’altra novità importante è l’obbligo di garantire un adeguato livello di conoscenza sull’intelligenza artificiale a chiunque utilizzi o implementi sistemi AI in azienda.
Secondo l’articolo 4 dell’AI Act, ogni organizzazione dovrà:
-
formare il personale sui rischi, benefici e funzionamento dell’IA;
-
non limitarsi a fornire documenti informativi, ma promuovere un’effettiva formazione attiva;
-
coinvolgere anche appaltatori e collaboratori esterni, se usano sistemi di IA.
L’obiettivo è assicurare una diffusione consapevole e responsabile della tecnologia, anche quando si usano strumenti integrati in software di uso quotidiano, come i modelli linguistici nei programmi di scrittura.
Cosa devono fare le aziende ora
Le imprese devono iniziare subito ad adeguarsi. Ecco le azioni consigliate:
-
Mappare i sistemi di IA utilizzati, in fase di sviluppo o in arrivo.
-
Verificare che non rientrino tra le pratiche vietate.
-
Pianificare e attivare programmi formativi per tutto il personale coinvolto.
-
Documentare le azioni intraprese per garantire la conformità.
-
Restare aggiornati sulle linee guida ufficiali e su future scadenze normative.
Prossime tappe
Questa è solo la prima fase. Le regole per l’IA di uso generale entreranno in vigore ad agosto 2025, mentre dal 2 agosto 2026 si applicheranno le norme più ampie per i sistemi a rischio elevato.
🔗 Fonti ufficiali