L’intelligenza artificale nelle professioni intellettuali – Nuova Legge n. 132 del 23 settembre 2025

La legge n.132 del 23 settembre 2025, composta da 28 articoli, entrata in vigore il 10 ottobre 2025, recepisce il Regolamento UE 2024/1689, collocando l’Italia tra i primi Paesi europei a dotarsi di una governance specifica in materia.

Lo scopo fondamentale della normativa è bilanciare la promozione della crescita economica e dell’innovazione tecnologica con la mitigazione dei rischi e la tutela dei diritti fondamentali. Per comprendere la sua portata, è essenziale analizzare gli obiettivi strategici che la guidano.

1. Gli obiettivi principali: perché questa legge?

  1. Crescita e Competitività La legge mira a promuovere lo sviluppo economico e la competitività dell’Italia attraverso un uso responsabile dell’intelligenza artificiale. L’obiettivo è inserire le nuove tecnologie in un contesto sociale e lavorativo umano-centrico per stimolare l’innovazione, garantendo al contempo un quadro di regole chiare.
  2. Sicurezza e Responsabilità Parallelamente, la legge intende mitigare i rischi legati all’adozione dell’IA. Attraverso principi e misure specifiche, si assicura che l’impiego di queste tecnologie sia trasparente, corretto e sicuro, proteggendo i cittadini e le imprese da potenziali abusi o errori algoritmici.

Questi due obiettivi, crescita e sicurezza, sono tenuti in equilibrio da un unico principio filosofico che permea l’intero impianto normativo: l’approccio antropocentrico, che funge da bussola per ogni applicazione dell’IA.

2. Il principio cardine: l’Uomo al centro (approccio antropocentrico)

Il pilastro fondamentale della legge è l’approccio antropocentrico, che pone la persona umana al centro di ogni sviluppo tecnologico. Questo principio stabilisce un limite invalicabile per l’intelligenza artificiale.

L’autonomia e il potere decisionale dell’essere umano devono essere sempre preservati, specialmente quando le decisioni algoritmiche possono influire significativamente sui diritti individuali.

In pratica, l’adozione di sistemi di IA è vincolata a un contesto che salvaguarda i valori fondamentali della persona, impedendo che i processi decisionali siano dominati dagli algoritmi. Questo approccio si traduce in una serie di principi guida operativi che ne garantiscono l’applicazione concreta.

3. Principi guida: come si garantisce un’IA sicura ed equa?

Per assicurare un’IA sicura ed equa, la legge definisce tre principi operativi fondamentali.

  • Trasparenza e Correttezza La legge introduce obblighi specifici per garantire la correttezza degli algoritmi e tutelare i cittadini contro possibili discriminazioni o violazioni dei diritti civili.
  • Tracciabilità e Comprensibilità Viene stabilito l’obbligo di rendere le decisioni automatizzate tracciabili e comprensibili, permettendo di risalire alla logica che ha portato a un determinato risultato.
  • Sicurezza La normativa introduce disposizioni dedicate alla sicurezza dei sistemi di IA, strettamente collegate alle normative sulla cyber sicurezza per proteggere dati e infrastrutture.

Questi principi trovano applicazione in numerosi settori strategici per la vita pubblica e privata del Paese.

4. Ambiti di applicazione: dove si applica la legge?

La Legge n. 132/2025 interviene in diversi settori chiave, integrando le norme europee con un’attenzione specifica alle peculiarità italiane. Tra i principali ambiti regolamentati figurano:

  • Sanità
  • Giustizia
  • Lavoro
  • Pubblica amministrazione
  • Cyber sicurezza
  • Diritti d’autore

Un pilastro strategico della legge è l’investimento nella formazione, concepito come strumento essenziale per realizzare una società digitalmente consapevole. Sono previste iniziative dedicate a potenziare le competenze in materia di IA nelle scuole e nelle università, con l’obiettivo di preparare cittadini e professionisti capaci di utilizzare queste tecnologie in modo critico e responsabile, rafforzando così l’approccio umano-centrico della normativa.

5. Focus sulle professioni intellettuali – art. 13

Un aspetto di particolare rilievo è la regolamentazione dell’uso dell’IA nelle professioni intellettuali, che tocca settori cruciali come la sanità, il lavoro, la giustizia e la Pubblica amministrazione.

L’articolo 13 della legge stabilisce che l’intelligenza artificiale deve rimanere uno strumento di supporto, senza mai sostituire l’autonomia e la responsabilità del professionista. Vengono introdotti due obblighi fondamentali:

  1. Utilizzo Strumentale L’IA è permessa esclusivamente per attività di supporto, a condizione che prevalga sempre il lavoro intellettuale umano oggetto della prestazione.
  2. Comunicazione Chiara Il professionista ha l’obbligo di informare il cliente sui sistemi di IA utilizzati, impiegando un linguaggio chiaro, semplice ed esaustivo per salvaguardare il rapporto di fiducia.

L’attuazione di queste regole è affidata a una governance strutturata, con ruoli e responsabilità ben definiti.

6. La governance: chi controlla e attua la legge?

Per garantire l’effettiva applicazione della legge, sono stati individuati attori istituzionali chiave con compiti specifici.

AttoreRuolo e Responsabilità Principali
GovernoIncaricato di emanare i decreti attuativi entro dodici mesi allo scopo di coordinare e armonizzare le regole sull’intelligenza artificiale.
ACN (Agenzia per la cyber sicurezza nazionale)Vigila sull’applicazione delle regole di cyber sicurezza legate all’intelligenza artificiale.
AgID (Agenzia per l’Italia digitale)Promuove l’innovazione, gestisce le certificazioni e supporta lo sviluppo tecnologico nel campo dell’IA.

La sinergia tra questi enti è cruciale per tradurre i principi della legge in un sistema funzionante e coerente.

7. Un passo fondamentale per l’Italia

La Legge n. 132/2025 segna un passo cruciale per l’Italia nel governo della trasformazione digitale. Stabilisce un modello di governance dell’IA che unisce in modo equilibrato la spinta verso l’innovazione tecnologica e la necessaria protezione dei diritti fondamentali.

La normativa stabilisce un quadro nazionale che integra e va oltre il regolamento europeo, adattandosi alle esigenze specifiche del sistema italiano e ponendo solide basi per un futuro digitale che sia non solo tecnologicamente avanzato, ma anche e soprattutto umano-centrico.

sz.16.10.25

Articoli simili