T.A.R. Lazio, Roma, Sez. III-bis, 2.2.2026, n. 1895
Con la sentenza n. 1895 del 2 febbraio 2026, il TAR Lazio Roma, Sez. III-bis, ha ribadito il principio del controllo umano delle decisioni automatizzate, confermando l’orientamento giurisprudenziale consolidato secondo cui: (i) l’algoritmo non può tradursi in una delega integrale del potere decisionale a un sistema automatico, specie nei procedimenti caratterizzati da profili valutativi o discrezionali; (ii) l’utilizzo di procedure algoritmiche è legittimo solo se l’amministrazione conserva un potere effettivo di controllo e di imputazione della decisione.
Il caso di specie
La pronuncia origina dall’impugnazione della graduatoria del concorso per la scuola secondaria di primo e secondo grado, su posto comune e di sostegno, per la classe di concorso A001 (Arte e Immagine) nella Regione Lazio.
Il ricorrente, non figurando tra i vincitori utilmente collocati in graduatoria per l’immissione in ruolo, ha contestato gli esiti della selezione, adducendo, tra le varie censure, la mancata applicazione della riserva del 30% prevista dal bando di concorso a favore dei candidati con almeno tre annualità di servizio.
Secondo l’amministrazione, viceversa, la graduatoria era stata correttamente formata, atteso che il candidato, pur avendo dichiarato le annualità di servizio, non aveva contrassegnato l’opzione volta a usufruire della menzionata riserva del 30% all’interno della domanda di partecipazione.
La decisione
Il TAR ha accolto il ricorso, ritenendo fondata la censura.
Secondo il Collegio, la mancata considerazione del requisito posseduto dal ricorrente per il solo fatto che il sistema non ne ha rilevato la sussistenza, ancorché il requisito fosse stato dichiarato nella domanda di partecipazione seppur in una parte difforme da quella prevista, non può considerarsi legittima.
Nelle procedure automatizzate vale lo stesso principio che trova applicazione nelle procedure non automatizzate e che impone all’amministrazione di considerare e di valutare i titoli allegati in presenza di dichiarazioni complete dei requisiti di validità e di efficacia richiesti dalla normativa, non potendo essere pretermessa la riserva di umanità.
L’utilizzo dei sistemi di intelligenza artificiale nei procedimenti di selezione, valutazione e accesso presuppone, infatti, una supervisione umana effettiva, idonea a consentire il controllo, l’intervento e la correzione del funzionamento del sistema.
Del resto, il principio del controllo umano delle decisioni automatizzate trova un solido fondamento, in ambito domestico:
- negli artt. 3, 24 e 97 Cost., che impongono il rispetto dei principi di uguaglianza, imparzialità, ragionevolezza e buon andamento dell’azione amministrativa;
- nella l. n. 241/1990 e, in particolare, negli artt. 1 e 3, che richiedono che l’azione amministrativa sia sorretta da una motivazione intellegibile e verificabile, e negli artt. 7 e seguenti e 22 e seguenti, che tutelano la partecipazione al procedimento amministrativo e il diritto di accesso;
- nel Codice dell’amministrazione digitale (d.lgs. n. 82/2005), che consente l’uso degli strumenti informatici e automatizzati nella misura in cui risultino funzionali al perseguimento dell’interesse pubblico e nel rispetto dei principi di trasparenza, responsabilità e centralità della persona.
Brevi considerazioni finali
La decisione in commento afferma che, anche nelle procedure algoritmiche, vale la regola per cui il principio di autoresponsabilità del candidato incontra un’attenuazione in presenza di elementi sufficienti a comprova del possesso del requisito addotti dallo stesso all’interno della domanda di partecipazione.
Il TAR puntualizza, altresì, che è lo stesso Regolamento UE 2024/1689 sull’intelligenza artificiale (cd. AI Act) a confermare (e, anzi, a rafforzare) l’esigenza di trasparenza, controllo umano e sindacabilità delle decisioni automatizzate sopra menzionata.
Tale Regolamento, pur non trovando applicazione diretta nella vicenda, rileva quale fonte di indirizzo interpretativo, nella parte in cui impone, a titolo di requisito strutturale, l’esistenza di una supervisione umana effettiva per i sistemi di intelligenza artificiale qualificati “ad alto rischio”, come quelli utilizzati nei procedimenti di selezione, valutazione e accesso ai pubblici impieghi.
Le disposizioni in esso contenute, infatti, essendo espressione di principi dell’ordinamento dell’Unione europea destinati a orientare l’azione degli Stati membri e dell’amministrazione secondo il principio del cd. effetto verticale, possono produrre un parziale effetto anticipatorio, imponendo alle autorità nazionali di evitare interpretazioni e prassi manifestamente incompatibili con gli obiettivi perseguiti dal legislatore europeo.
Link alla sentenza: https://mdp.giustizia-amministrativa.it/visualizza/?nodeRef=&schema=tar_rm&nrg=202502562&nomeFile=202601895_01.html&subDir=Provvedimenti