Quasi tutti i sistemi di AI vengono presentati nello stesso modo con una frase: “C’è sempre un controllo umano.” È una frase rassicurante. Ma spesso non è vera. O meglio: è vera solo formalmente

Il problema: la supervisione “di facciata” In molte organizzazioni la supervisione umana esiste sulla carta: l’operatore può intervenire, può ignorare l’output del sistema, può modificare la decisione. Ma nella pratica: i tempi non lo consentono, il sistema è percepito come più affidabile, non esistono criteri per discostarsi, nessuno vuole assumersi la responsabilità di contraddire l’AI. Risultato: l’AI decide, l’uomo ratifica. Il rischio reale Quando la supervisione è solo formale: le decisioni diventano automatiche senza dichiararlo, la responsabilità resta ambigua, l’organizzazione perde consapevolezza del processo decisionale. E soprattutto: si crea una distanza tra ciò che il contratto prevede e ciò che accade realmente. Quando la supervisione è “vera” Perché la supervisione umana sia effettiva, servono condizioni precise. 1️⃣ Tempo e contesto per decidere L’operatore deve avere: tempo reale per valutare, accesso alle informazioni rilevanti, possibilità concreta di intervenire. 2️⃣ Criteri chiari di intervento Devono essere definiti: quando è obbligatorio verificare l’output, quando è necessario discostarsi, quali segnali indicano un’anomalia. Senza criteri, la supervisione non è esercitabile. 3️⃣ Responsabilità esplicita Chi supervisiona deve sapere: di essere responsabile, in quali limiti, con quali strumenti. Se la responsabilità non è chiara, la supervisione si svuota. 4️⃣ Tracciabilità delle decisioni Deve essere possibile ricostruire: cosa ha suggerito l’AI, cosa ha deciso l’umano, perché. Senza tracciabilità, non esiste controllo. Il ruolo del contratto Il contratto non può limitarsi a dire: “è prevista supervisione umana”. Deve stabilire: dove interviene l’uomo, con quali poteri, con quali limiti, con quali responsabilità. La supervisione non è una clausola. È un meccanismo operativo. La domanda da farsi In ogni sistema di AI utilizzato in azienda, la domanda è semplice: l’uomo decide davvero, oppure si limita a confermare ciò che il sistema propone? Se la risposta è la seconda, la supervisione è solo una finzione. 📌 Governare l’AI non significa eliminare l’uomo. 📌 Significa renderlo realmente responsabile. Per dare concretezza a questi ragionamenti fornisco alcune clausole utilizzabili in questo contesto. Sono 12 clausole operative su nomina del supervisore, poteri di intervento, criteri di verifica, tracciabilità e rimedi contrattuali. Sono estratte dal mio libro DALLE CLAUSOLE CONTRATTUALI AL GOVERNO DELL'INTELLIGENZA ARTIFICIALE di prossima pubblicazione. Nella prossima puntata vedremo un altro nodo critico: come documentare le decisioni dell’AI e perché senza tracciabilità non esiste governance.








.png)



.jpeg)


