
L’intelligenza artificiale non è più una questione riservata ai laboratori di ricerca o agli uffici IT. È entrata nelle sale riunioni, nei pacchetti informativi predisposti per gli amministratori, nei sistemi che aggregano dati di rischio e performance.
Secondo una recente survey di McKinsey, l’88% delle organizzazioni utilizza già l’AI in almeno una funzione aziendale. Eppure solo un terzo di queste organizzazioni ha effettivamente scalato l’adozione oltre i progetti pilota. Il divario tra sperimentazione e governo strutturato è ancora ampio — e i consigli di amministrazione ne sono sia spettatori sia protagonisti inconsapevoli.
La pressione sui board è duplice. Da un lato, devono vigilare sull’uso dell’AI da parte del management, valutandone i rischi strategici, etici e reputazionali.
Dall’altro, devono decidere se e come utilizzare l’AI come strumento diretto di supporto alla propria funzione di indirizzo e controllo. Le due dimensioni si intrecciano in modo inestricabile: un board che non capisce l’AI non può governarla, e un board che la subisce senza usarla rischia di essere strutturalmente più debole di chi è chiamato a vigilare.
Il problema dell’asimmetria informativa e come l’AI può cambiarlo
Il problema di asimmetria informativa è uno dei nodi classici della governance societaria: il board riceve informazioni prodotte e filtrate da chi è chiamato a controllare. Il management seleziona, sintetizza e presenta i dati; il consiglio li esamina con un accesso inevitabilmente mediato.
Non si tratta necessariamente di malafede — è la struttura stessa del processo che genera asimmetria informativa.
L’AI introduce una possibilità nuova: costruire canali di analisi indipendenti, capaci di elaborare dati grezzi senza passare attraverso la catena interpretativa del management.
Un sistema di AI ben configurato può leggere i flussi informativi interni nel tempo, identificare pattern anomali, confrontare le performance dell’azienda con benchmark di settore elaborati in modo autonomo. Non si tratta di sostituire il giudizio umano, ma di affiancarlo con un secondo sguardo che non condivide le stesse dipendenze gerarchiche.
L’analisi longitudinale è particolarmente promettente: tracciare l’evoluzione nel tempo di certi indicatori — il tono delle comunicazioni interne, la frequenza di revisione delle stime, la coerenza tra previsioni e consuntivi — può rivelare segnali che sfuggono all’analisi puntuale. È una forma di vigilanza strutturale, non episodica.
Le opportunità concrete: dalla governance predittiva all’autovalutazione del board
Il passaggio più significativo che l’AI può abilitare in ambito di governance è quello dalla logica consuntiva a quella predittiva. I board hanno tradizionalmente operato su dati storici: bilanci, relazioni periodiche, audit già completati. La governance predittiva rovescia questa logica, portando sul tavolo scenari probabilistici — possibili evoluzioni di rischio, impatti di decisioni strategiche, segnali precoci di instabilità organizzativa o finanziaria.
Questo non significa che il board debba accettare passivamente le previsioni generate da un modello. Significa piuttosto che può lavorare su un orizzonte temporale più ampio e con una maggiore varietà di ipotesi, aumentando la qualità del dibattito e la robustezza delle decisioni.
Un’altra applicazione concreta riguarda l’autovalutazione del consiglio stesso. La board evaluation è un obbligo formale per molte società quotate, ma spesso rimane un esercizio rituale. L’AI può supportare processi di valutazione più strutturati, analizzando la qualità delle discussioni, la distribuzione della partecipazione tra i consiglieri, la coerenza tra le priorità dichiarate e i tempi effettivamente dedicati a ciascun tema. È una forma di specchio analitico che può restituire al board una visione più onesta del proprio funzionamento.
I rischi da non ignorare
Le opportunità non eliminano i rischi — li ridefiniscono. Quattro aree meritano attenzione prioritaria.
Il primo rischio è quello delle allucinazioni e dei bias algoritmici. I modelli di linguaggio possono produrre output plausibili ma inesatti, o amplificare distorsioni presenti nei dati di addestramento. Un board che utilizza AI per analisi di rischio o benchmark deve disporre di meccanismi di verifica e non può trattare gli output come dati certi.
Il secondo rischio è lo sconfinamento operativo. L’AI nelle mani del board dovrebbe restare uno strumento di indirizzo e controllo, non trasformarsi in un canale di ingerenza nella gestione quotidiana. Il confine tra vigilanza e interferenza è già sottile in molte realtà; l’accesso diretto a dati operativi granulari rischia di sfumarlo ulteriormente, creando tensioni con il management e ambiguità nei ruoli.
Il terzo rischio riguarda la tracciabilità. In contesti conflittuali — contenziosi con azionisti, procedimenti regolatori, controversie lavorative — gli output generati da sistemi AI utilizzati dal board diventano potenzialmente rilevanti come elementi documentali. La governance degli artefatti AI è ancora un territorio largamente inesplorato sul piano legale.
Infine, c’è il rischio di sicurezza. Gli ambienti in cui vengono elaborate informazioni riservate del board — dati strategici, informazioni price-sensitive, dettagli su operazioni straordinarie — devono soddisfare standard di protezione elevati. L’uso di strumenti AI generici, non progettati per contesti ad alta riservatezza, espone a vulnerabilità concrete.
L’AI agentica: un salto di qualità e di responsabilità
La GenAI tradizionale risponde a domande, sintetizza testi, produce analisi su richiesta. Gli agenti AI — la frontiera attuale dello sviluppo tecnologico — fanno qualcosa di diverso: mantengono uno stato tra una sessione e l’altra, eseguono sequenze di task in modo autonomo, accumulano una storia operativa. Non sono strumenti passivi ma sistemi che agiscono.
Per i board, questo cambia le coordinate del problema. Un agente AI che monitora in continuità i flussi informativi aziendali, segnala anomalie, aggiorna scenari di rischio e interagisce con altri sistemi non è paragonabile a un assistente che elabora un documento su richiesta. Il grado di autonomia, e quindi il potenziale impatto sulle decisioni di governance, è qualitativamente diverso.
Questa evoluzione rende urgente la questione dell’accountability. Chi risponde delle conclusioni raggiunte da un agente AI? Come vengono documentate le sue azioni? Con quale frequenza viene supervisionato e aggiornato? Sono domande che i board devono porre prima di adottare queste tecnologie, non dopo.
In questo contesto emerge la figura dell’AI Ethics Officer — distinta dal Data Protection Officer, con competenze specifiche sull’impatto etico e organizzativo dei sistemi AI. Il rischio è quello dell’ethics washing: creare la figura senza dotarla di reale autorità e indipendenza, trasformandola in uno strumento di comunicazione più che di controllo sostanziale.
Agenda operativa: cosa fare subito
I board che vogliono governare l’AI senza delegarla al management — né subirla passivamente — devono muoversi su più fronti in modo coordinato:
- Adottare una policy AI specifica per il board, distinta da quella aziendale generale, che definisca quali strumenti possono essere utilizzati, per quali finalità, con quali requisiti di sicurezza e tracciabilità.
- Investire in alfabetizzazione minima: non serve che ogni consigliere diventi un tecnico, ma serve che tutti comprendano le differenze fondamentali tra modelli generativi, sistemi agentici, automazione e AI decisionale.
- Costruire un’infrastruttura sicura e dedicata per l’elaborazione delle informazioni riservate, separata dagli strumenti consumer o aziendali generici.
- Definire procedure per gestire le discrepanze: quando l’analisi AI produce conclusioni divergenti rispetto a quelle del management, il board deve avere un protocollo chiaro — né ignorare automaticamente il segnale né seguirlo acriticamente.
- Valutare il posizionamento dell’AI Ethics Officer in termini di reale indipendenza e risorse, evitando che la funzione si riduca a una presenza nominale.
- Pianificare revisioni periodiche degli strumenti adottati: il panorama tecnologico evolve rapidamente, e una policy scritta oggi potrebbe essere già parzialmente obsoleta domani.
L’AI come test di stress per la governance
L’AI non è soltanto uno strumento operativo per i consigli di amministrazione. È anche un rivelatore: porta in superficie le fragilità strutturali della governance, le ambiguità nei ruoli, la qualità reale dei flussi informativi, la capacità del board di esercitare un controllo sostanziale e non solo formale.
Un board che affronta seriamente la questione AI — decidendo come usarla, come regolarla, come formarsi su di essa — sta in realtà lavorando sulla qualità complessiva della propria funzione. L’AI non risolve i problemi di governance: li porta alla luce, con una nitidezza difficile da ignorare. E questa, paradossalmente, può essere la sua contribuzione più preziosa.
