
[fonte immagine: tech.co]
C’è un’intelligenza che non compare nei bilanci, non viene discussa nei consigli di amministrazione e non figura nei piani strategici delle imprese. Eppure opera ogni giorno, in modo discreto, capillare, pervasivo. È l’intelligenza artificiale “ombra”, la Shadow AI, una pratica diffusa, normalizzata, spesso inconsapevole, che racconta molto più di una semplice anomalia tecnologica: racconta il nostro rapporto con il lavoro, con il tempo, con l’efficienza e con il potere silenzioso degli algoritmi.
Non siamo di fronte soltanto a una criticità informatica o giuridica. Siamo davanti a un processo sociale, culturale e simbolico che attraversa il mondo del lavoro italiano, in particolare quello delle piccole e medie imprese. L’intelligenza artificiale non autorizzata diventa così lo specchio di una trasformazione rilevante: l’adattamento individuale a un sistema che corre più veloce delle sue stesse regole.
È interessante l’articolo pubblicato da Adnkronos perché porta alla luce ciò che normalmente resta ai margini del discorso pubblico: l’impiego quotidiano, spontaneo e non regolato dell’intelligenza artificiale da parte dei lavoratori italiani. Non si limita a fornire numeri, ma mette in evidenza una contraddizione strutturale del nostro tempo: mentre le aziende dichiarano di voler investire in innovazione, sono i singoli dipendenti a farsi carico dell’innovazione stessa, spesso a scapito della sicurezza collettiva.
Il contributo giornalistico racconta una realtà che molti percepiscono ma pochi ammettono apertamente: l’intelligenza artificiale è già presente nei contesti aziendali, anche quando le organizzazioni fingono che non lo sia.
Secondo quanto riportato da Adnkronos, “il 68% della forza lavoro utilizza chatbot e piattaforme di intelligenza artificiale senza informare i vertici aziendali”. Un dato impressionante, che trasforma un comportamento individuale in una prassi comune consolidata.
Alessandro Ciciarelli, fondatore di IntelligenzaArtificialeItalia.net, descrive con efficacia il paradosso: “Mentre i ceo investono nell’intelligenza artificiale per battere la concorrenza, i loro stessi dipendenti stanno regalando segreti industriali a server esterni che nessuno controlla”.
Una dichiarazione che colpisce perché ribalta la retorica dominante dell’innovazione: non è l’impresa a essere troppo lenta, ma il lavoratore a essere troppo rapido nell’adottare strumenti non governati.
La situazione diventa ancora più critica se si considera che “solo il 7% delle piccole aziende e il 15% delle medie hanno implementato progetti di intelligenza artificiale strutturati”. Il vuoto organizzativo viene colmato da pratiche autonome: commerciali che inseriscono offerte riservate nei chatbot, tecnici che condividono codici sensibili, responsabili HR che caricano curriculum e dati personali. Una normalità operativa che Adnkronos definisce efficacemente “una roulette russa digitale”.
L’impatto economico non è secondario: “una singola violazione dei dati può costare a una PMI tra uno e tre milioni di euro”, tra sanzioni, danni reputazionali e interruzioni delle attività. Ma il costo più profondo resta quello meno visibile: la perdita di controllo simbolico e culturale sul proprio sapere.
La Shadow AI nasce da una pressione sistemica. Come sottolinea lo stesso Ciciarelli, “il problema non è la tecnologia, è il vuoto di governance”. In altri termini, quando le regole non esistono o arrivano in ritardo, le persone costruiscono strategie informali di adattamento.
Qui emerge un tema centrale nei processi culturali contemporanei: la responsabilità viene individualizzata, mentre il rischio rimane alto. Il lavoratore ricorre all’AI non per trasgredire, ma per rispettare tempi, obiettivi, indicatori di performance. È una forma di aggiustamento cognitivo e comportamentale a un modello produttivo che chiede velocità, ma non fornisce strumenti adeguati.
Il professore Luciano Floridi, filosofo dell’etica digitale, parla da anni di “infosfera”, uno spazio in cui digitale e reale risultano ormai inseparabili. In questo contesto, la Shadow AI rappresenta una frattura morale: le informazioni non sono più solo dati, ma estensioni della nostra identità e del nostro dovere valoriale. Quando un dipendente carica un documento riservato su una piattaforma esterna, non sta semplicemente trasferendo un file: sta spostando una quota di fiducia fuori dall’organizzazione.
Floridi ci ricorda che la vera questione non è cosa può fare la tecnologia, ma che tipo di società intendiamo costruire con essa. La Shadow AI diventa allora un sintomo di una società che accelera, che delega, che semplifica, ma che fatica a riflettere sulle conseguenze.
L’articolo di Adnkronos evidenzia che “oltre quattro aziende su dieci hanno già implementato linee guida per l’utilizzo dell’intelligenza artificiale”, mentre il 17% ha scelto la strada del divieto. Ma vietare non è sufficiente. Governare significa educare, accompagnare, rendere esplicito ciò che oggi resta implicito.
Il vero obiettivo è costruire una cultura partecipata dell’intelligenza artificiale, non una cultura del sospetto. La Shadow AI non si contrasta solo con firewall e policy, ma con alfabetizzazione digitale, fiducia organizzativa e attenzione condivisa.
Il monito finale di Ciciarelli è inequivocabile: “Il 2026 sarà l’anno in cui la Shadow AI uscirà dall’ombra”. Accadrà per scelta o per necessità, per visione strategica o per incidente. In ogni caso, non sarà indolore.
Ignorare questo fenomeno significa accettare che l’innovazione avvenga senza pensiero, senza principi, senza progetto. Governarlo, invece, significa riconoscere che l’intelligenza artificiale non è solo una tecnologia, ma un fatto sociale, che parla del nostro modo di lavorare, di comunicare e di essere comunità.
La Shadow AI è già tra noi. La vera domanda non è se eliminarla, ma se siamo pronti a riconoscerla e assumerci l’impegno di gestirla.

