Qualche settimana fa, durante un incontro formativo con alcuni imprenditori, cercavo di spiegare in maniera chiara e comprensibile qual è il rischio più grande della corsa verso l’intelligenza artificiale che moltissime aziende italiane hanno intrapreso senza la necessaria preparazione.
Per quelli come me, che hanno visto con i propri occhi l’avvento dell’era informatica e la digitalizzazione di massa degli anni novanta, è una specie di déjà vu: tutti corrono verso l’ignoto senza essere pienamente consapevoli di quello che stanno facendo.
Intendiamoci, oggi come allora è giustissimo e per certi versi inevitabile correre verso una nuova era che apre a tutti enormi opportunità. Ma un cambiamento così epocale va introdotto con consapevolezza e competenza.
Ed ecco un concetto che ha acceso molto l’interesse degli imprenditori presenti al corso di formazione:
Proteggete sempre il perimetro digitale delle vostre aziende: portate l’AI dentro l’azienda e non l’azienda dentro l’AI
La notizia del colossale incidente che ha reso visibili a chiunque oltre centomila conversazioni private con l’AI è una conferma a quanto possa essere catastrofico e distruttivo commettere leggerezze ed errori in questa fase cruciale della nostra storia.
Ma vediamo che cosa è successo e cosa va fatto per evitare che la cosa capiti nuovamente.
Cronaca di un disastro annunciato
Come sappiamo, pochi giorni fa sono improvvisamente apparse nei risultati delle ricerche su Google oltre 100.000 chat generate con ChatGPT .
Tra l’altro, molte di queste sono ancora oggi perfettamente accessibili tramite Archive.org, nonostante gli sforzi (tardivi) di OpenAI per eliminarle dalla rete.
Un incidente a mio parere gigantesco, provocato da una funzione attivata volontariamente dagli utenti, che permetteva la condivisione pubblica dei propri scambi con l’AI tramite un semplice link.
Ma ciò che nessuno si aspettava è che quei link sarebbero finiti tra i risultati del motore di ricerca più usato al mondo, rendendo pubbliche anche chat contenenti dati sensibili, richieste oscure e strategie borderline.
Tra queste, anche il caso scioccante di un avvocato italiano che, rivolgendosi al chatbot, chiedeva consigli su come “liberarsi” di una comunità indigena in Amazzonia per costruire una centrale idroelettrica da 15.000 MW.
Il problema non è l’AI: è dove si trova e chi la controlla
La notizia – riportata da Cristina Marrone sul Corriere della Sera – ha aperto una voragine.

Non solo perché mostra quanto possano essere compromettenti certe conversazioni, ma soprattutto perché dimostra quanto sia fragile il nostro controllo sui contenuti generati dalle AI, soprattutto quando questi contenuti escono dal nostro perimetro digitale aziendale e finiscono nella nuvola di qualcun altro.
Non è stata una fuga di dati. Non è stato un attacco hacker. È bastato un clic sbagliato.
Il meccanismo di condivisione pubblica – una funzione pensata inizialmente per agevolare il lavoro collaborativo o la diffusione virale di contenuti interessanti – ha generato un vero e proprio disastro: contenuti che dovevano restare in un contesto controllato sono diventati permanenti, tracciabili, indicizzati e archiviati per sempre!
I rischi: reputazione, responsabilità, sorveglianza
Nel dettaglio dell’inchiesta, emergono conversazioni che fanno rabbrividire:
- strategie aziendali opache, formulate con l’assistenza dell’AI;
- frode accademica, con studenti che si vantano di aver “superato” esami grazie ai testi scritti da ChatGPT;
- pratiche manipolative, come nel caso dell’avvocato che cercava il modo di ottenere “il prezzo più basso possibile” nelle trattative con popolazioni indigene, sfruttando la loro presunta ignoranza del valore di mercato della terra.
Tutte queste informazioni sono rimaste online, congelate nella Wayback Machine, anche dopo l’intervento di OpenAI per rimuovere i link da Google.
Il risultato? Una fotografia permanente delle peggiori intenzioni umane, rese ancora più pericolose perché veicolate da un’intelligenza artificiale che risponde a qualsiasi cosa venga chiesta, senza contesto, senza etica, senza protezione.
L’illusione della privacy e il paradosso dell’open web
Questo caso dimostra una verità che molti fingono ancora di non vedere:
ci fidiamo ciecamente di tecnologie che non controlliamo, non comprendiamo e non possediamo.
I provider centralizzati – anche i più avanzati e benintenzionati – non possono garantire la riservatezza assoluta dei contenuti generati. Né possono proteggere gli utenti da loro stessi.
Una funzione innocua, come la condivisione tramite link, può trasformarsi in un’arma a doppio taglio se combinata con i meccanismi dell’indicizzazione automatica e la memoria a lungo termine della rete.
Qual è la via d’uscita? Portare l’AI in azienda e non l’azienda nell’AI
Questo evento deve suonare come un campanello d’allarme (forte e definitivo) per chi lavora nel digitale, nella consulenza, nell’industria e nella formazione.
Non si può più pensare all’AI come a un servizio da usare “in affitto” sui server di qualcun altro.
Per chi tratta dati sensibili, formula strategie, crea contenuti, si occupa di processi critici o semplicemente vuole proteggere la propria reputazione, la soluzione è solo una:
✅ Intelligenze Artificiali locali, open-source, controllabili.
✅ Infrastrutture proprietarie, sicure, auditabili.
✅ Modelli linguistici allenati e custoditi all’interno del proprio perimetro digitale aziendale.
Se stai pensando di usare strumenti AI per la tua attività – e vuoi farlo con consapevolezza, in modo solido e indipendente – posso aiutarti a farlo nel modo giusto.
Contattami per progettare insieme una strategia AI su misura, autonoma e libera da rischi di questo tipo.