Intervista a Dario Denni, consulente specializzato in affari istituzionali e regolamentari nelle comunicazioni elettroniche, sulla governance dell’Intelligenza Artificiale durante l’evento dedicato al tema della privateAI, organizzato da Seeweb ed EuropIA.

La private-AI può essere una soluzione nella confusione regolamentare dei diversi sistemi giuridici perché ci chiama a una considerazione nuova.
Come obiettivo della governance regolamentare dell’intelligenza artificiale abbiamo avuto i “sistemi di AI” e con ogni probabilità la questione è più complessa perché non c’è una tecnologia univoca quando ci riferiamo alle AI ma facciamo riferimento a hardware, software, networking, capacità di calcolo, i dati stessi. Quindi l’attenzione doveva essere indirizzata altrove, ossia ad avere come obiettivo di governance i dati.

Questo significa che anche un’azienda che è data driven deve necessariamente pensare a tipologie di rischio che coinvolgano degli asset che sono legati a un’economia basata sui dati. Ora mentre nei dati personali abbiamo una feconda dottrina e una giurisprudenza consolidata oltre a una regolamentazione abbastanza solida, ci ritroviamo che per i dati non-personali siamo leggermente indietro.

I dati non-personali segnatamente quelli aziendali sono un asset fondamentale per le imprese. L’impresa che come finalità ha quella di massimizzare gli utili, per farlo deve vedere l’AI solo come un’opportunità volta proprio a rafforzare sia la parte della crescita dei profitti sia la parte della riduzione del rischio anzi il superamento del rischio proprio grazie all’AI.
Con l’AI privata questo è possibile perchè tutto rimane comunque all’interno dell’azienda, quindi è ovvio che se invece si usano dei sistemi di intelligenza artificiale che chiameremo pubblici questo non accade perchè gli stessi dati che sono oggetto di training e perfino gli output, diventano poi patrimonio del sistema AI di un’azienda terza che potrà poi sfruttarli o rigurgitarli a seguito di nuove ricerche.

In prima analisi non c’è soltanto il GDPR con cui l’AI-act deve andare d’accordo però certamente rispetto al GDPR la prima cosa che colpisce è che uno è basato sul rischio – quindi ci sono quattro livelli di rischio da tenere in considerazione – invece nel caso del GDPR c’è un concetto di minimizzazione. Queste due regolamentazioni europee devono andare d’accordo necessariamente e devono trovare il cosiddetto bilanciamento. Noi spesso a livello europeo veniamo accusati di del cosiddetto Bruxelles-effect che ricordo essere un libro prima ancora che un principio – per cui sostanzialmente da Bruxelles arriva la normativa e certamente anche buona parte di emulazione a livello globale. Ma oggi in scenari più complessi che hanno questioni geopolitiche differenziate ci portano a ritenere che questo concetto non vale più perché la governance in realtà segna la differenza tra il pugilato e fare a pugni: le regole fanno la differenza tra quello che è uno sport e l’esercizio della forza.

Allora tutti hanno bisogno di regole, poi c’è l’Europa che effettivamente ha un’elefantiasi di produzione giuridico-normativa che porta a fenomeni di delegificazione, ovvero sono troppe norme, a volte scritte male e difficili da applicare.
Ma non credete perché anche gli Stati Uniti – soltanto l’anno scorso – hanno avuto 400 proposte di legge sull’intelligenza artificiale e sebbene l’executive order di Biden sia stato cancellato da un successivo executive order, non potrà poi essere nascosto nella misura in cui ha sollevato delle tematiche e delle problematiche di sicuro interesse,

Noi abbiamo una cultura giuridica che ci impone alcuni principi che sono di base derivati dal principio di uguaglianza. Noi siamo abituati al riconoscimento dell’altra parte come uguale, alla terzietà del giudice e del giusto procedimento. Quindi tutto quello che esce fuori da un perimetro di cultura giuridica che ci appartiene diventa automaticamente fonte di disuguaglianze e banalmente di guerra che è esattamente quello che sta accadendo. Quindi darsi delle regole è importante per evitare disuguaglianze economiche, ingiustizie, disparità, guerre, dal momento che la tecnologia il potere finanziario economico non sono equamente distribuiti. Si dice che è un potere legato agli algoritmi ma ricordiamoci però che dietro il potere ci sono delle persone.

Credo che si stia dando potere non solo ad aziende (poche), non solo a persone (poche), ma anche a Stati (pochi) quindi dobbiamo cercare anche gli sviluppi su aspetti tecnologici che oggi appaiono solamente civili però hanno anche dei risvolti militari di non poco momento.

C’è stato un movimento culturale globale e resterà certamente traccia di tutto quello che è accaduto almeno negli ultimi 3 anni. Siamo partiti da una richiesta di moratoria non operabile perché effettivamente non era pensabile che poi le aziende sulla base di una richiesta – sebbene fosse sottoscritta da illustri studiosi – fermasse il processo di training dei modelli. E stiamo parlando solo del 2023 dopodiché è arrivato l’executive order di Biden e c’è stato il G7 di Hiroshima che era centrato proprio su queste ragionevoli considerazioni.

Tenere “Human in the loop”, l’uomo al centro che fa parte di un processo evolutivo tecnologico. Ma di fatto non si è dato. Dobbiamo prendere atto che purtroppo non è così perché ci sono altro tipo di interessi che concorrono a questa fattispecie e di cui dobbiamo tenere considerazione rispetto alle varie questioni.
Per esempio se sono interessi degli Stati vanno fatti dei ragionamenti diversi. I dati strategici e critici della pubblica amministrazione in linea generale così come i dati aziendali, meritano una maggiore protezione perché dalla loro violazione possono derivare non soltanto danni economici, ma anche sociali, politici, sicuritari e quant’altro.

Dobbiamo certamente pensare la private AI come una modalità per poter garantire un perimetro di compliance a questi dati e metterli in sicurezza ed evitare la condivisione in modo da non arrischiare il loro valore.