top of page

L'Intervista 

Luciano Hinna è Presidente del CSS, il Consiglio Sociale per le Scienze Sociali,  docente  ordinario di Economia Aziendale a Tor Vergata e straordinario di Programmazione e Controllo alla Universitas Mercatorum di Roma.

Laureato in Economia e Commercio, ha svolto consulenze nazionali ed internazionali per istituzioni private e pubbliche. Ha ricoperto il ruolo di esperto in comitati scientifici ed osservatori.

E’ autore di numerosi volumi ed articoli in materia di pubblica amministrazione e lotta alla corruzione.

Il nostro magazine lo aveva intervistato anche sulla Cybersecurity, il rapporto tra intelligence di Stato ed aziendale ed il caso Italia.

HINNA NEW.jpg

INTERVISTA ESCLUSIVA A

LUCIANO HINNA

       

     "L' A.I. non è intelligente. E' incosciente, non ha etica né morale. Ci muoviamo in una frontiera senza regole ed occorre trovare un giusto equilibrio tra progresso e consapevolezza dell'utilizzo di questi strumenti innovativi".

Sulla cosiddetta Intelligenza Artificiale si è aperto un vero e proprio dibattito in tutto il mondo, anche tra gli stessi addetti ai lavori, alcuni dei quali, capitanati da Elon Musk, hanno chiesto una vera e propria moratoria nel progresso di sviluppo di questa tecnologia, paventando danni apocalittici a cui andrebbe incontro l’umanità.

In Italia, il Garante della Privacy ha emesso un provvedimento di blocco per i rischi connessi alla sicurezza dei dati e dell’informazione, scatenando polemiche e prese di posizione, visto che il nostro paese, sul piano della censura, si è posto sullo stesso piano di nazioni come Cina, Russia, Afghanistan, Iran e Venezuela.

Sull’argomento abbiamo chiesto l’autorevole parere del Prof. Luciano Hinna, professore ordinario di Economia Aziendale a Tor Vergata e straordinario di Programmazione e Controllo alla Universitas Mercatorum di Roma, uno dei massimi esperti in italia del settore. Ecco che cosa ci ha detto. 

 

L'intervento del Garante per la Privacy, che ha portato al blocco nel nostro paese della chat Microsoft dell'Intelligenza Artificiale, pone l'Italia alla stregua di paesi come Cina ed Afghanistan, dove è proibito. Ma quali sono i rischi concreti per il cittadino?

L'intervento del Garante per la Privacy è un segnale importante che sarà probabilmente seguito da altri paesi come Canada, Germania, Francia, Irlanda ecc. A mio modo di vedere non è un problema di censura, ma di gestione del rischio legato alla raccolta illecita di dati personali e all’utilizzo “spinto” dell’intelligenza artificiale generativa; ora, se anche i grandi protagonisti mondiali del mercato hanno chiamato un time-out per sospendere gli sviluppi di questa tecnologia vuol dire che qualche problema esiste. E' chiaro che l’innovazione è di per sé sempre positiva, ma è l’utilizzo che se ne fa che può esser positivo o negativo e in questo momento nel quale si opera sulla frontiera e senza regole, si è creato un nuovo Far West. Nel contesto dell’intelligenza artificiale, infatti, la frontiera delle leggi non ha ancora preso corpo è anche quella etica non è stata ancora assimilata; se non si corre ai ripari si rischia la “legge del più forte” che ovviamente non è legge ma barbarie. Tutte le norme servono a far sì che quando un “uomo con il fucile incontra un uomo con la pistola”, direbbe Sergio Leone, “l’uomo con la pistola” non deve esser necessariamente un uomo morto. Qui l’uomo con il fucile, chi ha il potere dell’intelligenza artificiale, si è fermato un attimo prima del duello all'O.K. Corral con il mercato e gli sceriffi, giustamente, hanno preso tempo".  

 

Il nostro paese rischia di rimanere indietro nel progresso tecnologico dedicato a questo settore?

“Purtroppo, questo è un rischio che il nostro paese non corre. Dico purtroppo perché in questo come in altri settori è forse dal Rinascimento che il nostro paese non è più il primo della classe: noi siamo sempre in fondo a tutte le classifiche di tutto. Magari possiamo recuperare sul fronte dell’utilizzo di tali tecnologie, ma qui la tentazione che qualcuno le utilizzi per costruirsi rendite di posizione a scapito di altri è forte. Lo abbiamo visto nel recente passato: il rischio c’è, è reale ed elevato”.

 

Torna prepotentemente un aspetto a lei molto caro, quello del cyber igiene, della formazione e della necessità di educare il fruitore di questi servizi innovativi. Vorrei il suo parere al riguardo.

" 'Se lo conosci lo eviti': ovviamente intendo il rischio. La maggior parte delle persone sono portate a vedere gli aspetti positivi dell’intelligenza artificiale, anche se non ha ancora capito bene che cosa sia: purtroppo l’intelligenza artificiale non è intelligente, è incosciente, non ha etica e neanche responsabilità morale e quindi crea dilemmi etici che non tutti si pongono. Certo è che l’utilizzo dell’intelligenza artificiale è un fiume in piena dal quale è impossibile sottrarsi (sanità, diagnostica, statistica, genoma, intelligence, finanza, formazione, marketing, ordine pubblico, smart city etc), ma attenzione, ci sono anche  “le allucinazioni” che l’intelligenza artificiale genera e quindi la informazione e la formazione  sono fondamentali per prendere coscienza dell’utilizzo che tutti noi facciamo degli strumenti, anche i più  semplici,  senza tenere conto che gli stessi possono essere ritorti contro di noi. 
Certamente l’intelligenza artificiale avrà un grande impatto nel nostro futuro e non è difficile intuire che Il suo utilizzo porrà non solo la questione del rispetto dei valori etici, ma anche il rispetto di quel diritto che ancora non c’è: una giurisprudenza che richiede sempre un tributo a chi perde di fronte ad una corte di giustizia. La tecnologia di cui stiamo parlando è spesso opaca, incomprensibile e talvolta discriminatoria con conseguenze che oggi abbiamo anche difficoltà ad immaginare. Questo è il tema della cyber security, delle fake news rilanciate con superficialità migliaia di volte, un tema che rischia di trasformare la società dell’informazione nella società della “troppa informazione” che degenera facilmente nella società della “disinformazione”.

 

Quale è il pericolo maggiore dello sviluppo della A.I. e che cosa si potrebbe fare per governare correttamente questo inevitabile progresso?

“Come accennato, Il pericolo maggiore è quello che questa grande risorsa venga usata male, ma chi definisce ciò che è giusto o ciò che è sbagliato? I paesi di common law si affidano ai comportamenti ed all’autoregolamentazione: troppo poco. Quelli di civil law, come l’Italia, si affidano alle norme ed al rispetto delle stesse: normalmente troppe per non rischiare la burocrazia anche dell’intelligenza artificiale come è già successo per l’anticorruzione, la trasparenza e la digitalizzazione. E allora che cosa fare? Per ora è importante osservare prima di prendere qualsiasi decisione; certo c’è il rischio di chiudere la stalla quando i buoi sono già scappati, ma non si può fermare il vento con il palmo della mano, lo si può solo indirizzare perché possa essere utilizzato. La battaglia ai mulini a vento contro l’innovazione tecnologica non ha alcun senso ed è perduta in partenza. Il senso, invece, è costruire mulini che sfruttino meglio l’energia del vento sapendo a priori che qualche cosa andrà certamente storto: ma questo è il prezzo della sperimentazione”.

LEGGI LE ALTRE INTERVISTE

INTERVISTA ESCLUSIVA A

ROBERT FLAVIO PALTRINIERI

Il Ceo di AviaRoma ci parla dei progetti, delle rotte e del lancio della nuova compagnia aerea. Le invidie, le difficoltà e la perseveranza per raggiungere gli obiettivi. Clicca

INTERVISTA ESCLUSIVA A SOSSIO ARUTA

Una vita sempre al massimo

Clicca

Giuliano Panicucci: "Il mercato assicurativo è in crescita." Clicca

IL METAVERSO TRA PRESENTE E FUTURO
Intervista a Massimo Canducci.

Clicca

Francesco Fimmanò: "Il futuro dell'Università (e del calcio) è on demand." Clicca

INTERVISTA A TRE DONNE DI SUCCESSO

In esclusiva per il nostro giornale 3 donne in carriera ci hanno raccontato il loro percorso, i desideri e le aspirazioni.

Paola Marella, Monica Andreotti e Patrizia Lenzi, quando il mondo femminile abbraccia la fama.

Clicca 

bottom of page