Ia, Bisio (Engineering Group): "Intelligenza deve trattenere il patrimonio cognitivo"

(Adnkronos) - "L'intelligenza sovrana è l’intelligenza artificiale governata. Cerca di evitare la dispersione del patrimonio cognitivo delle aziende o delle istituzioni. Tradotto: l'intelligenza artificiale succhia dati e sulla base di questi dati impara. Se qualcuno dopo di voi fa l'accesso allo stesso modello, si nutre e si arricchisce del vostro know how e del patrimonio cognitivo. È importante, quindi, che l’Ai riesca a tenere il nucleo di un'azienda, di un'istituzione, al suo interno, senza condividerlo con concorrenti o con altre persone non volute. Questo rappresenta un vantaggio”. Esordisce così Aldo Bisio amministratore delegato di Engineering Group, oggi a Roma all’incontro ‘AI Italia. L’AI tra innovazione e sovranità digitale’, organizzato dal Gruppo su iniziativa della senatrice Licia Ronzulli, vicepresidente del Senato della Repubblica. Un incontro che mira a promuovere il confronto tra istituzioni, industria e mondo accademico sulla costruzione di un'Intelligenza Artificiale Made in Italy, per un Ai sovrana, sicura e sostenibile. Poi prosegue: “Il secondo tema che si cerca di affrontare il tema della trasparenza, quello che nel gergo tecnico viene chiamato “open weights” (pesi aperti). I pesi sono i parametri numerici attraverso i quali questa gigantesca funzione dell'intelligenza artificiale lavora, e il tema è che tipicamente i grandi modelli sono delle scatole chiuse quindi, si conoscono gli input, si conoscono gli output ma non si sa perché sia stata presa una certa decisione e sia stata data una certa risposta. Avere gli “open weights” significa avere il controllo completo di tutta la parte dei dati rispondente a questa seconda grande esigenza”. Poi aggiunge: “C’è poi un'esigenza di proporzionalità dell'uso dell'intelligenza rispetto alla dimensione e all'articolazione dei problemi che deve affrontare. Grandissimi modelli consumano tantissima energia, quindi alcuni possono essere chiamati per risolvere certi problemi, altri devono essere chiamati per risolvere problemi molto più specializzati, con utilizzi e intensità di consumi energetici decisamente inferiori”. E ancora: “Non voglio dire che non sia opportuno usare i grandi modelli, ma che bisogna usarli solo quando è il caso, quindi, ad esempio, quando non c'è un patrimonio cognitivo o un intellectual property da difendere, se è a rischio il know how di un'azienda, di un'istituzione, i dati di clienti o di cittadini è meglio fare attenzione”.  “La nuova architettura lanciata dal progetto - spiega ancora l’ad - riempie il bisogno delle imprese di dare risposta a quelle sfide di cui vi stiamo parlando. Crediamo di aver sviluppato tramite questa progettazione un large model, e su questa base abbiamo poi costruito tutta una struttura che in qualche modo aiuta le aziende o le istituzioni a costruire gli agenti, a dare perfetta visibilità sulla compliance, per cui il modello e tutta l'architettura è nativamente compliant con il Gen Ai Act europeo, intendiamo in questo modo dare una risposta a tutte queste esigenze”.  Infine uno sguardo al futuro. “Sicuramente l’attenzione deve ricadere sul tema legato alla protezione degli Ip (proprietà intellettuale) e sull'evoluzione, per esempio, della normativa sui data leaks, sia per quanto riguarda l'accesso ai modelli di Ai sia per la protezione; un secondo tema riguarda chi fa le regole. I modelli devono essere perfettamente ispezionabili in hand to hand quindi non devono essere solo chiari i parametri del modello stesso, ma devono essere chiari e aperti anche i dati di training su cui è stato allenato quel modello perché in funzione dei dati acquisisce determinati modi di pensare certi comportamenti”. “Non si tratta solo di governare la meccanica del modello ma anche il suo tipo di comportamento. Bisogna definire questo set di regole e confortare chi le utilizzerà e chi sarà oggetto delle decisioni di queste macchine”, conclude. 
---economiawebinfo@adnkronos.com (Web Info)

Disponibile su Google Play
Disponibile su Google Play