Webinar “L’Intelligenza Artificiale e il sistema paese” – 27/06/2020

In questa pagina trovate i link agli interventi dei relatori:

E qui di seguito il testo degli interventi, in italiano e in inglese.

Intelligenza Artificiale e il sistema Paese

Giuseppe Valditara – professore ordinario di diritto romano – Università di Torino

Per capire l’importanza della cosiddetta Intelligenza Artificiale (AI) partiamo da esempi concreti. I raccoglitori di frutta e verdura nei campi saranno sostituiti da robot. Ciò porterà ad un incremento della produttività e avrà fra l’altro implicazioni non marginali sui flussi migratori e sul lavoro nero.
L’intelligenza artificiale consentirà di gestire al meglio la clientela di uno studio professionale con un risparmio di costi e una sempre maggiore efficienza.
Consentirà anche di individuare da satellite il grado di inquinamento di un terreno con effetti notevoli sulla salute collettiva.
La guida autonoma è Intelligenza artificiale. Pensiamo a quale impatto avrà sulla società la diffusione della guida autonoma e che impatto notevole sulla occupazione.
I processi produttivi, la vendita di beni e servizi, la circolazione sono sempre più condizionati dalla intelligenza artificiale. Così pure la lotta contro le malattie. Un esempio dell’importanza della IA nel campo medico lo si è avuto proprio con la recente epidemia: i paesi asiatici grazie alla AI hanno fatto del tracciamento e della geolocalizzazione l’arma vincente della lotta al virus.
Qui reclusione e distanziamento, là innanzitutto AI. Entrati ultimi nella crisi epidemica per crescita del pil, siamo quelli che più hanno bloccato il sistema produttivo e che più risentiranno della assenza di una strategia tecnologica nel contrasto alla malattia.
Si calcola che nei prossimi 10 anni i processi indotti dalla Intelligenza Artificiale avranno un impatto notevole sulla crescita del pil (epidemie permettendo), con potenziali tassi di crescita superiori a quelli registrati in Italia nel secondo dopo guerra. Se le conseguenze sulla produttività sono evidenti, non altrettanto chiare sono quelle sulla occupazione. Per evitare una contrazione della occupazione occorrerà potenziare le opportunità offerte proprio da AI. Siamo alle origini insomma della quarta rivoluzione industriale.
Faccio solo un paragone. Il pil dell’Inghilterra fino al 1500 era inferiore a quello degli stati italiani nel loro complesso. A inizio 1700, nonostante le colonie, il pil del Regno Unito e Italia era ancora pari, nel 1830 quello britannico era tre volte superiore. Cosa era successo? Rivoluzione industriale, telaio meccanico e macchina a vapore.
È chiaro dunque che utilizzare al meglio le potenzialità di AI dà un vantaggio competitivo.
La Francia ha deciso di investire un miliardo l’anno nel settore. La Germania 4 miliardi l’anno. Italia fino al primo governo Conte, quello giallo-verde, non aveva un progetto, una strategia, nè un piano di finanziamenti specifici. Ma i grandi player internazionali sono USA, Cina, seguiti dal Giappone. L’Asia investe moltissimo.
I singoli stati europei da soli non possono reggere la competizione globale. Da qui la necessità di una strategia italiana all’interno di una più ampia strategia europea.
Qualche ricordo personale
di quando ero capodipartimento Alta formazione e Ricerca del Miur.
Andammo a Parigi a incontrare Cedric Villani allora responsabile del progetto francese per la Intelligenza Artificiale per capire cosa stesse facendo la Francia. L’impressione fu che si stessero muovendo a 360 gradi.
Emerse immediatamente la necessità che l’Italia avesse una sua propria visione. Abbiamo eccellenze, ma tutte sono abituare a muoversi in ordine sparso. Dunque decidemmo di costituire un tavolo che raccogliesse e coordinasse le migliori strutture di ricerca nazionali e che mettesse in stretto collegamento mondo della ricerca e mondo produttivo. Il tema della centralità del trasferimento tecnologico ne è una conseguenza. Poi fu chiara la necessità di una formazione dedicata: dottorato e corso di laurea sull’Intelligenza Artificiale. Ne nacque un risultato di eccellenza tanto che la New York University decise di prendere a modello questo innovativo corso di laurea.
Ma occorreva anche una strategia per contare in Europa. Da qui gli accordi con alcuni paesi europei ed un convegno internazionale che si tenne nel novembre 2019 a Trieste. La scelta della città giuliana non venne fatta a caso: rappresentava infatti un ponte verso est, idoneo a coinvolgere in una strategia comune e sinergica i Paesi danubiani e balcanici.
Il passaggio successivo era la centralità della AI nel nuovo piano nazionale della ricerca.
Quegli sforzi e quella strategia sono stati dispersi per quanto riguarda la ricerca con la caduta del primo governo Conte. Non è dunque casuale che di fronte ad un virus che rispetto a 500 anni fa si è modernizzato perché ha imparato a prendere l’aereo, la strategia italiana sia rimasta la stessa del tempo del 1600: tutti chiusi in casa e distanziamento. Come non ricordare quel fraticello che di fronte alla carità di Luigi Gonzaga verso poveri appestati gli urlava: stai lontano e ne morirai pure tu!
Ora noi dobbiamo lanciare una sfida. Il nostro obiettivo è individuare idee per ricostruire e rilanciare il paese. Come Lettera 150 abbiamo elaborato un progetto di riforma della legge sugli appalti. Un progetto sulla giustizia. Un progetto sulla didattica on line. Un altro sul reclutamento degli insegnanti di scuola. Uno sul turismo. Abbiamo sostenuto la centralità della ricerca.
Oggi qui, ragionando in termini propositivi di Intelligenza Artificiale, mettiamo un altro mattone per costruire un’Italia ideale, l’Italia del futuro.

Artificial intelligence and the country – Giuseppe Valditara

To understand the importance of so-called Artificial Intelligence (AI) we start from concrete examples. Fruit and vegetable harvesters in the fields will be replaced by robots. This will lead to an increase in productivity and will have, among other things, not insignificant implications for migration flows and undeclared work.
Artificial intelligence will make it possible to better manage the clientele of a professional firm with cost savings and increasing efficiency.
It will also make it possible to identify by satellite the degree of pollution of a terrain with significant effects on collective health.
The autonomous guide is Artificial Intelligence. Let’s think about what impact the diffusion of autonomous driving will have on society and what a considerable impact on employment.
Production processes, the sale of goods and services, circulation are increasingly conditioned by artificial intelligence. So is the fight against diseases. An example of the importance of AI in the medical field was precisely with the recent epidemic: Asian countries, thanks to AI, have made tracking and geolocation the winning weapon in the fight against the virus.
Here imprisonment and distancing, there primarily AI. The last to enter the epidemic crisis due to the growth of the GDP, we are the ones who have blocked the production system the most and who will suffer the most from the absence of a technological strategy in the fight against the disease.
It is estimated that in the next 10 years the processes induced by Artificial Intelligence will have a considerable impact on the growth of GDP (epidemics permitting), with potential growth rates higher than those recorded in Italy after the Second World War. If the consequences on productivity are evident, those on employment are not so clear. In order to avoid a contraction in employment, it will be necessary to strengthen the opportunities offered by AI. In short, we are at the origins of the fourth industrial revolution.
I am just making a comparison. The GDP of England until 1500 was lower than that of the Italian states as a whole. At the beginning of 1700, despite the colonies, the GDP of the United Kingdom and Italy was still equal, in 1830 the British GDP was three times higher. What had happened? Industrial revolution, mechanical chassis and steam engine.
It is therefore clear that making the best use of AI’s potential gives a competitive advantage.
France has decided to invest one billion a year in the sector. Germany 4 billion a year. Italy until the first government Conte, the yellow-green one, did not have a project, a strategy, nor a specific financing plan. But the big international players are the USA, China, followed by Japan. Asia invests a great deal.
The individual European states alone cannot withstand global competition. Hence the need for an Italian strategy within a wider European strategy.
Some personal memories
from when I was head of the department of Higher Education and Research of the Miur.
We went to Paris to meet Cedric Villani then in charge of the French project for Artificial Intelligence to understand what France was doing. The impression was that they were moving 360 degrees.
The need for Italy to have its own vision immediately emerged. We have excellencies, but they are all used to moving in a scattered order. So we decided to set up a table that would gather and coordinate the best national research structures and put the world of research and the productive world in close connection. The theme of the centrality of technology transfer is a consequence of this. Then it was clear the need for a dedicated training: doctorate and degree course on Artificial Intelligence. The result was a result of excellence so much so that New York University decided to take this innovative degree course as a model.
But it also needed a strategy to count in Europe. Hence the agreements with some European countries and an international conference held in Trieste in November 2019. The choice of the Julian city was not made at random: in fact, it represented a bridge to the east, suitable to involve the Danube and Balkan countries in a common and synergic strategy.
The next step was the centrality of AI in the new national research plan.
Those efforts and that strategy were dispersed with regard to research with the fall of the first Conte government. It is therefore no coincidence that in the face of a virus that, compared to 500 years ago, has modernized itself because it learned to fly, the Italian strategy has remained the same as it was at the time of the 1600s: all locked indoors and distancing. How can we not remember that little fraticello that in front of Luigi Gonzaga’s charity towards the poor plague victims shouted at him: stay away and you will die too!
Now we have a challenge. Our aim is to come up with ideas for rebuilding and revitalising the country. As Letter 150, we have drawn up a draft reform of the Procurement Act. A project on justice. A project on online education. Another on the recruitment of school teachers. One on tourism. We supported the centrality of research.
Today here, thinking in proactive terms of Artificial Intelligence, we put another brick to build an ideal Italy, the Italy of the future.

AI, una risorsa per l’Italia. Strategie per il futuro

Pierluigi Contucci – professore ordinario di Fisica Matematica – Università di Bologna


Quella dell’Intelligenza Artificiale è una rivoluzione in atto e in questi anni sta iniziando una fase per molti versi simile a quella della rivoluzione industriale che ha trasformato radicalmente la società moderna. Allora i primi motori a vapore mostravano che era possibile generare energia dalla combustione e con essa azionare macchine che non necessitavano di forza umana o animale. Oggi le nuove tecniche di apprendimento automatico sintetizzano parte dell’informazione contenuta nelle grandi basi di dati e generano una conoscenza che, pur piccola e rudimentale, non proviene da cervello biologico umano o animale. L’esempio lampante è la classificazione delle immagini: dopo aver visto alcune (molte!) foto di una persona la macchina ne riconosce di nuove e sa distinguerle da quelle di altre persone. Diversi istituti di ricerca stimano l’impatto di questa nuova tecnologia nel PIL europeo del prossimo decennio superiore mediamente al 16%, il doppio della crescita che abbiamo avuto nel decennio successivo alla seconda guerra mondiale. E’ evidente quindi che occorre governare in modo virtuoso la tecnologia emergente, la scienza di cui abbisogna e la sua interazione con l’umano che deve essere sempre al centro dello sviluppo. Queste premesse da sole fanno comprendere la complessità del problema di governo che ci troviamo ad affrontare e la necessità di coordinare in modo efficiente la sua organizzazione. Se da un lato infatti la realizzazione di una tale crescita va realizzata con solidi strumenti tecnico-scientifici che dovranno essere coltivati e promossi dall’altro il problema del se e come questa crescita verrà incanalata nel benessere dei cittadini è tutt’altro che scontato e merita la alta attenzione e priorità. Gli studi degli ultimi due decenni sul benessere che va ben oltre il prodotto interno lordo, su come questo si misuri in maniera non arbitraria, potranno servire da guida.
Una strategia per il paese va quindi pensata in ottica continentale e nel nostro caso europea. Nel panorama internazionale infatti Stati Uniti e Cina sono gli attori principali e nessun paese europeo può, da solo, entrare nel vivo della competizione. Serve invece una forte alleanza in EU che punti sulla condivisione di risorse finanziarie, culturali e umane oltre che su comuni direzioni di sviluppo concordate tra i paesi membri.
Il caso italiano merita una serie di considerazioni a parte essendo frutto di un ambiente molto peculiare. Da oltre mezzo secolo circola infatti una narrazione secondo cui le nostre forze produttive, economiche, accademiche e culturali sono allo sbando e prive di impulso verso il futuro. Sono periodiche ma piuttosto inascoltate le smentite, dati alla mano, di queste persistente vulgata anche perché molto meno godibili nel gossip del passaparola. Il paese è ricchissimo di ingegno che sarà la materia prima della crescita che sperabilmente sarà capace di raggiungere. Quel che manca è un apparato organizzativo e istituzionale in grado di promuovere l’ingegno, metterlo in condizione di operare in modo fluido invece che imbrigliarlo e umiliarlo di continuo con normative scritte di fretta e magari con buone intenzioni ma che inevitabilmente si trasformano in cavilli vessatori. Il lavoro all’interno della commissione strategica del MIUR, la collaborazione e l’intesa con l’omonimo francese su AI, ha mostrato chiaramente le direzioni verso cui muoversi e i rischi da scongiurare. L’intrinseca trasversalità di AI, ottima dote in fase di alta velocità, è al contempo causa di grande viscosità nelle fasi inziali dello sviluppo. Per fare un esempio a livello di paese non c’è dicastero che non sia coinvolto o interessato, direttamente o meno, da questa nuova tecnologia e allo stato attuale ognuno tenderà a tirare ed egemonizzare le parti di sua competenza. Scendendo a livello accademico: sono moltissimi i settori scientifico disciplinari che credono di essere i naturali depositari di questa scienza che, per inciso, scienza non lo è ancora. Per eliminare la frizioni presenti ad ogni livello è assolutamente indispensabile individuare strutture di raccordo e coordinamento. Partendo dalle fondamenta (ma non necessariamente in ordine cronologico) serve un centro di ricerca in AI, magari Europeo, che funzioni analogamente al CERN. Serve poi un’agenzia per l’AI con una impostazione non dissimile a quella dell’Agenzia Spaziale Italiana che raccordi mondo accademico e industriale e canalizzi le risorse nazionali e produttive. Infine, e questo magari dopo aver avviato i centri precedenti, servirà prima o poi un ministero in AI che funga da collettore politico finanziario. E’ impensabile gestire una rivoluzione di tipo industriale senza un dicastero dedicato.

AI, a resource for Italy. Strategies for the future

Pierluigi Contucci


Artificial Intelligence is a revolution in progress. In recent years it is going through a phase similar to that of the industrial revolution that has radically transformed the human society and accompained it into the modern era. At that time the first steam engines showed that it was possible to generate energy from combustion and with it to operate machines that did not require human or animal power. Today the new machine learning techniques synthesize part of the information contained in the large databases and generate knowledge that, although small and rudimentary, does not come from the human or animal biological brain. The striking example is the classification of images: after seeing some (many!) photos of a person, the machine recognizes new ones and can distinguish them from those of other people. Several research institutes estimate the impact of this new technology on the European GDP for the next decade by an average above 16%, twice as much the growth that we had in the decade following the Second World War. It is therefore clear that such emerging technology must be governed in a virtuous way, as much as the science it needs and its interaction with the human who must always be at the center of it. These premises alone give a glimpse of the complexity of the governance problem we are facing and the need to efficiently coordinate its organization. If on the one hand the realization of such growth must be achieved with solid technical-scientific tools that must be cultivated and promoted on the other, the problem of whether and how this growth will be channeled into the well-being of citizens is far from obvious and deserves high attention and priority. The studies of the past two decades on well-being that goes far beyond the gross domestic product, on how this is measured in a non-arbitrary way, can serve as a guide.
A strategy for the country must therefore be thought of from a continental , European, perspective. In the international panorama, in fact, the United States and China are the main actors and no European country can, on its own, enter the heart of the competition. Instead, a strong alliance in the EU is needed which focuses on the sharing of financial, cultural and human resources as well as on common development directions agreed between the member countries.
The Italian case deserves a series of separate considerations as it is the result of a very peculiar environment. For more than half a century, a narrative has circulated according to which our productive, economic, academic and cultural forces are in disarray and have no impulse towards the future. The denials of these persistent vulgata are periodic but rather unheard, also because they are much less enjoyable in gossip based word of mouth. The country is fully endowed of inventive talent which will be the raw material of the growth that it will hopefully be able to achieve. What is missing is an organizational and institutional apparatus capable of promoting that talent, putting it in a position to operate in a fluid way rather than harnessing it and continuously humiliating it with regulations written in a hurry and perhaps with good intentions but which inevitably turn into vexing quibbles. The work within the MIUR strategic commission, the collaboration and understanding with the French side on AI, clearly showed the directions in which to move and the risks to be carefully avoid. The intrinsic transversality of AI, an excellent gift at high speed, is at the same time a cause of great viscosity in the initial stages of development. To give an example at the country level there is no dicastery that is not involved or interested, directly or not, by this new technology and at the time being everyone will tend to pull and dominate the parts of his own competence. Going down to the academic level: there are many scientific disciplinary sectors that believe they are the natural depositories of this science which, incidentally, is not a mature science yet. To eliminate the frictions present at each level it is absolutely essential to identify and create institutional and coordination structures. Starting from the foundations (but not necessarily in chronological order) we need a research center in AI, perhaps European, which would work similarly to CERN. Then we need an agency for AI with functions similar to the Italian Space Agency that connects academia and industry and channels national and productive resources. Finally, this step to be done after starting the previous centers, sooner or later we will need an AI ministry that will serve as a political and financial center. It is unthinkable to manage an industrial revolution without a dedicated dicastery.

La necessità di una nuova offerta formativa per l’Intelligenza Artificiale

Paolo Branchini – Infn


I primi studi sull’Intelligenza Artificiale IA sono stati fatti negli anni 50 del secolo scorso. Metodi simbolici e di apprendimento automatico sono stati da allora utilizzati con alterne fortune. Notiamo però empiricamente che dai primi anni di questo secolo, la produzione di dati negli ambiti più diversi è aumentata pesantemente. Grandi database sono stati creati, e questo ha segnato nel campo dell’ IA un cambio di paradigma infatti i progressi più rilevanti sono da allora avvenuti grazie alla strategia dell’apprendimento automatico. Assistiamo ora ad una fase di sviluppo esplosivo di queste tecnologie ed alla messa a sistema di conoscenza che tradizionalmente afferisce a discipline molto diverse. Studi statistici fatti su articoli pubblicati che contengono nel loro titolo “IA” mostrano attraverso l’utilizzo di parole chiave usate per descrivere sommariamente il lavoro in considerazione, che a seconda dell’applicazione considerata in IA compaiono parole chiave diverse. Questo suggerisce che ogni disciplina che prende questa tecnologia in considerazione da al significato di IA un valore differente, probabilmente deducendolo dalle finalità applicative che considera. L’insieme di sovrapposizione è piuttosto contenuto e mostra oltre alla sopradetta ambiguità di definizione del campo di lavoro la sua grande trasversalità tra le diverse discipline. Per restare alla sola produzione scientifica da una sua analisi in termini di aree geografiche si evince una grande produzione scientifica in questo campo degli USA dell’EU e della China. C’è per l’EU quindi la possibilità di competere su scala globale. Le applicazioni di IA sono utilizzate dall’agricoltura alla medicina alle scienze naturali e a quelle sociali. Una ricerca in questo campo potrebbe trasformarsi in un vantaggio competitivo per il sistema industriale del Paese. Fino al 2019 in Italia non esisteva un percorso formativo in IA. Erano infatti presenti diversi corsi di Laurea Magistrale (LM) con diverse vocazioni, ciascuno di questi corsi aveva, comprensibilmente, declinato IA in modo diverso, in genere asservendolo ad un interesse dominante. Nello specifico la necessità di un approccio multidisciplinare, basato su scienze dure con importanti contaminazioni tra FIS, MAT, INF e ING era spesso riconosciuto negli obiettivi ma disatteso nelle offerte formative. Quando presente nei percorsi, IA era spesso presentata come una tecnica per affrontare problemi, non come disciplina da sviluppare e perfezionare. Ma se, come sistema Paese, si vuole trarre da questa disciplina un vantaggio competitivo questo punto va sicuramente perfezionato. Le precedenti osservazioni ci portano a considerare un percorso formativo fortemente interdisciplinare. Il percorso formativo dovrebbe iniziare al più presto inserendo ad esempio discipline come lo sviluppo di codici già nelle classi liceali. È assolutamente fondamentale che il percorso formativo sia completo e abbia una forte caratterizzazione interdisciplinare. Di conseguenza sarebbe anche auspicabile offrire un percorso di Dottorato che ne completi il percorso formativo. È in questo quadro che si pone la proposta della commissione per il Paese al quale suggerisce un offerta formativa che parta dalla definizione di una classe di laurea triennale in IA a cui segue una magistrale onde fornire un percorso completo, di cui la Fisica, l’Informatica e la Matematica costituiscano i pilastri fondanti. L’obbiettivo principale della Laurea Triennale dovrebbe essere quello di Introdurre gli studenti all’informatica, alla matematica applicata e ai metodi di modellistica fisica, cioè allo studio delle metodologie multidisciplinari che sono e saranno alla radice del campo dell’intelligenza artificiale, in un quadro unificato.
Questa è una grande area di conoscenza, sempre più importante sia nel mondo accademico che in quello professionale. I campi della scienza in cui modelli e dati svolgono un ruolo centrale stanno effettivamente affrontando nuove sfide fondamentali. Le nuove tecnologie stanno generando un diluvio di dati che sta trasformando il modo in cui vengono condotti scienza, affari e governo. Tuttavia, pochi attori possiedono le capacità di modellazione necessarie per creare conoscenza in questo mondo in continua evoluzione.
Le nuove generazioni di studenti potrebbero arrivare a padroneggiare allo stesso tempo i metodi computazionali più avanzati e i metodi fondamentali delle scienze dure. Mentre i primi sono essenziali per sfruttare appieno le informazioni contenute nei dati, i secondi sono fondamentali per il processo che parte dalla modellazione e raggiunge la sua soluzione matematica.
L’obiettivo di questa nuova laurea dovrebbe essere quello di formare gli studenti per acquisire gli strumenti che consentirebbero loro di diventare esperti in una varietà di settori che utilizzano strumenti computazionali e matematici per modellare realtà complesse.

The need for a new training offer for Artificial Intelligence

Paolo Branchini – Infn


The first studies on AI Artificial Intelligence were made in the 1950s. Symbolic and machine learning methods have since been used with varying fortunes. However, we note empirically that since the early years of this century, the production of data in the most diverse fields has increased dramatically. Large databases have been created, and this has marked a paradigm shift in the field of AI. In fact, the most relevant progress has occurred since then thanks to the strategy of machine learning. We are now witnessing an explosive phase of development of these technologies and the introduction of a knowledge system that traditionally belongs to very different disciplines. Statistical studies made on published articles that contain in their title “AI” show through the use of keywords used to briefly describe the work under consideration, that depending on the application considered in AI different keywords appear. This suggests that each discipline that takes this technology into consideration gives a different value to the meaning of AI, probably deducing it from the application purposes it considers. The set of overlap is rather contained and shows, besides the above mentioned ambiguity of definition of the field of work, its great transversality between the different disciplines. From the analysis of the scientific production geographical areas, we can see a great scientific production in this field in the USA, the EU and China. There is therefore the possibility for the EU to compete on a global scale. Applications of AI are used from agriculture to medicine to natural and social sciences. Research in this field could turn into a competitive advantage for the country’s industrial system. Until 2019 in Italy there was no training in AI. In fact, there were several courses of Master’s Degree (LM) with different vocations, each of these courses had, understandably, declined AI in a different way, generally subjugating it to a dominant interest. Specifically, the need for a multidisciplinary approach, based on hard sciences with important contaminations between FIS, MAT, INF and ING was often recognized in the objectives but disregarded in the educational offerings. When present in the pathways, AI was often presented as a technique to address problems, not as a discipline to be developed and perfected. But if, as a country system, you want to gain a competitive advantage from this discipline, this point must certainly be perfected. The previous observations lead us to consider a strongly interdisciplinary training path. The training path should start as soon as possible, for example by including disciplines such as the development of codes already in high school classes. It is absolutely essential that the educational path is complete and has a strong interdisciplinary characterization. Consequently, it would also be desirable to offer a doctorate course that completes the training. It is within this framework that the Committee’s proposal for the country is set, to which it suggests a training offer that starts from the definition of a three-year degree class in AI followed by a master’s degree in order to provide a complete path, of which Physics, Computer Science and Mathematics are the founding pillars. The main objective of the Bachelor’s Degree should be to introduce students to computer science, applied mathematics and physical modeling methods, i.e. the study of multidisciplinary methodologies that are and will be at the root of the field of artificial intelligence, in a unified framework.
This is a great area of knowledge, increasingly important both in the academic and professional world. The fields of science in which models and data play a central role are actually facing new fundamental challenges. New technologies are generating a flood of data that is transforming the way science, business and government are conducted. However, few actors possess the modelling capabilities needed to create knowledge in this ever-changing world.
New generations of students could master both the most advanced computational methods and the fundamental methods of the hard sciences. While the former are essential to take full advantage of the information contained in the data, the latter are fundamental to the process that starts with modeling and reaches its mathematical solution.
The goal of this new degree should be to train students to acquire the tools that would enable them to become experts in a variety of fields that use computational and mathematical tools to model complex realities.

Quali implicazioni giuridiche dell’interrelazione tra uomini ed intelligenze artificiali? La necessità della regolazione

Solveig Cogliani – Giudice Consiglio di Stato

I sistemi di intelligenza artificiale di ultima generazione sono dotati di un grado di ‘autonomia’ dall’uomo, tale da mettere in crisi il modello tradizionale di interrelazioni. Quando un agente è posto in un ambiente, genera una sequenza di azioni in base agli input che riceve; tale sequenza causa una serie di conseguenze sull’ambiente stesso. Ed un processo è interno allo stesso sistema, nel caso degli algoritmi generati tramite la tecnologia di machine learning. Difronte a tale dato, si offrono tre possibilità: vietare radicalmente la realizzazione di tali sistemi; accettare passivamente l’evoluzione tecnologica; individuare un’area di rischio consentito. Escludo la prima e la seconda opzione, perché esse condurrebbero a rinunziare ai benefici sociali ed economici dell’innovazione o alla possibilità ‘governare’ in modo virtuoso la tecnologia. Ed allora la sfida per l’Italia passa proprio per l’analisi delle problematiche emergenti e degli ambiti nei quali è necessario l’adeguamento della disciplina e del sistema giudiziario. Si pensi per es. all’immissione sul mercato delle auto senza conducente, ove possa comportare una soluzione radicale dei problemi del traffico.
Il primo campo in cui è necessario l’adeguamento è quello della tutelabilità delle tecnologie AI, attraverso il superamento dei limiti imposti dalla normativa sul diritto d’autore e sulla proprietà industriale, proprio in ragione della caratteristica di AI come punto di confine tra ‘concetto’ e ‘cosa’, che sfugge all’ordinaria definizione di ‘bene giuridico’, partendo dall’esito della conferenza EPO 2018 – intitolata “Patenting Artificial Intelligence”. Ma ancora di più è necessario affrontare il tema della tutelabilità delle creazioni di AI, non ignorando l’esperienza di altri Paesi, come l’Arabia Saudita ed il Giappone con il riconoscimento del robot “Sophia” e del software “Shibuya Mirai”. Allo stato il dibattito della dottrina oscilla tra l’attribuzione della nuova opera/idea al creatore (decisioni della Corte di Giustizia dell’Unione Europea Infopaq C-05/08 e USA Feist Publication – Rural Telephone Service Company, Inc. 499 U.S. 340 1991) , o all’utilizzatore e l’equiparazione alle c.d. ‘opere orfane’, di cui al d.lgs. n. 163 del 2014. Tale seconda soluzione apre una finestra sulle ipotesi di una disciplina, che si prenda ‘carico’ di tutte le implicazioni.
Ancora è necessario costruire una disciplina della responsabilità, derivante dalla ponderazione dei rischi dell’applicazione dei sistemi avanzati di AI. Per affrontare tale tema va innanzitutto precisato che i dispositivi dotati di intelligenza artificiale si caratterizzano per essere interattivi, in quanto percepiscono l’ambiente e rispondono a stimoli esterni ed interni; autonomi, in quanto modificano le loro peculiarità ed il loro stato interno senza stimoli esogeni di variazione, esercitando il controllo sulle loro; adattabili, poiché possono migliorare la loro funzionalità mediante il cambiamento delle regole che governano il loro funzionamento; imprevedibili, perché sono capaci di lavorare su una serie di dati in continua evoluzione, ad una velocità non umana. Ne discende che l’evoluzione della disciplina legislativa non potrà che tenere conto del giusto bilanciamento tra incentivazione della ricerca e dello sviluppo e tutela degli utenti e dei consumatori. In ambito civilistico si parte dalla configurazione dei danni da mal funzionamento (riconducibili alla direttiva europea 1985/374/CE) e, tuttavia, tale impostazione, appare insufficiente in relazione ai meccanismi menzionati che potrebbero portare all’esclusione della responsabilità del costruttore/progettista. In realtà, non è avveniristico pensare che si possa configurare una responsabilità propria – studiandone le ricadute patrimoniali – come avviene del resto nel nostro ordinamento attraverso il riconoscimento delle persone giuridiche come centri di imputazione. Sotto il profilo della responsabilità penale, sinora la soluzione prospettata annovera uno sviluppo della responsabilità indiretta dell’uomo. Le AI sarebbero annoverabili tra i c.d. ‘agenti innocenti’, strumentalizzati da una persona umana. Se appare probabilmente eccessivo, allo stato, configurare l’autonoma responsabilità delle intelligenze artificiali, non si può che registrare l’insufficienza, tuttavia, della riconduzione alla categoria dei ‘prodotti’.
Non possono neppure essere ignorate le esperienze ormai attuali di AI in ambito processuale. Spazi per l’utilizzo di siffatte tecnologie, nel senso dell’efficienza, sono ravvisabili nell’elaborazione di piattaforme per lo studio delle oscillazioni giurisprudenziali, trovando un giusto bilanciamento tra le esigenze di certezza del diritto e l’evoluzione della giurisprudenza determinata dal mutamento del sentire umano e della percezione dei valori.

Which are legal implications of the interrelation between humans and artificial intelligence (AI)? The need of a regulation

Solveig Cogliani


The latest AI generation systems are equipped with a degree of ‘autonomy’ from humans that can undermine the traditional model of interrelationships. The presence of an AI agent in an environment generates a sequence of actions based on the inputs it receives. This sequence causes a series of consequences to the environment itself. That process is also internal to the same system, in the case of algorithms generated through machine learning technology. Consequently there are three possibilities to deal with mentioned facts:
1.To radically prohibit the creation of such systems;

  1. Passively accept technological evolution;
  2. identify an allowed risk area.
    According to my opinion the first and second options shall be excluded, because they would lead to give up the social and economic benefits of innovation or the possibility of virtuously ‘governing technology’. The challenge for Italy passes from the analysis of emerging problems and areas in which is necessary the adaptation to the regulatory framework and the judicial system. Thinking for example of putting at the market driverless cars, for a radical solution to traffic problems, it implies new regulatory framework.
    The first area that require adaptation is protection of AI technologies, by overcoming the limits imposed by protection of intellectual property and industrial property legislation, in particular due to the characteristic of AI as a borderline between the ‘concept’ and the ‘thing’. This issue escapes the ordinary definition of ‘tangible and intangible property’, starting from the result of the EPO 2018 conference – entitled “Patenting Artificial Intelligence”. In addition, it is necessary to address the topic of AI creations protection, without ignoring the experience of other countries, such as Saudi Arabia and Japan with the recognition of the “Sophia” robot and the “Shibuya Mirai” software.
    Present debate related to the doctrine oscillates between the attribution of the new object / idea to the creator (decisions of the Court of Justice of the European Union Infopaq C-05/08 and USA Feist Publication – Rural Telephone Service Company, Inc. 499 US 340 1991), or to the user and the equalization to the so-called ‘orphan work’, provided by legislative decree n. 163 of 2014. This second solution opens a window on the hypotheses of a regulatory framework, which takes care of all the implications.
    It is necessary to build up a regulatory framework for responsibilities, deriving from the risk pondering of the application of advanced AI systems. In order to address this topic, first it shall be specified that devices equipped with artificial intelligence are characterized by being:
    interactive, because they perceive the environment and respond to external and internal inputs;
    autonomous, because they modify their peculiarities and their internal state without exogenous stimuli of variation, exercising control over them;
    adaptable, since they can improve their functionality by changing the rules that govern their operation;
    unpredictable, because they are capable of processing series of data in continuous evolution, at faster speed than humans.
    ConsequantlyConsequently, the evolution of the legislative regulatory framework can only take into account the right balance between stimulating research and development and protecting users and consumers. In the field of civil laws, we start from the configuration of damages from malfunctioning (by European directive 1985/374/EC) and, however, this approach appears insufficient in relation to the mentioned mechanisms that could lead to the exclusion of the responsibility of the maker/ implementer. In reality, it is not futuristic to think that it is possible to configure one own responsibility – and studying its patrimonial consequences – as happens in our legal system through the recognition of legal persons as attribution centres. From the point of view of criminal liability, the envisaged solution so far includes a development of indirect human liability. AI would be counted among the so-called ‘innocent agents’, manipulated by a human. If, at present, it is probably excessive to configure the autonomous responsibility of artificial intelligence, it must be highlighted the insufficiency, however, of tracing back to the category of ‘products’.
    In addition the AI experiences cannot be ignored in the trial. Spaces for the use of such technologies, in the sense of efficiency, can be found in the development of platforms for the study of jurisprudential oscillations, looking for a fair balance between the needs of legal certainty and the evolution of jurisprudence determined by the change of the human feeling and perception of values.

AI e L’Universo letterario: la sperimentazione italiana

Andrea Dezzi – imprenditore

In questo periodo si parla molto di AI in tantissimi campi di applicazione. Tuttavia, raramente si affronta il tema con riferimento allo spettacolo e alla cultura. È un mondo molto diverso dagli altri perché non teme il commettere errori, consentendo di spingersi un po’ più in là senza il rischio di causare danni, se non quello di realizzare qualcosa che allo spettatore o al lettore non piaccia. Con il progetto Lola 1,2,3 in collaborazione della facoltà̀ di Ingegneria di Internet dell’Università̀ di Tor Vergata, Made in tomorrow ha avviato una sperimentazione, chiamata “Universo letterario”, diretto alla creazione di una “coscienza Ibrida”, dopo la prima fase di avvio attraverso l’attivazione di una skill interattiva, la creazione di profili social dei personaggi, la pubblicazione dell’ebook.
Lola 1,2,3 si muove nel contesto dell’intelligenza artificiale, utilizzando i due approcci di ragionamento deduttivo e induttivo. Il primo viene indagato nell’ambito della rappresentazione della conoscenza e del ragionamento, cercando di automatizzare i processi di deduzione logica. Lo stesso approccio induttivo, proprio del machine learning si mostra, un sovraprodotto di una formulazione deduttiva, ineludibile per la macchina, chiusa nelle leggi del meccanicismo, anche nel caso in cui si tratti di una sorta di meccanicismo probabilistico o statistico. Nel caso del nostro ‘universo letterario’ abbiamo scelto di seguire un approccio ‘integrato’, sicuramente non semplice da realizzare, cercando di utilizzare nuove connessioni tra deduzione (applicazione di regole ai dati) e induzione (costruzione di regole dai dati), ma anche di fare passi importanti verso procedimenti di carattere semiotico come quelli dell’abduzione. La differenza tra deduzione, induzione e abduzione si illustra col classico esempio del sacco di fagioli di Peirce. Si immagini un tavolo su cui si trova un sacco di fagioli. Se sul sacco è posta un’etichetta con scritto: “fagioli neri”, si può dedurre che prendendo una manciata di fagioli dal sacco questi siano neri. Si supponga invece che il sacco non rechi alcuna etichetta, e che prendendo una manciata si osservi che tutti fagioli sono neri. Si può allora indurre (eventualmente dopo un certo numero di manciate) che tutti i fagioli nel sacco siano neri. Si immagini infine di avere un sacco con l’etichetta “fagioli neri” e una manciata di fagioli neri sul tavolo. Pensare che i fagioli provengano da quel sacco sarebbe un’abduzione. In altre parole, l’abduzione è una ragionevole ipotesi su una situazione osservata, un ragionamento sulla migliore spiegazione dei fatti. L’AI integrata, dunque, consisterà in una sinergia tra metodi di apprendimento necessari per costruire modelli di grande estensione e metodi di ragionamento ipotetico basato su logiche non classiche (ad esempio probabilistiche) per applicare tali modelli ai casi. A queste riflessioni aggiungiamo anche la necessità di dare una personalità ai singoli personaggi nelle interazioni con il pubblico. Esistono molti modelli di interazione testuale, i cosiddetti ‘chatbot’; la difficoltà maggiore consiste nel riuscire a mantenere una coerenza logica tra le interazioni con questi, soprattutto quando gli argomenti di interazione spaziano su diversi ambiti semantici. I modelli che riescono ad essere coerenti sono quelli costruiti su singoli domini. Tali modelli consistono in reti neurali profonde, solitamente ricorrenti, addestrate su grandi moli di testo. In questo modo, analizzando un grande quantitativo di interazioni, si è in grado di generare testo coerente nell’ambito di una conversazione. Un primo approccio alla costruzione di modelli conversazionali, coerenti con i rispettivi personaggi del nostro universo letterario, consiste nel fine-tuning di modelli conversazionali preesistenti in lingua italiana. Registrando, quindi, le interazioni con il pubblico intrattenute durante la fase iniziale dalla nostra redazione, saremo in grado di condurre degli addestramenti mirati su più domini partendo da una classificazione delle interazioni usando categorie base come ES, IO e SUPER-IO ma anche nozioni culturali, proprietà di linguaggio ed esperienze ricostruite nonché una propriocezione di un corpo fisico che non esiste nella realtà (sono personaggi letterari). In questo modo potremo indirizzare la risposta su diversi modelli di generazione testuale basati sui principali tratti di ciascun personaggio attraverso la classificazione dell’interazione testuale basata sulle interazioni precedenti e della possibile risposta basata sul tipo di interazione e sui tratti psicologici del personaggio, la scelta del modello conversazionale più appropriato per la risposta e la generazione della risposta.

AI and the Literary Universe: Italian experimentation

Andrea Dezzi

In this period there is a lot of talk about AI in many fields. However, the theme is rarely addressed with reference to entertainment and culture. It is a very different world from the others because it does not fear making mistakes, allowing you to go a little further without the risk of causing damage, if not to do something that the viewer or reader might not like. With the Lola 1,2,3 project in collaboration with the Internet Engineering faculty of the University of Tor Vergata, Made in Tomorrow has launched an experiment, called the “Literary Universe”, aimed at creating a “Hybrid consciousness”, after the a start-up phase through the activation of an interactive skill, the creation of social profiles for the characters, the release of the eBook.
Lola 1,2,3 moves in the context of artificial intelligence, using the two approaches of deductive and inductive reasoning. The first is investigated in the context of the representation of knowledge and reasoning, trying to automate the processes of logical deduction. The same inductive approach, typical of machine learning, shows itself as a by-product of a deductive formulation, unavoidable for the machine, closed in the laws of mechanism, even if it is a sort of probabilistic or statistical mechanism. In the case of our ‘literary universe’ we have chosen to follow an ‘integrated’ approach, certainly not easy to implement, trying to use new connections between deduction (application of rules to data) and induction (construction of rules from data), but also to take important steps towards semiotic procedures such as those of abduction. The difference between deduction, induction and abduction is illustrated with the classic example of the Peirce bean bag. Imagine a table on which there is a sack of beans. If there is a label on the bag that says “black beans”, it can be inferred that by taking a handful of beans from the bag they are black. Suppose instead that the sack bears no label, and that by taking a handful it is observed that all beans are black. It can then be induced (possibly after a certain number of handfuls) that all the beans in the sack are black. Finally, imagine that you have a bag with the “black beans” label and a handful of black beans on the table. To think that the beans come from that sack would be an abduction. In other words, abduction is a reasonable hypothesis on an observed situation, a reasoning on the best explanation of the facts. The integrated AI, therefore, will consist of a synergy between learning methods necessary to build large-scale models and hypothetical reasoning methods based on non-classic logic (for example probabilistic) to apply these models to cases.
To these reflections we also add the need to give personality to individual characters in interactions with the public. There are many models of textual interaction, the so-called ‘chatbots’; the most difficult part is being able to maintain a logical consistency between the interactions with them, especially when the topics of interaction span different semantic spheres. The models that manage to be consistent are those built on individual domains. These models consist of deep, usually recurring neural networks trained on large amounts of text. By analyzing a large amount of interactions, you are able to generate coherent text within a conversation. A first approach to the construction of conversational models, consistent with the respective characters of our literary universe, consists in the fine-tuning of pre-existing conversational models in the Italian language. By recording, therefore, the interactions with the public entertained during the initial phase by our editorial staff, we will be able to conduct targeted training on multiple domains starting from a classification of the interactions using basic categories such as ES, IO and SUPER-IO but also cultural notions , properties of language and reconstructed experiences as well as a proprioception of a physical body that does not exist in reality (they are literary characters). This way we will be able to direct the answer to different text generation models based on the main traits of each character through the classification of the text interaction based on the previous interactions and the possible answer based on the type of interaction and the psychological traits of the character, the choice of the conversational model most appropriate for answering and generating the answer.

L’intelligenza artificiale e il suo impatto in campo giuridico: un punto di vista dei diritti umani

Cecilia Danesi – Università di Buenos Aires

In poche parole, l’IA fa previsioni tenendo conto di un set di dati. Per fare ciò, i dati vengono elaborati da algoritmi, che sono come una ricetta di cucina; vale a dire, una sequenza di passaggi logici.
Dall’altro lato, tenendo conto della definizione fornita dal Cambridge Dictionary, il bias è “una situazione in cui sostieni o ti opponi a qualcuno o qualcosa in modo ingiusto perché sei influenzato dalle tue opinioni personali”. Possiamo trovare un chiaro esempio di parzialità in un rapporto delle Nazioni Unite che afferma che “nonostante decenni di progressi nel colmare il divario di parità di genere, quasi 9 uomini e donne su 10 nel mondo hanno una sorta di pregiudizio nei confronti delle donne”.
Forse ti starai chiedendo, qual è la relazione tra bias e AI. Il rapporto citato risponde a questa domanda: “Gli algoritmi di apprendimento automatico non sono di parte intrinsecamente; imparano ad essere prevenuti. Il biasing algoritmico si verifica quando l’algoritmo di apprendimento viene addestrato su set di dati distorti e successivamente apprende “accuratamente” i modelli di bias nei dati. In alcuni casi, le rappresentazioni apprese all’interno degli algoritmi di apprendimento automatico possono persino esagerare questi pregiudizi ”.
Vediamolo in gioco con alcuni esempi reali. Amazon ha sviluppato un sistema di intelligenza artificiale che ha stabilito un punteggio per il CV. Ha discriminato i candidati donne e ha scelto invece gli uomini perché è stato formato sugli ultimi 10 anni di pratiche dell’azienda, la maggior parte dei quali erano uomini in posizioni elevate. Qualcosa di simile è accaduto con la Apple Card. Come riportato da Goldman Sachs e sua moglie, dati i loro punteggi di credito identici, il limite di spesa della moglie era in realtà 20 volte inferiore.
Questa situazione attuale potrebbe farci immaginare il grande impatto che l’AI ha nel campo giuridico e in particolare nell’arena dei diritti umani. In effetti, i sistemi di IA vengono utilizzati nel sistema giudiziario. Ad esempio: Prometea (Argentina) e Predictice (Francia e Belgio). Quest’ultimo, che può prevedere l’esito di un caso, è limitato dalla legge francese di riforma giudiziaria. Stabilisce che le informazioni dei magistrati e dei dipendenti pubblici non devono essere utilizzate per valutare, analizzare, confrontare o prevedere le loro pratiche.
Un altro esempio è Compas, un sistema utilizzato nella maggior parte degli stati degli Stati Uniti che fornisce un punteggio di ricorrenza utilizzato dal giudice per decidere la pena detentiva. L’imputato deve compilare un modulo con 137 domande, come: Quante volte ti sei trasferito negli ultimi dodici mesi? Sei mai stato sospeso o espulso dalla scuola? Hai vissuto con entrambi i genitori e se in seguito si sono separati, quanti anni avevi a quel tempo? Quanti dei tuoi amici sono mai stati arrestati? Una persona affamata ha il diritto di rubare?
Come potresti aver pensato, queste sono domande controverse nel senso che la tua risposta determinerà il tuo profilo criminale secondo il sistema AI. Tuttavia, il fatto che tu pensi che sia giusto rubare se hai fame non implica necessariamente che tu sia un criminale e che potresti effettivamente farlo.
Prendimi ad esempio: genitori divorziati, quasi espulsi da scuola per ribellione e capirei perché una persona ruberebbe per mangiare ma poi di nuovo, non credo che abbia il DIRITTO di farlo, nel senso legale del termine .
ProPublica ha condotto uno studio che ha dimostrato che gli esseri umani e Compas hanno lo stesso pregiudizio razziale (entrambi i neri discriminati). Quella ricerca e il famoso Loomis Case hanno creato un grande dibattito intorno al sistema. Ciò ha motivato il disegno di legge “Justice in Forensic Algorithms Act del 2019” che recita che, in ogni caso penale, la protezione dei segreti commerciali non si applica quando gli imputati avrebbero altrimenti il diritto di ottenere prove.
Infine, quali sono le aree più colpite dall’IA?
• Responsabilità civile: chi sarà responsabile dei danni causati dall’IA, tenendo conto della sua autonomia e capacità di autoapprendimento?
• Diritto dei consumatori: l’UE ha già affermato che la direttiva sulla responsabilità per i prodotti difettosi non potrebbe essere sufficiente per i danni causati dai prodotti digitali.
• Personalità giuridica elettronica: è corretto attribuire a un sistema di IA una personalità giuridica elettronica? Per l’Arabia Saudita, lo è. Perché il paese ha concesso personalità giuridica al robot umano Sophia.
• Protezione dei dati (GDPR): questa è una delle aree più preoccupanti perché i dati sono il cuore dell’IA (specialmente durante questa pandemia Covid in cui i sistemi di IA vengono utilizzati per combatterla).
• Censura preventiva, libertà di espressione e altro: AI ha la possibilità di creare profili e utilizzarli per la pubblicità o per manipolare le decisioni degli elettori, come nel caso Cambridge Analytica. Inoltre, lo screening dell’incitamento all’odio nei social media e in Internet viene effettuato dall’intelligenza artificiale. Ciò potrebbe causare una censura preventiva.
Come possiamo vedere, abbiamo molte riflessioni e domande ma nessuna risposta certa. Per questo motivo, l’intelligenza artificiale deve essere una politica statale per creare un quadro affidabile e sicuro per il suo utilizzo. Pertanto, dobbiamo lavorare tutti insieme e studiare l’IA con un approccio interdisciplinare e sui diritti umani.

Artificial intelligence and its impact on law field: a human rights point of view

Cecilia Danesi – University of Buenos Aires

In a nutshell, AI makes predictions taking into account a data set. To do that, the data is processed by algorithms, which are like a cooking recipe; that is to say, a sequence of logical steps.
On the other side, taking into account the definition provided by the Cambridge Dictionary, bias is “a situation in which you support or oppose someone or something in an unfair way because you are influenced by your personal opinions”. We can find a clear example of bias in an UN report that says that “despite decades of progress in closing the gender equality gap, close to 9 out of 10 men and women around the world hold some sort of bias against women”.
You maybe are wondering, what is the relation between bias and AI. The mentioned report answers this question: “Machine learning algorithms are not biased inherently; they learn to be biased. Algorithmic biasing occurs when the learning algorithm is trained on biased datasets and subsequently “accurately” learns the patterns of bias in the data. In some cases, the learned representations within machine learning algorithms can even exaggerate these biases”.
Let’s see this at play with some real examples. Amazon developed an AI system which established a score to the CV. It discriminated female candidates and chose men instead because it was trained on the company’s last 10 years of files- most of which were men in high positions. Something similar occurred with the Apple Card. As reported by Goldman Sachs and his wife, given identical credit scores to them, the wife’s spending limit was actually 20 times lower.
This current situation could make us imagine the great impact AI has in the law field and specially in the human rights arena. In facts, AI systems are being used in the Judiciary System. For example: Prometea (Argentina) and Predictice (France and Belgium). The latter, that can predict the result of a case, is limited by the French Judicial Reform Act. It establishes that the information of the magistrates and civil servants must not be used to evaluate, analyse, compare or predict their practices.
Another example is Compas a system used in most of the states of the US that gives a recurrence score used by the judge to decide the prison sentence. The accused has to fill a form with 137 questions, such as: How often have you moved in the last twelve months? Were you ever suspended or expelled from school? Did you live with both parents and if they later separated, how old were you at that time? How many of your friends have ever been arrested? Does a hungry person have a right to steal?
As you might have thought, these are controversial questions in the sense that your answer will determine your criminal profile according to the AI System. However, the fact that you think it is ok to steal if you are hungry does not necessarily imply that you are a criminal and that you might actually do it.
Take me for example: divorced parents, almost expelled from school because of being rebellious and I would understand why a person would steal to eat but then again, I do not think he has the RIGHT to do it, in the legal sense of the word.
ProPublica conducted a study that showed that humans and Compas have the same racial bias (both discriminated black people). That research and the famous Loomis Case created a big debate around the system. That motivated the “Justice in Forensic Algorithms Act of 2019” bill which reads that, in any criminal case, trade secrets protections do not apply when defendants would otherwise be entitled to obtain evidence.
Finally, which are the areas most impacted by AI?
• Civil Liability: Who is going to be responsible for the damages caused by AI -taking into account its autonomy and self-learning capabilities?
• Consumer Law: The EU has already said that the Directive of liability for defective products could not be enough for the damages caused by digital products.
• Electronic Legal Personality: Is it correct to give to an AI system an electronic legal personality? For the Saudi Arabian, It is. Because, the country granted legal personality to the human robot Sophia.
• Data Protection (GDPR): This is one of the most worrying areas because data is the core of AI (especially during this Covid Pandemic where AI systems are being used to fight against it).
• Prior censorship, freedom of expression and more: AI has the possibility to create profiles and use them for advertising or to manipulate the decisions of voters, such as Cambridge Analytica case. Besides, the screening of hate speech in social media and Internet is done by AI. This could cause prior censorship.
As we can see, we have a lot of reflections and questions but no certain answers. For that reason, AI has to be a state policy to create a reliable and safe framework for its use. Therefore, we have to work all together and study AI with an interdisciplinary and a human rights approach.

Data Science: prospettive per la ricerca e la formazione di dottorato

Stefano Ruffo – direttore SISSA

Data Science copre diverse attività di ricerca relative all’analisi di grandi campioni di dati digitali. Questo campo di ricerca estremamente interdisciplinare è in forte espansione, grazie allo sviluppo di metodi finalizzati all’acquisizione di enormi set di dati, insieme al costo dell’hardware in continua diminuzione. Questa acquisizione consente di memorizzare e recuperare grandi set di dati, comprese informazioni dettagliate su un gran numero di elementi. Tuttavia, la motivazione principale per Data Science è l’apprezzamento che molti sistemi mostrano comportamenti che non possono essere compresi dallo studio di piccoli campioni. In effetti, tali sistemi mostrano proprietà emergenti che dipendono dalle interrelazioni tra gli elementi e sono caratterizzati sia da una dimensione enorme che da una complessa struttura di dipendenze. Spesso derivano da fonti composite e diversificate, il che rende la loro affidabilità non uniforme. Per tutti questi motivi, le informazioni incorporate in questi dati non sono direttamente leggibili dall’uomo. Queste caratteristiche richiedono lo sviluppo di un livello algoritmico intermedio, finalizzato ad estrarre dai set di dati alcune caratteristiche rilevanti, che possono essere utilizzate dall’analista per costruire modelli ed eseguire previsioni. La Data Science è oggi uno strumento di lavoro chiave in molti campi, che vanno dalle scienze sociali, economia e medicina alle scienze dure (matematica, fisica). I risultati più importanti ottenuti in questo campo negli ultimi anni sono legati allo sviluppo e al perfezionamento delle tecniche di deep learning e inferenza bayesiana. Risultati chiave sono stati ottenuti anche in teoria della rete, clustering e riduzione dimensionale.
Quattro anni fa la SISSA ha deciso di rafforzare le competenze in questo campo fondando un nuovo gruppo di ricerca che lavora su problemi complessi nelle scienze fondamentali, sviluppando e utilizzando algoritmi legati alla Data Science. Il gruppo è stato creato all’interno del Dipartimento di Fisica ed è, quindi, caratterizzato da un focus specifico su problemi di fisica della materia condensata, astrofisica e cosmologia, fisica statistica, biofisica. Tuttavia, una caratteristica chiave del gruppo è l’interdisciplinarità, che combina competenze in statistica, teoria dell’ottimizzazione, analisi funzionale, fisica statistica, neuroscienze cognitive.
Il gruppo di ricerca in Data Science beneficia del fertile humus formato da un gran numero di attività correlate che erano già presenti alla SISSA. La SISSA è la culla delle simulazioni al computer in Italia dagli anni ’80, ospita uno dei supercomputer più potenti d’Italia (Ulisse). La SISSA ha recentemente avviato con successo un Master in High Performance Computing (https://www.mhpc.it/), ed è una forza trainante in un Master in Data Science and Scientific Computing (https://dssc.units.it/ ). La SISSA, inoltre, fa parte della collaborazione Leonardo, che porterà in Italia uno degli otto supercomputer europei.
È forse interessante descrivere il processo che ha portato alla creazione del nuovo gruppo di ricerca, potrebbe essere di riferimento per altre istituzioni accademiche in Italia. Il progetto è stato finanziato nell’ambito dell’iniziativa del Dipartimento di Eccellenza del Ministero dell’Università e della Ricerca con una dotazione di 8 ME in 5 anni per il personale e le infrastrutture. È stato formato un comitato consultivo esterno, composto da ricercatori stranieri riconosciuti nel settore, ed è stato aperto un bando internazionale. Una cinquantina di ricercatori hanno risposto alla chiamata e dieci sono stati invitati per i colloqui. Il processo ha infine portato alla chiamata diretta di un professore ordinario e di un professore associato, entrambi esteri. Presto verrà assunto un assistente professore dall’estero. Con un gruppo di 4-5 post-doc e 4-5 studenti di dottorato, il gruppo è decollato proprio nel bel mezzo del blocco COVID in Italia.
Il programma di dottorato associato al gruppo inizierà nel 2020/2021 e si concentrerà su 4-5 posti di dottorato all’anno per i quattro anni del programma. È previsto un primo anno di lezioni di base (modellazione statistica, modellazione e inferenza bayesiana, reti neurali), combinate con attività di laboratorio sulla programmazione (python, programmazione probabilistica, ecc.). Il programma prevede corsi monografici e seminari su temi avanzati, su invito di esperti internazionali.
Vorrei concludere con uno sguardo al futuro. Sarà fondamentale comprendere le strategie che il cervello utilizza per risolvere problemi, come la memoria episodica, con più efficienza di un computer. I risultati degli studi sull’Intelligenza Naturale serviranno da guida per lo sviluppo di algoritmi di Intelligenza Artificiale. Gli obiettivi a lungo termine per l’Intelligenza Artificiale includono flessibilità, apprendimento rapido, accesso immediato e spontaneo alla memoria. La SISSA offre un centro che sposerà Data Science e Cognitive Neuroscience, per creare una migliore conoscenza su come il cervello esegue queste operazioni con meccanismi chiaramente diversi da quelli attualmente applicati nell’Intelligenza Artificiale.

Data Science: perspectives for research and PhD training

Stefano Ruffo – director SISSA

Data Science covers several research activities related to the analysis of large samples of digital data. This extremely interdisciplinary research field is booming, due to the development of methods aimed at acquiring huge data sets, coupled with the ever decreasing hardware cost . This acquisition allows storing and retrieving large data sets, including a detailed information on a large number of elements. However, the main motivation for Data Science is the appreciation that many systems show behaviors that cannot be understood by the study of small samples. Indeed, such systems exhibit emergent properties that depend on the interrelationships among elements and are characterized by both a huge size and a complex structure of dependencies. They often derive from composite and diversified sources, which makes their reliability uneven. For all these reasons, the information embedded in these data is not directly human readable. These features call for the development of an intermediate algorithmic layer, aimed at extracting from the data sets a few relevant features, that can be used by the analyst to build models and perform predictions. Data Science is nowadays a key work tool in many fields, ranging from social science, economy and medicine to the hard sciences (mathematics, physics). The most important results obtained in this field in the last few years are related to the development and the refinement of deep-learning and Bayesian inference techniques. Key results were also obtained in network theory, clustering and dimensional reduction.
Four years ago SISSA decided to strengthen the expertise in this field by founding a new research group working on complex problems in fundamental sciences, by developing and using algorithms related with Data Science. The group has been created within the Physics Department and is, therefore, characterized by a specific focus on problems in condensed matter physics, astrophysics and cosmology, statistical physics, biophysics. However, a key feature of the group is interdisciplinarity, combining expertises in statistics, optimization theory, functional analysis, statistical physics, cognitive neuroscience.
The research group in Data Science profits from the fertile humus formed by a large number of related activities that were already present at SISSA. SISSA is the cradle of computer simulations in Italy since the 1980’s, it hosts one of the most powerful super-computers in Italy (Ulysses). SISSA has recently started a successful Master in High Performance Computing (https://www.mhpc.it/), and is a driving force in a Master Degree in Data Science and Scientific Computing (https://dssc.units.it/). Moreover, SISSA is part of the Leonardo collaboration, which will bring in Italy one of the eight European supercomputers.
It is perhaps interesting to describe the process that has led to the creation of the new research group, it could be of reference for other academic institutions in Italy. The project has been funded within the Excellence Department initiative of the Ministry of University and Research with an endowment of 8 ME in 5 years for personnel and infrastructures. An external advisory committee, made of foreign researchers that are recognized authorities in the field, was formed and an international call was opened. About fifty researchers replied to the call and ten were invited for interviews. The process finally led to the direct call of a full professor and of an associate professor, both from abroad. An assistant professor from abroad will be hired soon. With a bunch of 4-5 post-docs and 4-5 PhD students, the group took off right in the middle of the COVID lockdown in Italy.
Tha PhD program associated with the group will start in 2020/2021 and will be focused on 4-5 PhD positions per year over the four years of the program. A first year of foundational lecture courses is foreseen (statistical modeling, Bayesian modeling and inference, neural networks), combined with laboratory activities on programming (python, probabilistic programming, etc.). Monographic courses and seminars on advanced topics will run through the program, with the invitation of international experts.
I would like to finish with a look into the future. It will be crucial to understand the strategies the brain uses to solve problems, such as episodic memory, with more efficiency than a computer. The results of studies on Natural Intelligence will serve as a guide for the development of Artificial Intelligence algorithms. The long-term goals for Artificial Intelligence include flexibility, rapid learning, immediate and spontaneous access to memory. SISSA offers a center that will marry Data Science and Cognitive Neuroscience, to create better knowledge on how the brain performs these operations with mechanisms clearly different from those currently applied in Artificial Intelligence.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *