Skip to content

Latest commit

 

History

History
740 lines (412 loc) · 47.4 KB

README.md

File metadata and controls

740 lines (412 loc) · 47.4 KB

ai.school

Questo documento presenta le linee generali del progetto di AI nelle scuole superiori (ai.school si legge come high-school, se non aveste colto la sottigliezza :-).

Il progetto nasce dall'esigenza di diffondere la discussione pubblica a proposito di tematiche innovative e il loro impatto sulla società.

Da dove partire se non dalla scuola?

La diffusione su larga scala di tecnologie come l'Intelligenza Artificiale (AI) e la robotica a basso costo stanno trasformando rapidamente le società e l'industria ad ogni livello, con implicazioni (pratiche ed etiche) di vasta portata.

Questa "ondata di innovazione", paragonabile a quelle portata dall'elettricità o da Internet, solleverà problemi come il disimpiego di massa e la possibile perdita di identità personale.

E' quindi urgente stimolare la discussione pubblica su questi temi, i quali avranno ripercussioni profonde sulla vita quotidiana nel prossimo futuro.

In particolare è cruciale che i ragazzi che si accingono a scegliere l'Università (e quindi il "percorso" della proprio vita) siano consapevoli di essi.

Sommario

Nella sezione Obiettivi vengono delineati in modo più dettagliati il risultato del progetto.

Il materiale presentato nella sezione Contenuti è potenzialmente molto vasto, per cui si dovrà operare una scrematura dei temi più adatti e importanti.

Nella sezione Modalità di erogazione vengono forniti ulteriori dettagli riguardo la realizzazione pratica del progetto (tempi e classi).

Nella sezione Risorse vengono forniti approfondimenti e consigli sui "prossimi passi" che puoi fare se è piaciuto il progetto.

Chi siamo

  • Giacomo Ciarlini, laureato magistrale della facoltà di Ingegneria Informatica dell'Università di Ferrara

  • Fabio Signorelli, studente della facoltà di Biotecnologie dell'Università di Ferrara

Obiettivi

Consapevolezza generale

  • Sapere cosa sono i temi innovativi di cui parleremo, e come impatteranno su svariati aspetti della società e della vita quotidiana
  • Sapere cosa significano parole chiave come AI o Big Data, riuscendo a interpretare in modo critico le notizie dei giornali e della politica
  • Capire come sfruttare in modo efficace le innovazioni portate da questi campi nella scelta e sviluppo della propria carriera professionale (prima nell'Università e poi nel mondo del lavoro)
  • Sollecitare la discussione tra gli studenti (anche al di fuori del seminario) ed evidenziarne l'urgenza

Questioni etiche e ambientali

  • Saper formulare e sviluppare le discussioni di tipo etico e filosofico che stanno venendo innescate dall'impatto dei temi trattati
  • Rendersi conto della complessità del giudicare situazioni e scelte che presentano compromessi stringenti tra problemi sociali e qualità della vita
  • Saper valutare l'impatto che i temi trattati hanno sull'ambiente (sia in positivo che in negativo)

Passi successivi

  • Per gli studenti particolarmente interessati nell'approfondire questi temi, possiamo fornire ulteriori risorse didattiche e consigli sullo studio in autonomia. Forniremo i contatti e-mail e social agli studenti.

Contenuti

  • Presentazione del progetto

    • Presentazione speaker e obiettivi

      L'obiettivo di questi incontri è quello di ottenere due tipi di risultato:

      Il primo è una consapevolezza generale degli argomenti che tratteremo.

      Il secondo è quello di solleticare la sensibilità etica e ambientale nei confronti delle rivoluzioni tecniche e sociali scatenate da una rapida diffusione delle tecnologie che vedremo.

    • Come siamo arrivati qua?

      Per capire il perchè siamo qui ora a parlarci può essere utile esplorare il processo che ha generato l'idea di questo progetto. In questo modo spero che riusciate a mettervi nei miei panni e comprendere meglio anche il mio personale approccio al come e cosa vi presenterò.

      Lavorando nel campo della AI sono a contatto ogni giorno con nuove ricerche e applicazioni. Uno dei miei passatempi è leggere un paper di qualche ricercatore, e prendere i risultati della sua ricerca e applicarli a casi industriali reali nel mio lavoro quotidiano.

      Questo mi obbliga a essere a stretto contatto anche con tutte le implicazioni che queste scoperte portano, e a pensare a come essere trasformeranno il mondo in modo impensabile nei prossimi anni, a una velocità che decisamente non ci aspettiamo.

      Questi pensieri mi pressano ogni giorno, sopratutto vedendo la quantità di disinformazione e disinteresse verso la questi temi.

      Perchè c'è disinformazione?

      Perchè sono temi difficili da comprendere e in rapida evoluzone. Inoltre il livello di qualità dei media generalisti lascia molto a desiderare...

      Perchè c'è disinteresse?

      Perchè per come siamo fatti noi umani, ci rendiamo conto delle cose solo quando ci capitano addosso.

      Ricordiamoci poi che siamo in Italia, dove il mercato dell'attenzione mediatica (giornali e tv) è tra i più fiorenti del mondo, e non fa piacere agli ascolratori sentirsi dire "Hey attenti, tra 20 anni potreste essere non impiegabili in nessun modo..."

      Ma cosa dire? Come dirlo? Il campo dell'AI è vastissimo e in rapidissima evoluzione, quindi assieme ai professori abbiamo dovuto operare alcune scelte rispetto ai temi più significativi.

      Sono incluse comunque risorse in abbondanza (e attentamente selezionate) per farsi una discreta cultura in merito a ognuno dei temi legati all'AI.

      La sfida più grande è stata rendere digeribili temi complessi e interconnessi come l'AI e gli altri trend tecnologici che sinergizzano con essa (come Big Data o 5G).

      Oltre che farli stare all'interno di qualche ora di chiaccherata!

      Ci sono interi nuovi corsi di laurea all'Università da quest'anno, a Bologna, per dare una misura di quanto essi siano vasti.

      Come è fatta la scuola in Italia?

      Vengono insegnate materie umanistiche e scientifiche in modo da dare visioni multiple su varie aspetti delle scienze, delle arti e della cultura.

      Forse la cosa più utile è però saper interconnettere queste visioni, e infatti i vostri professori puntano molto sull'interdisciplinarità.

      Per la sua natura, l'AI calza a pennello con entrambe le visioni della conoscenza (umanistica e scientifica) e si pone esattamente all'intersezione fra esse.

      In particolare, il liceo scientifico ha lo scopo ben preciso di fornire gli strumenti che servono poi nel mondo dell'Università, non di formare professionisti.

      Ciò che non faremo durante questi incontri sarà parlare in modo strettamente tecnico di dell'AI, non verranno mostrate formule o teoremi, sia perchè non c'è il tempo per farlo (motivazione principale) sia perchè non è la cosa più importante.

      Quello con cui dovreste uscire equipaggiati da questi incontri è la possibilità pratica di muovervi attraverso l'oceano di informazione che Internet ci offre, e saper riconoscere informazioni e notizie di qualità.

      Nel momento in cui qualcuno dice cose totalmente distaccate dalla realtà (a favore o contro l'AI), mi piacerebbe che foste il tizio coi piedi per terra che solleva il dubbio:

        "stiamo comprendendo ciò di cui parliamo?"
      
    • Introduzione (tratta da questo libro)

  • Intelligenza Artificiale

    • Cos'è

      • Definizione

      L’obiettivo del campo della Artificial Intelligence (AI d'ora in poi) è quello di creare agenti “intelligenti”, i quali possono avere una percezione del mondo reale tramite dei sensori, prendere decisioni grazie alla loro “intelligenza”, e infine metterle in atto tramite degli attuatori.

      Con sensore intendiamo un qualsiasi input (o stimolo) che l'agente riceve, e con attuatore intendiamo un qualsiasi output (o reazione) che l'agente emette.

      Volendo fare un’analogia con un essere umano, si può pensare ai sensori come agli organi di senso (occhi, orecchie...), l’intelligenza è quella del nostro cervello e gli attuatori possono essere le mani, i piedi o più in generale i muscoli.

      L’analogia biologica è però limitata, in quanto non è necessario che i sensori di un agente debbano rilevare fenomeni fisici, come la temperatura o il tempo, ma potrebbe rilevare dati, relazioni, o input di qualsiasi altro genere.

      Un secondo termine fondamentale legati all'AI è Machine Learning, che come suggerisce il nome è legato all'apprendimento delle macchine. Infatti, se una intelligenza artificiale è un sistema in grado di prendere decisioni con un certo grado di autonomia, come lo si costruisce?

      Immaginiamo un bambino che cresce: tramite l'insegnamento dei genitori e le esperienze pratiche che fa, impara costantemente dal mondo attorno a sè, e diventa progressivamente "cosciente" di quali decisioni sono corrette e quali sbagliate.

      Ad esempio, semplificando in modo estremo, quando per la prima volta da bambini interagiamo col fuoco e ci scottiamo succede questo:

      1. L’evento è “etichettato” come cattivo (il dolore che percepiamo).
      2. Il cervello prende in input queste due informazioni (un dato e la sua etichetta) e cerca di capire quali sequenze di neuroni si sono attivate nel momento in cui ho riconosciuto una fiamma.
      3. Il cervello “aggiorna” la propria struttura (costruendo nuovi neuroni, sinapsi e ingrossando quelle esistenti) per migliorarsi e imparare a non ripetere l’azione. Semplificando al massimo, è come se il cervello “concatenasse” il concetto di scottatura” alla sequenza di “vedo una fiamma” -> “la sfioro con la pelle”.
      4. La prossima volta che il cervello vede una fiamma, si attiva la serie di neuroni che il cervello aveva predisposto per “imparare a non scottarsi” e collaborando con l’amigdala (dove risiede la nostra memoria) ci salva dal nuovo pericolo.

      Allo stesso modo, per costruire un'AI si cerca di "insegnarle" a comportarsi nel modo corretto.

      Cosa si intende per corretto dipende totalmente dall'ambito di applicazione, e ne vedremo vari più avanti.

      Generalmente si considera quindi il Machine Learning come una componente di un sistema di AI, nello specifico quello che permette all'AI di imparare e migliorarsi con l'esperienza.

      La definizione teorica di Machine Learning (apprendimento della macchina) è la seguente:

      “Una macchina sta apprendendo dall’esperienza E rispetto al compito T e una metrica P, se le sue performance su T, misurate con P, migliorano con l’esperienza E.”

      In particolare, alla base della rivoluzione cognitiva degli ultimi anni c'è il concetto di Deep Learning, un ulteriore sottoinsieme del Machine Learning, che si basa sull'imitazione del cervello biologico e punta a riprodurne le incredibili funzionalità di apprendimento.

      • Breve storia dell'AI

      Gli inizi

      Nel 1956, i pionieri dell'intelligenza artificiale si sono posti una missione incredibilmente difficile ma ben definita: ricreare l'intelligenza umana in una macchina.

      Questa sorprendente combinazione tra la chiarezza dell'obiettivo e la complessità del compito attirò alcune delle più grandi menti nel campo emergente dell'informatica e venne esaltata dai riflettori della televisione.

      Queste grandi menti idearono due approcci fondamentali per riuscire a costruire un software "intelligente": un approccio "basato sulle regole" e l'approccio delle "reti neurali".


      Due idee diverse

      I ricercatori del campo basato sulle regole (talvolta chiamati anche "sistemi simbolici" o "sistemi esperti") tentarono di insegnare ai computer a pensare codificando una serie di regole logiche: Se X, allora Y. Questo approccio ha funzionato bene per giochi semplici e ben definiti ("toy problems") ma è crollato quando l'universo di possibili scelte o movimenti si è ampliato: il mondo reale è troppo complesso per poter tenere conto di ogni possibile situazione e prevedere l'azione corretta da compiere.

      Il campo delle "reti neurali", tuttavia, ha adottato un approccio diverso. Invece di cercare di insegnare al computer le regole che erano state padroneggiate da un cervello umano, questi professionisti hanno cercato di ricostruire il cervello umano stesso.

      Dato che le reti aggrovigliate di neuroni nel cervello animale erano l'unica cosa capace di intelligenza, questi ricercatori hanno pensato che si sarebbero ispirati direttamente all'evoluzione biologica.

      Questo approccio imita l'architettura di base del cervello, costruendo strati di neuroni artificiali che possono ricevere e trasmettere informazioni in una struttura simile alle nostre reti di neuroni biologici.

      A differenza dell'approccio basato su regole, i costruttori di reti neurali generalmente non danno alle reti le regole da seguire nel prendere decisioni.

      Essi si limitano a inserire nelle reti neurali moltissimi esempi di un dato fenomeno - immagini, giochi di scacchi, suoni - e permettono alle reti stesse di identificare i modelli all'interno dei dati.

      In altre parole, meno interferenze umane ci sono, meglio è.

      Le differenze tra i due approcci possono essere viste nel modo in cui possono affrontare un problema semplice, ad esempio provando a identificare se c'è un gatto in un'immagine.

      L'approccio basato su regole cercherebbe di stabilire regole "Se -> Allora" per aiutare il programma a prendere una decisione: "Se ci sono due forme triangolari sopra una forma circolare, allora c'è probabilmente un gatto nell'immagine".

      L'approccio basato sulle rete neurali alimenterebbe invece milioni di foto campione del programma etichettate "gatto" o "no cat", lasciando che il programma capisca da solo quali caratteristiche dei milioni di immagini erano più strettamente correlate all'etichetta "gatto".

      Pensate ora a quanto è potente ed efficiente il nostro cervello! Spesso basta vedere un solo gatto e legarlo al concetto "gatto", per riconoscere in futuro tutti i gatti che vediamo, anche se cambia la razza, il colore, la posizione, e così via! Il tema della trasferibilità della conoscenza è un tema caldissimo nella ricerca, e avremo occasione di tornarci sopra più avanti.


      L'inverno dell'AI

      Durante gli anni '50 e '60, le prime versioni delle reti neurali artificiali hanno dato risultati promettenti e ottenuto un sacco di pubblicità.

      Ma poi verso la fine degli anni '60 i ricercatori del campo basato sulle regole hanno avuto la meglio, convincendo molti sul campo che le reti neurali erano inaffidabili e limitate nel loro uso.

      L'approccio alle reti neurali passò rapidamente di moda, e l'IA si immerse in uno dei suoi primi "inverni" durante gli anni Settanta. Nei decenni successivi, le reti neurali hanno goduto di brevi periodi di rilievo, seguiti da un abbandono quasi totale.

      Ciò che alla fine ha resuscitato il campo delle reti neurali - e ha scatenato la rinascita dell'IA che stiamo vivendo oggi - sono stati i cambiamenti in due delle principali materie prime di cui le reti neurali si nutrono, insieme a un importante passo avanti tecnico.


      La rinascita dell'AI

      Le reti neurali richiedono grandi quantità di due cose: potenza di calcolo e dati.

      I dati "addestrano" il programma dandogli molti esempi, e la potenza di calcolo permette al programma di analizzare questi esempi ad alta velocità. All'alba degli anni 60 sia i dati che la potenza di calcolo erano risorse decisamente insufficienti. Ma nei decenni successivi, tutto ciò che è cambiato.

      Oggi, il vostro smartphone ha una potenza di elaborazione milioni di volte superiore a quella dei principali computer all'avanguardia che la NASA utilizzava per inviare Neil Armstrong sulla luna nel 1969.

      Internet ha portato a un'esplosione di tutti i tipi di dati digitali: testi, immagini, video, click, acquisti, Tweets e così via.

      Approfondimento: La legge di Moore e di cosa ha paura il CEO di NVIDIA?

      Nel complesso, tutto questo ha dato ai ricercatori una grande quantità di dati di ogni tipo su cui addestrare le loro reti, così come un sacco di potenza di calcolo a basso costo per il loro "addestramento".

      Ma le reti stesse erano ancora fortemente limitate in quello che potevano fare: la procedura per "fare imparare" queste reti si rivelava efficace solo con pochi neuroni, al massimo qualche centinaio.

      Risultati accurati a problemi complessi richiedevano molti strati di neuroni artificiali (centinaia di migliaia oppure milioni), ma i ricercatori non avevano trovato il modo di addestrare in modo efficiente quegli strati man mano che venivano aggiunti.


      Welcome, Deep Learning

      La grande svolta tecnica del Deep learning è finalmente arrivata a metà degli anni 2000, quando il ricercatore leader Geoffrey Hinton ha scoperto un modo per addestrare in modo efficiente questi nuovi strati nelle reti neurali.

      Il risultato è stato come dare steroidi alle vecchie reti neurali, moltiplicando il loro potere di eseguire compiti come il riconoscimento del parlato e degli oggetti. Presto, queste reti neurali, ora ribattezzate "deep learning", hanno superato i vecchi modelli più vecchi in una varietà di compiti.

      Ma anni di pregiudizi radicati contro l'approccio delle reti neurali hanno portato molti ricercatori di IA a trascurare questo gruppo "marginale" che ha affermato risultati eccezionali.

      La svolta è arrivata nel 2012, quando una rete neurale costruita dal team di Hinton ha demolito la competizione in un concorso internazionale di Computer Vision. Dopo decenni trascorsi ai margini della ricerca sull'IA, le reti neurali hanno colpito duro e ottenuto enormi successi.

      Di seguito una piccola porzione del dataset Imagenet, costituito da milioni di immagini classificate a mano.

      Questa scoperta prometteva di scongelare il ghiaccio dell'ultimo inverno dell'IA e, per la prima volta, di portare veramente la potenza dell'IA su una serie di problemi del mondo reale.

      Vuoi seguire le ultime news in quanto a innovazione tecnologica e in particolare AI?

      Leggi IEEE Spectrum.

      Ricercatori, futuristi e CEO di aziende hanno iniziato a parlare dell'enorme potenziale del campo per decifrare il linguaggio umano, tradurre documenti, riconoscere immagini, prevedere il comportamento dei consumatori, identificare le frodi, prendere decisioni di prestito, aiutare i robot a "vedere" e persino a guidare un'auto.

      Ma attenzione!

      Come in ogni nuovo trend o nuova scoperta, bisogna saper distinguere la realtà dei fatti dall'hype!

      Vi ricordo infatti che uno degli obiettivi principali di questo seminario è quello di rendere consapevoli delle reali possibilità dell'AI e di ciò che è per ora solo fantascienza.

      Speriamo insomma di instillare in voi lo stesso senso di fastidio che proviamo noi per le testate generalistiche italiane che mettono titoli clickbait tipo "Le macchine prenderanno il controllo del pianeta!1!1!", con l'immagine dei Terminators che sterminano gli umani...

      • Esempio (la macchina a guida autonoma)

      La classificazione teorica tra AI, Machine Learning e Deep Learning può essere difficile da distinguere nella pratica, ma diventa più chiara con un esempio, come il sistema di guida autonoma di un’auto di nuova generazione.

      Questo si può infatti considerare nel suo insieme un sistema di AI: rileva dati dal mondo reale (strada, automobili, segnali stradali, velocità) tramite sensori, possiede una conoscenza che costituisce la sua intelligenza (“se stai per collidere con un oggetto, frena preventivamente”) e possiede un insieme di attuatori tramite i quali mette in pratica le decisioni (freni, sterzo, ABS).

      In questo esempio, il sistema di AI dell’auto ha un sotto-modulo di Machine Learning che gli permette di migliorarsi nel tempo, a mano a mano che la macchina “vede” strade e situazioni diverse, e aumenta le sue performance rispetto a una qualche metrica (sicurezza, tempo di reazione alla frenata, consumi).

      Questo modulo di Machine Learning è poi costituito da ulteriori sotto-moduli, tra cui ci può essere un modulo di Deep Learning che si occupa in modo specifico della visione che l’auto ha del mondo reale, tramite una rete neurale addestrata a riconoscere il tracciato della strada, le forme delle automobili, distinguerle da quelle degli alberi e dei pedoni, e così via.

      A proposito, quanto siamo vicini a macchine completamente autonome commercializzabili?

    • Cosa non è

      • Distinzione tra AI ed euristiche

      Cos'è un programma (o software)? E' in genere la risoluzione di un problema. Questo problema può essere ricordarsi la lista della spesa, oppure comunicare una transazione bancaria. In generale tutto ciò per cui esiste una serie di passi da compiere per risolvere il problema.

      La scelta dei passi giusti per risolvere il problema si chiama algoritmo.

      Vediamo ad esempio l'algoritmo per preparare un the caldo.

      Figure 1-1

      Che differenza c'è fra i programmi di AI e qualsiasi altro programma?

      Sostanzialmente l'approccio nella risoluzione del problema.

      In un programma di AI (del secondo tipo, le reti neurali o Deep Learning, quello popolare oggi), le decisioni non vengono prese nello stesso modo. Infatti non esiste una serie pre-determinata di passi da compiere, ne un risultato che è sempre lo stesso.

      La particolarità delle reti neurali è che sono come delle black boxes, nelle quali non puoi vedere dentro, semplicemente fornisci l'input e loro ti restituiscono l'output.

      Questo perchè esse sono composte da milioni di piccoli pezzetti (come i neuroni del cervello umano) e non ce n'è uno specializzato nel fare quello, e non quell'altro compito. Proprio come nel cervello umano, tutti concorrono alla presa delle decisioni, e quindi alla risoluzione del problema.

      Non si riesce quindi a spiegare il "perchè" una rete neurale prenda le decisioni che prende, a differenza di un algoritmo deterministico, nel quale puoi sempre esplorare i passi a ritroso per spiegare un eventuale fenomeno.

      • Contro Esempio (l'app Akinator)

      Conoscete l'applicazione Akinator?

      E' un applicazione che era molto popolare qualche anno fa, che sostanzialemnte consiste in questo: dopo aver pensato a un personaggio famoso, l'app ti pome una serie di domande: ad esempio "ha i capelli?", "compare in guerre stellari?" e così via, fino a indovinare il personaggio pensato.

      Questa applicazione sembra "intelligente" nel senso che sembra che il suo motore software sia una AI, ma così non è!

      Infatti se pensiamo a ciò che abbiamo detto prima, è immediato notare che c'è sempre una serie di passi predeterminati, di domande da porre in un certo ordine, che poi va a cercare in un database di personaggi e sceglie quello giusto. Però non è una rete neurale a fare questa cosa, bensì una serie di passi pre-codificati e decisi.

      Quando vogliamo capire se un programma è di AI oppure no, chiedimoci: facendo due volte le stesse scelte, si arriva sempre alla stessa conclusione? In Akinator si, quindi non è una AI.

      Figure 1-2

      • Quando l'AI è solo marketing

      Bene! Ora sapete più cose sull'intelligenza artificiale del 99 % della popolazione italiana.

      Immaginate che anche se pensiamo a professionisti esperti che lavorano nel campo dell'informatica, spesso non sanno di cosa parlano quando citano l'AI!

      Pensiamo quindi a che immagine possa avere sui media tradizionali e quindi sulla popolazione in generale.

      La storia ci insegna che l'eccitazione per il nuovo è palpabile ogni volta che avviene una nuova scoperta tecnica o ideologica.

      Immaginiamo ad esempio invenzioni tecniche come la macchina a vapore o Internet, ma anche ideologiche come il cristianesimo o una nuova teoria filosofica!

      Quando c'è una novità, tutti ne parlano (nel bene o nel male) e spesso questo crea due cose: confusione e aspettative errate.

      Figure 1-3

      Confusione perchè nessuno ha veramente chiaro ciò di cui parla (come suggerisce la vignetta), aspettative errate perchè se non conosci ciò di cui parli, come fai a sapere cosa può davvero fare?

      Questo fenomeno, detto hype ("eccitazione") è talmente conosciuto che esistono grafici e studi per interpretarlo.

      Di seguito il grafico mostra il "ciclo dell'hype", ovvero come l'hype rispetto a una novità cambia nel tempo.

      All'inizio c'è il "technology trigger" ovvero la scoperta, al quale segue un grosso picco di hype.

      Alcuni temi che hanno vissuto questo fenomeno sono ad esempio la parole "big data", "criptovalute"... (si, grafene, sto guardando te).

      In seguito, quando il mercato si rende conto che una scoperta non è immediatamente impiegabile dal punto di vista industriale, l'hype cola a picco e i media si disinteressano del fenomeno.

      Con il passare del tempo poi, escono nuove versioni della scoperta, e piano piano diventano mature al punto da realizzarci applicazioni che possano avere un'utilità nel mondo reale.

      Piano piano queste applicazioni iniziano a venire adottate, e si raggiunge un vero momento di produttività.

 

 

Figure 1-3

Più nel dettaglio...

 

 

Figure 1-3

 

 

Qual'è la situazione nel 2019?

Gartner, riconosciuto come il più autorevole giornale di trend, ogni anno stile l'hype cycle rispetto a varie tecnologie emergenti, così che si possano valutare le opportunità reali delle varie applicazioni.

 

 

Figure 1-3

 

 

Fin qua vi ho presentato il ciclo dell'hype da un punto di vista "business" (quindi di chi lavora nel campo), che è quello che analizzo io giorno per giorno, esaminando articoli, seguendo giornali specializzati in ricerca, e così via.

Quando si parla di disinformazione però, la vera domanda da farsi è:

Come vive la gente comune questo genere di fenomeni?

La risposta è: "Come delle favole".

La stragrande maggioranza della popolazione non è interessata ai fatti, ma alle storie che vengono costruite sui fatti.

Inoltre il loro unico mezzo di informazione (se c'è) è il quotidiano generalista (cartaceo, tv oppure online).

Quando il giornalista X decide di scrivere a proposito di un tema come l'AI, non pensa "okay, forniamo fatti concreti e parliamo dei limiti reali delle applicazioni", bensì pensa "qual'è la storia più emotivamente coinvolgente per il lettore?"

Questo permette la nascita di titoli di tipo questo:

Figure 1-3

Perchè avviene? Perchè cattura molto di più l'attenzione un titolo così che "nuovi sistemi di predizione automatica hanno raggiunto il 99% di precisione nella risoluzione di un problema".

Tra l'altro, l'immagine con il robot è doppiamente fuorviante, infatti come sapete bene una AI non ha bisogno di un "corpo" fisico.

  • Dove la troviamo già

Abbiamo visto ad alto livello come funziona una intelligenza artificiale (nello specifico, esamineremo quelle che funzionano tramite reti neurali, non quelle a "regole").

Per comprendere però cosa è in grado di fare una AI è il caso di fare qualche esempio.

E' un'applicazione di Intelligenza Artificiale:

  • Un filtro "intelligente" per le email di spam, che più email di spam elabora, più efficace diventa nel riconoscerle e distinguerle dalle email utili.

  • Un riconoscitore di figure o simboli disegnati a mano, come numeri, lettere o cifre.

  • Un sistema di personalizzazione dei contenuti suggeriti in base a quanto già visto (Netflix che consiglia il prossimo film da vedere, Facebook che suggerisce gruppi che potrebbero interessarti, Amazon che mostra prodotti spesso acquistati insieme).

  • Un sistema di analisi del sentimento in grado di estrarre informazioni importanti da tweet o altri dati generati dagli esseri umani su un particolare evento o personaggio. Ad esempio, si può fare un'analisi sentimentale del concetto di "Donald Trump" durante le elezioni, e capire come viene percepito dalle persone che pubblicano tweet su di esso (negativo, positivo, neutrale....).

  • Un sistema di assistenza alla scrittura che, man mano che il testo è composto, prevede le parole successive e le suggerisce. Esempi di questo sistema sono estremamente popolari, come il completamento automatico degli smartphone o la barra di ricerca di Facebook.

  • Un sistema di Computer Vision che riconosce il modello e la marca di un'auto "vedendola" con un sensore (tipicamente una videocamera).

Vediamo anche alcuni controesempi.

Non è un'applicazione di Intelligenza Artificiale:

  • Un motore di ricerca basato su parole chiave: non migliora con l'esperienza, e per renderlo più "intelligente" bisogna programmarlo esplicitamente.

  • Un'interfaccia di assistenza clienti che ha pre-programmato le risposte a specifiche esigenze. Ad esempio, se rilevo la parola "ORDER" e un codice alfanumerico nel messaggio di richiesta del cliente, allora mostro lo stato della spedizione identificato da quel codice.

  • Un sensore programmato per rilevare le targhe delle auto (es. il sistema Safety Tutor). Sebbene "veda" le targhe e possa, quindi, essere confuso con il concetto di Computer Vision, non migliora con l'esperienza, e le sue prestazioni sono determinate esclusivamente dalla programmazione in fase di progettazione, dove viene esplicitamente calibrato per rilevare un oggetto standard (la targa).

Come potete notare, le applicazioni che ho citato sono molto diverse tra loro e applicate nei più svariati campi.

Vediamo più nel dettaglio alcuni di questi campi.

Tenete conto che per motivi di tempo sono citate solo alcune applicazioni e giorno per giorno nuove scoperte aprono interi campi all'applicazione dell'AI.

  • Sistemi di raccomandazione (Netflix, Amazon, Youtube)

Il tipo di AI con cui tutti abbiamo a che fare ogni giorno sono i motori di raccomandazione (recommendation engines).

Costituito da insieme di reti neurali che collaborano, questo genere di "intelligenza" è presente in ogni sistema moderno che offra contenuti di intrattenimento on-demand, come Netflix, Spotify, o un qualsiasi sistema che ti "consigli" i prossimi contenuti da fruire in base a ciò che ti piace.

Anche i social fanno fortissimo uso di questi sistemi, ad esempio per ordinare i post nella bacheca in base ai tuoi gusti (dando spazio ai contenuti che ti piacciono e penalizzando quelli che potrebbero darti fastidio), oppure per suggerirti nuovi amici con cui collegarti.

Questo tema (consigliare ciò che piace e penalizzare ciò che non piace) ha grosse implicazioni etiche e pratiche.

Proviamo a pensare a quanto le persone si informano sui social. Tante, no?

Di fatto, tutti noi leggiamo notizie sui social..

Ma se il social "sa" quello che ci piace e quello che non ci piace, tenderà sempre a suggerirci contenuti che confermano le nostre idee, e cerca di limitare l'esposizione a punti di vista diversi.

Questo fenomeno tende a creare "bolle" di concetti, delle comfort zones che confermano in modo ciclico i nostri punti di vista, gusti, o addirittura scelte politiche.

Il fenomeno è anche detto "polarizzazione": immaginiamo che con i miei primi like su Facebook io faccia capire che sono una persona ideologicamente di destra.

Il social inizierà a promuovere nella mia bacheca contenuti di "destra", che siano giornali, oppure post di altre persone che il sistema sa essere "ideologiamente di destra", e questo fenomeno circolare tenderà a estremizzare la mie opinioni, perchè "attorno a me vedo solo conferme".

  • Social networks (Instagram, Facebook)

Cos'è social network? Un social network è una piattaforma che ti permette di interagire con persone e contenuti, creando una sorta di "livello virtuale", sopra le nostre teste, che noi trattiamo come reale.

Usando i social, ogni azione che facciamo consiste in un dato. Mettere like a una pagina, scrivere un commento oppure aggiungere un amico.

Grazie a ciò, e miliardi di utenti che spendono una cospicua parte della loro giornata si social, essi siedono su una miniera d'oro di dati di tutti i tipi. Dai nostri gusti, alla nostra rete sociale, alla nostra propensione o avversione per le idee!

Ma la lista è lunga... La moda che ci piace, i nostri cibi preferiti, i posti in cui andiamo, le nostre relazioni sentimentali, le quantità di interazioni che scambiamo con ogni altra persona, tenendo conto anche di tutte le caratteristiche degli altri...

I social con tutti questi dati addestrano centinaia di reti neurali specializzate, che lavorano di concerto per offrirti i contenuti più interessanti, nuove persone da conoscere, e così via.

Ricordiamo che le reti sono specializzate, ovvero ognuna un determinato e piccolo compito, ad esempio "ordina per preferenza una serie di prodotti" (ad esempio nel Facebook Marketplace), ma lavorando assieme si comportano come un "unico cervello" che cerca di fornirti il migliore servizio possibile.

Ogni volta che scorrete la bacheca di qualche social (o applicazione di qualsiasi tipo ormai) state interagendo con decine di modelli statistici (spesso reti neurali) che vi personalizzano l'esperienza.

10 modi con cui Facebook usa l'AI e altri esempi.

Figure 1-3

  • Assistenti personali (ok google)

Abbiamo visto come le reti neurali, cercando di imitare la struttura del cervello umano, siano adatte a molti di quei compiti risolvibili da un umano (o almeno, provarci).

Un esempio eccellente di questo è la comprensione del linguaggio umano.

Se voi programmate una macchina qualsiasi dovete necessariamente farlo tramite un linguaggio che la macchina può comprendere, e che ha una limitatezza estremo rispetto alla complessità del linguaggio naturale umano (anche solo considerando una sola lingua!).

Il campo della NLP (Natural Language Processing) e NLU (Natural Understanding) è il campo in cui sono più mature le applicazioni di AI.

Provate a parlare con il vostro assistente Google, o con Siri, ed essi comprenderanno comandi complessi, anche se parlate in modo sommesso, interrotto, o sbagliando la grammatica.

Io personalmente uso "Ok Google" molto spesso durante il giorno, mentre guido ad esempio!

Ma anche perchè è molto meno faticoso pronunciare "Ok Google, portami nel luogo X domattina in treno", che andare nelle mappe e impostare la richiesta "manualmente".

Figure 1-3

Una applicazione che si sta già vedendo molto è il chatbot nei siti web, che usa la stessa tecnologia che usa Google per fare assistenti virtuali di qualsiasi tipo, ad esempio ti fa navigare nel sito con comodità, oppure ti fa assitenza a problemi tecnici, e infine chiama un assistente umano se ce n'è bisogno.

A questo proposito segnalo Google DialogFlow, uno strumento di Google che permette di creari agenti interattivi in modo completamente gratuito, usandola tecnologia stessa di Google.

E' usabile comodamente da browser senza saper programmare, e impiegabile con un click all'interno della chat di Facebook o dei vari social!

E' ovviamente anche programmabile per poterne usare le funzionalità più avanzate, tramite il linguaggio Python.

In un pomeriggio puoi creare un chatbot per la tua attività o per qualsiasi altra cosa, figo no?

Qua trovi un tutorial in 6 parti, e qua i tutorial ufficiali di Google.

Figure 1-3

  • Altre applicazioni già in uso

Ci vorrebbero ore per descrivere le altre applicazioni di AI già utilizzate in tanti campi e diversi fra loro, per cui citerò solo alcune di esse.

Utilizzo in:

  • Medicina:

    • predizione malattie
    • terapie personalizzate
    • analisi della cartella clinica
    • ricerca e sviluppo farmaci
  • Assicurazioni:

    • previsione della possibilità di ripagare i debiti
    • comprendere l'affidabilità dell'assicurato in base ai suoi dati storici
    • previsione del perfetto premio annuo
    • pacchetti di opzioni assicurative su misura
  • Previsioni meteo:

    • previsione di clima ed eventi estremi
    • causalità tra azioni dell'uomo ed eventi climatici
  • Ottimizzazione:

    • scelta dei percorsi più efficaci per i veicoli
    • scelta dell'organizzazione di una azienda in teams in base alle abilità dei singoli
    • scegliere la disposizione di una griglia energetica nella progettazione di un edificio e di una città
    • previsione dei consumi delle risorse nei diversi quartieri
  • Banche e Investimenti:

    • capire se un investimento è sensato oppure no
    • algoritmi di trading automatico
    • previsione del prezzo delle azioni della borsa
  • Telecomunicazioni:

    • scelta intelligente della disposizione delle stazioni
    • previsione della rottura di parti della rete (manutenzione preventiva)- potenziamento delle comunicazioni tramite ricostruzione "intelligente" del segnali
  • Sicurezza:

    • analisi in tempo reale di ogni movimento bancario per individuare probabili frodi
    • analisi degli accessi a un sistema informatico per rilevare possibili attacchi.
  • Retail:

    • previsione dei volumi di vendita
    • previsione del tipo di domanda
    • previsione dell'affidabilità dei fornitori.
  • Piattaforme online:

    • previsione dei volumi di utenti
    • previsione dei picchi di richieste durante le feste o avvenimenti particolari.
    • motori di raccomandazione ("se ti è piaciuto questo, prova quello!" - "altri utenti che hanno comprato X hanno comprato anche Y!")
  • Dove arriverà presto

  • Istruzione:

    • percorsi di apprendimento personalizzati
    • ottimizzazione dell'organizzazione scolastica, integrata con app
    • monitoraggio livello di attenzione in classe tramite Computer Vision
  • Design

    • progettazione intelligente (oggetti, veicoli, strutture, urbanistica, molecole)
    • arte (arti sonore, arti visive, performance)
  • Istituzioni e giustizia:

    • fascicolo burocratico personale con suggerimenti per servizi
    • giustizia "intelligente" per casi semplici e ripetitivi
    • assistenti nella ricerca documentale
  • Risorse umane:

    • scrematura dei candidati fatta da AI
    • composizione dei team in modo "intelligente" analizzando migliaia di curriculum
    • costruzione di percorsi di formazione ad hoc in base a esperienze e desideri del lavoratore
    • misura della produttività
  • Agricoltura

    • analisi salute raccolti
    • ottimizzazione delle colture
    • monitoraggio autonomo
    • automazione del processo agricolo (semina, crescita, raccolto, pulizia)
    • classificazione semi e foglie
    • stima di resa della coltura, e parametri ideali di crescita
  • Ricerca

    • prova di teoremi tramite AI
    • sviluppo di molecole, proteine, materiali
    • archiviazione documentale intelligente (motori di ricerca, alberi di concetti)
  • Città

    • pianificazione urbanistica
    • ottimizzazione griglie di servizi (energia, acqua, supermercati, negozi, servizi terziari, servizi pubblici)
    • AI di quartiere
    • analisi di bilanci e suggerimenti per politiche inclusive o di riqualificazione
    • prevenzione strutturale tramite sensori (sicurezza di strutture e infrastrutture)
  • Beni culturali e ambiente

    • metodi di preservazione dei beni culturali
    • analisi delle reazioni alle opere delle persone
    • ottimizzazione della disposizione museale
    • analisi di dati storici, archiviazione intelligente, smaterializzazione di documenti
    • analisi di dati climatici e previsione disastri naturali
    • sviluppo di materiali eco-sostenibili
    • veicoli autonomi per la pulizia delle acque
    • sviluppo di soluzioni "biologiche" a problemi come l'inquinamento atmosferico e delle acque
  • Sinergie dell'AI con altri trend tecnologici

  • IoT

Vi sono fortissime sinergie tra AI e IoT. Abbinare all’AI una rete IoT (ad esempio, sensori installati nel suolo di proprietà di un’impresa agricola, o wearable indossati da pazienti, in grado raccogliere e inviare dati al medico curante) significa in molti casi moltiplicare il potenziale dell’AI in modo esponenziale. La mole e la complessità delle informazioni generate da questa nuova rete di oggetti sono tali che solo un sistema avanzato di AI potrà gestirlo in modo efficiente. Tale sistema avanzato potrà prendere varie configurazioni, sia centralizzate (come nel caso di supercomputer accessibili via cloud) o distribuite (c.d. on-device AI, supportato dalle moderne tecnologie di edge computing).

  • 5G

AI e connettività 5G formano un connubio dirompente. Il 5G, cioè la rete di quinta generazione, arriverà ufficialmente a partire dal 2020 e permetterà di collegare milioni di dispositivi in tutto il mondo ad alta velocità e con bassa latenza, aprendo le porte alla realizzazione di nuovi scenari applicativi, fino ad ora non realizzabili, su un unico sistema nervoso globale in diversi settori industriali. Le reti 5G potranno essere gestite attraverso tecniche diverse di machine learning, che si traducono in auto-diagnosi, auto-configurazione, auto-ottimizzazione, auto-riparazione, autoprotezione2 . L’AI e il 5G mettono la rete al servizio dell'utente grazie all’edge computing e alle sue caratteristiche intrinseche di modello computazionale iperdistribuito e iper-connesso.

  • Blockchain

Con la diffusione delle distributed ledger technologies (di cui la blockchain è un caso specifico) e in particolare degli smart contract, il ruolo dell’Intelligenza Artificiale diverrà ancora più rilevante. La natura decentralizzata di queste tecnologie e la possibilità di validazione dei dati da queste raccolti consente di migliorare l’accuratezza dei sistemi di AI, nonché di distribuire la potenza di calcolo su più nodi, riducendo potenzialmente i costi e dunque l’accessibilità della tecnologia.

  • Cloud Computing

Il fattore abilitante dell’AI per antonomasia è il Cloud Computing: si tratta di una tecnologia che consente di usufruire, tramite servizio remoto, di risorse hardware e servizi software - come memorie di massa per l'archiviazione di dati o potenza di calcolo accessoria - il cui utilizzo è offerto come servizio da un provider. Le soluzioni di AI possono essere mantenute su data center locali – anche singoli server: questo fenomeno sta aprendo le porte a scenari ibridi che consentono l’utilizzo di questa tecnologia anche in condizioni di scarsa connettività o restrizioni di altra natura.

(FOCUS BENI CULTURALI)

- ### Smart Cities 
    - #### Cosa sono e come possono migliorare la qualità della vita?
        
        - #### Congestione
        - #### Inquinamento
        - #### Riduzione del crimine
        
    - #### Il problema italiano: le città storiche

(FOCUS SCIENZE APPLICATE)

    - ### **Automazione**

        - ### Come apprendono i robot (Reinforcement learning)

        - ### Sfide tecniche

        - ### Paure infondate 

        - ### Rischi reali (mercato del lavoro)

        - ### Il ruolo dello Stato nella regolamentazione