Italiani premiati per un algoritmo di cooperazione sociale

[pubblicato originariamente su Scienza in rete il 18 dicembre 2020]

Si è conclusa sabato scorso l’edizione 2020 della Neural Information Processing Systems Conference (NeurIPS), una delle più importanti conferenze nel campo dell’intelligenza artificiale e del machine learning. Ogni anno alcuni fra gli articoli accettati per la presentazione alla conferenza ricevono dei riconoscimenti particolari e quest’anno tra i tre premiati c’è anche uno studio italiano. «Erano almeno quindici anni che un team italiano non otteneva questo riconoscimento, siamo molto soddisfatti», commenta Nicola Gatti, professore associato presso il Dipartimento di Elettronica, Informazione e Bioingegneria del Politecnico di Milano, e uno dei quattro autori dell’articolo. Non si tratta di un riconoscimento di poca importanza. Insieme al lavoro del Politecnico è stato premiato anche il generatore di linguaggio GPT-3 sviluppato dalla società di San Francisco OpenAI, di cui avevamo parlato qui, che spicca per essere uno degli algoritmi di machine learning con il più alto costo di calibrazione di sempre, circa 4,5 milioni di dollari.

Nicola Gatti e i suoi collaboratori, Andrea Celli (ora ricercatore postdoc nel Core Data Science team di Facebook), Alberto Marchesi (ricercatore postdoc al Politecnico di Milano) e Gabriele Farina (dottorando alla Carnegie Mellon University), hanno fatto un passo importante verso la soluzione di un problema introdotto nel 1974 dal premio Nobel per l’economia Robert Aumann nell’ambito della teoria dei giochi. Si tratta del lavoro in cui Aumann ha formulato il concetto di “equilibri correlati”, una forma generalizzata del concetto di equilibrio proposto da Nash nel 19501. Gli equilibri correlati si ottengono supponendo che esista un “mediatore” che consiglia i partecipanti individualmente e privatamente sulle strategie da adottare. Un equilibrio correlato si raggiunge quando nessun giocatore ha un incentivo a deviare rispetto al comportamento suggerito dal mediatore, sotto l’ipotesi che tutti gli altri seguano i suggerimenti del mediatore. Aumann ha mostrato che in alcuni casi gli equilibri correlati possono portare a un’analisi più raffinata dell’interazione sociale. In un certo senso la figura del mediatore garantisce, sotto opportune ipotesi, che i giocatori producano un esito socialmente virtuoso pur perseguendo i loro obiettivi personali. «Gli equilibri correlati hanno anche un’altra proprietà interessante: sono molto più semplici da calcolare rispetto a quelli di Nash», spiega Nicolò Cesa-Bianchi, professore ordinario di computer science all’Università Statale di Milano che non è coinvolto nello studio. Cesa-Bianchi è autore di uno dei libri di riferimento sugli algoritmi di apprendimento per la previsione delle sequenze, rilevanti nel campo della teoria dei giochi, degli investimenti finanziari o della compressione dei dati.

Continua a leggere Italiani premiati per un algoritmo di cooperazione sociale

La supremazia quantistica dimostrata con i fotoni

[pubblicato originariamente su Scienza in rete l’11 dicembre 2020]

«Sarà entusiasmante vedere per la prima volta una macchina quantistica superare la più potente macchina classica nella soluzione di un problema». Così parlava a giugno del 2016 Chao-Yang Lu, ricercatore alla University of Science and Technology of China (USTC) a Hefei in un’intervista su Nature. La prestigiosa rivista britannica aveva dedicato il numero di quella settimana all’ascesa della Cina in campo scientifico e Chao-Yang Lu figurava tra i dieci ricercatori più promettenti, con l’appellativo di “mago dei quanti”. Poco più di quattro anni dopo quell’intervista, la sua affermazione è diventata realtà. In un articolo pubblicato su Science la scorsa settimana Chao-Yang Lu, insieme al suo mentore Jian-Wei Pan, spesso chiamato “il padre dei quanti” dai media cinesi, e a un nutrito gruppo di collaboratori, ha dimostrato la cosiddetta “supremazia quantistica” (o “vantaggio quantistico”) con un apparato costituito da fotoni. La supremazia quantistica è sostanzialmente la caratteristica di un computer quantistico di svolgere un compito in maniera clamorosamente più veloce rispetto a un computer classico.

Il gruppo di Chao-Yang Lu ha mostrato con un sistema di laser, prismi, specchi e rilevatori di singoli fotoni, di saper campionare dalla distribuzione di probabilità associata a un sistema di 76 fotoni che interagiscono fra loro in circa 200 secondi (esperimento che spiegheremo più avanti nel testo). I ricercatori hanno stimato che, utilizzando il più potente supercomputer cinese TaihuLight per svolgere lo stesso compito, sarebbero necessari 2,5 miliardi di anni, un tempo centomila miliardi di volte più lungo (circa 4 ×1014 volte il tempo impiegato dal computer quantistico). Bisogna osservare che si tratta di una stima estrapolata dal tempo che è stato necessario per calcolare la distribuzione di probabilità associata a sistemi di 40 fotoni. Oltre quel limite non è possibile spingersi con nessun calcolatore classico.

Continua a leggere La supremazia quantistica dimostrata con i fotoni

DeepMind calcola la struttura delle proteine con accuratezza sorprendente

[pubblicato originariamente su Scienza in rete il 4 dicembre 2020]

‘Questo cambierà tutto’‘L’intelligenza artificiale trionfa nel calcolo della struttura delle proteine’‘DeepMind ha risolto una sfida della biologia lunga 50 anni’‘La soluzione di un mistero della biologia’‘Uno dei più grandi misteri della biologia sostanzialmente risolto da un’intelligenza artificiale’. Con questi titoli i maggiori quotidiani del mondo hanno riportato la notizia che un sistema di intelligenza artificiale, sviluppato dalla società londinese DeepMind, è stata in grado di determinare la struttura tridimensionale di un centinaio di proteine con un’accuratezza mai raggiunta prima e paragonabile a quella delle tecniche sperimentali che finora hanno svelato la maggior parte delle strutture proteiche che conosciamo.

La notizia è arrivata dagli organizzatori della competizione CASP (Critical Assessment of techniques for protein Structure Prediction), che si tiene ogni due anni e che quest’anno è giunta alla sua quattordicesima edizione. Dal 1994 CASP organizza una sfida tra decine di gruppi di ricerca nel campo della biologia computazionale chiedendogli di prevedere la struttura tridimensionale di un campione di proteine e complessi proteici a partire dalla sequenza di amminoacidi che li costituiscono. Quest’anno AlphaFold2, questo il nome dell’intelligenza artificiale sviluppata da DeepMind, ha vinto di misura su tutti gli altri partecipanti.

Continua a leggere DeepMind calcola la struttura delle proteine con accuratezza sorprendente

Chi dovrebbe avere priorità per il vaccino?

[pubblicato originariamente su Scienza in rete il 27 novembre 2020]

Lunedì sono stati resi pubblici i primi dati di efficacia del vaccino sviluppato dalla società AstraZeneca in collaborazione con l’Università di Oxford, il terzo ad aver completato il suo studio di fase 3. I primi due sono quelli prodotti da Pfizer con BioNTech e da Moderna, che hanno dichiarato nelle scorse settimane un’efficacia del 95% nell’evitare infezioni sintomatiche da SARS-CoV-2. Pfizer e BioNTech hanno inviato all’FDA la documentazione per l’approvazione in condizioni di emergenza il 20 novembre scorso.

Secondo le informazioni rese pubbliche finora, l’efficacia del vaccino di AstraZeneca e Oxford è del 70% in media, ma tra coloro che hanno ricevuto, sembra per errore, nella prima somministrazione mezza dose e solo nella seconda un’intera dose, l’efficacia sembra salire al 90%. Questi risultati hanno suscitato perplessità tra gli scienziati e gli investitori. Pare infatti che il gruppo in cui è stata misurata un’efficacia del 90% sia molto ristretto rispetto a quello totale, circa 3 000 soggetti, e non contenga persone sopra i 55 anni. Ieri la società farmaceutica ha annunciato che ripeterà lo studio di fase 3 con il dosaggio apparentemente più efficace (mezza dose nella prima somministrazione e un’intera dose nella seconda) su un campione più grande e più rappresentativo, ma che questo non ritarderà il processo di approvazione da parte delle autorità farmaceutiche.

Ma l’incognita del dosaggio migliore per il vaccino di AstraZeneca e Oxford è solo una delle tante a cui ci troviamo difronte in questo momento. Per nessuno di questi tre vaccini sappiamo infatti come varia con l’età il grado di protezione conferita – per il vaccino antinfluenzale si osserva una  perdita di efficacia sopra 60 anni. Né sappiamo se ci proteggeranno anche dall’infezione, impedendoci di trasmettere il virus oltre a limitare l’insorgenza della malattia. Non sappiamo neanche quanto durerà l’immunità conferita, così come del resto non sappiamo quanto tempo sono immuni le persone che si sono infettate e sono poi guarite.

Insomma, abbiamo poche certezze. Ma siamo certi del fatto che i vaccini (questi primi tre come gli altri in fasi più iniziali di sperimentazione) sono la nostra migliore chance per sopprimere questa pandemia che da ormai nove mesi ci costringe a rispettare regole rigide di distanziamento e igiene, che sta sfibrando i nostri operatori sanitari, e che a oggi ha causato la morte di quasi 1 425 000 persone, più di 52 mila solo in Italia. È importante quindi non sprecare questa chance.

Sappiamo che all’inizio la disponibilità delle dosi di vaccino sarà limitata. In Italia, ad esempio, se il vaccino di Pfizer e BioNTech venisse approvato, a gennaio arriverebbero 3,5 milioni di dosi, sufficienti a vaccinare 1,7 milioni di persone (ciascuna con una prima iniezione e poi un richiamo a distanza di alcune settimane). Quindi la domanda è: chi vaccineremo per primo? Per rispondere, diversi gruppi di ricercatori nel mondo si sono imbarcati in un’impresa ardua: simulare lo sviluppo delle campagne vaccinali durante l’evolversi dell’epidemia da COVID-19 e capire qual è la strategia più efficace per ridurre il numero di decessi o di nuove infezioni. In ciò che segue ragioneremo sulla minimizzazione del numero di decessi.

Continua a leggere Chi dovrebbe avere priorità per il vaccino?

Automatizzare la scuola

[pubblicato originariamente su Scienza in rete il 20 novembre 2020]

La pandemia ha portato, a marzo, alla chiusura anticipata delle scuole in molti stati europei e non solo. Oltre 500 000 studenti italiani hanno sostenuto la maturità e il loro voto è stato calcolato per il 60% sulla base del percorso degli ultimi tre anni e per il 40% sulla base della sola prova orale (le prove scritte non si sono tenute). In tempi normali l’esame, con due prove scritte e una orale, serve ad assegnare 60 dei 100 punti in palio, mentre i voti ottenuti durante gli ultimi tre anni possono generare massimo 40 punti. Il risultato è stato un generale aumento dei voti. Se nel 2019 i diplomati con voto superiore a 80 erano il 32,8%, quest’anno sono stati il 49,6% del totale. Hanno preso 100, il voto massimo, il 9,9% dei maturandi contro il 5,6% del 2019.

In Gran Bretagna le cose sono andate diversamente. Gli esami finali degli studenti all’uscita dalle scuole superiori, chiamati A-level, non si sono tenuti e la loro valutazione è stata affidata a un algoritmo sulla base dei voti intermedi e della perfomance storica di ciascuna scuola. Il 40% degli studenti ha ricevuto voti più bassi rispetto a quelli proposti dai loro insegnanti e nel pomeriggio del 16 agosto le strade di Londra si sono riempite di ragazzi che agitavano cartelli con su scritto ‘fuck the algorithm’. C’è da sottolineare che il peso degli A-level nel sistema dell’istruzione britannico è molto più grande della nostra maturità. Sulla base di quei voti si decide infatti l’accesso all’università e, come conseguenza, al mondo del lavoro. L’algoritmo però non ha penalizzato ugualmente tutti gli studenti, come vedremo. Quelli appartenenti a contesti socioeconomici più svantaggiati hanno pagato il prezzo più salato.

Anche le università hanno trasferito lezioni ed esami online. E se la didattica a distanza ha funzionato meglio rispetto ai gradi inferiori di istruzione, i problemi si sono presentati nelle procedure di valutazione. Un grande numero di università, anche in Italia, ha cominciato a utilizzare sistemi di sorveglianza automatica durante gli esami. Le proteste degli studenti sono state numerose e hanno riguardato diversi temi, dall’eccessiva pressione psicologica a cui sono stati sottoposti, alla discriminazione verso studenti neri su cui i software di riconoscimento facciale funzionano ancora molto male, fino ai dubbi sul rispetto delle leggi sulla privacy. Diverse università hanno deciso di sospenderne l’utilizzo e di ricorrere a personale aggiuntivo per monitorare il comportamento degli studenti da remoto.

Continua a leggere Automatizzare la scuola

Indicatori e governo dell’epidemia

Fase. Rischio. Scenario. Queste tre parole scandiscono la risposta e la preparazione che le istituzioni hanno progettato per contrastare l’epidemia di SARS-CoV-2 in Italia da febbraio a oggi.

Le tre parole sono introdotte e dettagliate in tre documenti istituzionali, che costituiscono la base di questo approfondimento, il Decreto del Presidente del Consiglio dei Ministri del 26 aprile [1], il Decreto del Ministero della Salute del 30 aprile [2] e il documento “Prevenzione e risposta COVID-19” [3] pubblicato all’inizio di ottobre da Ministero della Salute e Istituto Superiore di Sanità (ISS) insieme a un’altra serie di centri di ricerca e associazioni del settore sanitario.

I tre documenti definiscono una serie di indicatori (numerici e non) grazie ai quali si elabora una sintesi del quadro epidemiologico a livello locale e nazionale e si stabilisce in che fase siamo, qual è il livello di rischio delle singole regioni e infine in quale scenario queste si trovino. Il colore, giallo, arancione o rosso, delle regioni viene stabilito sulla base del livello di rischio e dello scenario, in una maniera non del tutto lineare come vedremo.

Continua a leggere Indicatori e governo dell’epidemia

Elezioni americane: l’accusa di frode e la crisi dei sondaggi

[pubblicato originariamente su Scienza in rete il 6 novembre 2020]

Nel momento in cui scriviamo il risultato delle elezioni presidenziali americane non è ancora definitivo: Biden ha 39 voti in più di Trump nel collegio elettorale, ma per vincere deve conquistarne ancora 17.

Il collegio viene costituito al solo scopo di scegliere il presidente e il suo vice e lo farà a dicembre per permettere l’insediamento alla Casa Bianca a gennaio. Ogni stato americano elegge un certo numero di membri del collegio elettorale, i cosiddetti grandi elettori, che vengono assegnati ai democratici o ai repubblicani a maggioranza sulla base del voto popolare (in tutti gli stati tranne tre, dove valgono regole diverse). In totale il collegio elettorale conta 538 posti e dunque viene dichiarato vincitore il candidato presidente che se ne aggiudica almeno 270. In California, dove si nominano 55 grandi elettori, sono stati scrutinati il 77% dei voti (oltre 12 milioni di schede) e di questi il 65,1% sono andati a Biden. Per questo tutti i 55 grandi elettori dello stato sono già considerati come assegnati al Partito Democratico. Attualmente Biden ha 253 grandi elettori già confermati e Trump 214, restano da assegnarne 71. Sono sei gli stati ancora in bilico: Pennsylvania (20), Georgia (16), North Carolina (15), Arizona (11), Nevada (6) e Alaska (3). In questi stati la distanza tra democratici e repubblicani è irrisoria (poco più di 18 000 voti in Pennsylvania, meno di 1 000 in Georgia, circa 67 000 in North Carolina) e dunque non è possibile stabilire a chi andranno i loro grandi elettori prima del termine dello spoglio (fonte: New York Times).

E mentre Biden chiede ai suoi sostenitori di avere pazienza di aspettare la vittoria ufficiale, Trump denuncia, senza averne alcuna prova, illegalità nel processo di voto. Nella sua ultima conferenza stampa alla Casa Bianca nel tardo pomeriggio di ieri a Washington, ha affermato: “Se si contano i voti legittimi vinco facilmente”, e ha ribadito che continuano i suoi sforzi per proteggere l’integrità di queste elezioni attraverso procedure legali intentate dagli avvocati della sua campagna negli stati chiave. Le maggiori emittenti televisive hanno interrotto il collegamento con la Casa Bianca comunicando ai propri spettatori che le accuse del presidente sono infondate.

FRODE ELETTORALE

Già nel discorso pronunciato a poche ore dalla chiusura dei seggi, nella notte tra martedì e mercoledì, Trump aveva messo in dubbio l’integrità del processo di voto, definendo le elezioni una frode e aveva assicurato che avrebbe fatto di tutto per vincere, appellandosi addirittura alla corte suprema.

Continua a leggere Elezioni americane: l’accusa di frode e la crisi dei sondaggi

La consulenza scientifica al Parlamento: il caso del 5G

[pubblicato originariamente su Scienza in rete il 30 ottobre 2020]

Non potrebbe apparire più urgente che in questo momento storico la necessità di strutture e processi che garantiscano l’accesso dei politici alla conoscenza scientifica e tecnologica, soprattutto quando questa è in evoluzione e presenta aspetti su cui non c’è consenso unanime fra gli esperti.

Proprio di questa necessità abbiamo discusso (Chiara Sabelli e Luca Carra) durante il dibattito ‘5G in Parlamento. Il ruolo della conoscenza scientifica’, organizzato all’interno del Festival della Scienza di Genova, quest’anno dedicato al tema ‘Onde’.

Il caso della tecnologia 5G è particolarmente ricco di spunti e ci ha permesso di confrontare l’esperienza del Parlamento italiano con quella del Parlamento britannico, grazie alla testimonianza di Lorna Christie, consulente presso il Parliamentary Office for Science and Technology (POST), l’ufficio di consulenza scientifica al servizio del Parlamento britannico da oltre 30 anni, e autrice del documento pubblicato dal POST sul 5G. Il dibattito ha inoltre beneficiato del contributo di tre scienziati, Alessandro Armando dell’Università di Genova, Angela Benedetti dello European Center for Medium-Range Weather Forecasts e Alessandro Vittorio Polichetti dell’Istituto Superiore di Sanità, che ci hanno permesso di capire la complessità di alcuni rischi posti dallo sviluppo della nuova generazione di comunicazioni mobili e dunque di apprezzare la portata della sfida normativa e politica che i Parlamenti di tutto il mondo stanno affrontando. Continua a leggere La consulenza scientifica al Parlamento: il caso del 5G

Diagnosi automatizzate: dalla COVID-19 al tumore al seno

[pubblicato originariamente su Scienza in rete il 23 ottobre 2020]

Due settimane fa un gruppo di ricercatori cinesi ha pubblicato sulla rivista Nature Communications uno studio in cui mostra le performance di un sistema di intelligenza artificiale nel diagnosticare la COVID-19 a partire dalle immagini di tomografia computerizzata dei polmoni, distinguendola da altre tre patologie: le polmoniti causate dall’influenza stagionale, le polmoniti non virali e altri tipi di lesioni diverse dalle polmoniti. Si tratta solo dell’ultimo di una serie di sistemi di intelligenza artificiale messi a punto negli ultimi mesi per diagnosticare la COVID-19, che potrebbero diventare utili se i sistemi sanitari sottoposti a pressione esagerata non fossero più in grado di effettuare tempestivamente i test molecolari (quelli che cercano tracce dell’RNA virale nei campioni prelevati tramite tampone naso-faringeo). Questi sistemi di lettura automatizzata potrebbero poi essere modificati per funzionare anche su radiografie polmonari, un metodo diagnostico facilmente disponibile anche nei Paesi meno sviluppati.

Non solo. Potrebbero servire anche a individuare con un po’ di anticipo i pazienti che andranno incontro a un decorso più severo e che necessiteranno di essere intubati, permettendo così agli ospedali di gestire meglio le loro risorse. A fine settembre uno di questi sistemi, sviluppato dalla società Dascena di San Francisco, ha ottenuto l’approvazione per uso in caso di emergenza da parte della Food and Drug Administration, l’agenzia del farmaco statunitense.

I sistemi di intelligenza artificiale per la diagnosi e il triage dei casi di COVID-19 sono solo gli ultimi esempi di una serie di algoritmi di machine learning che hanno trovato numerose applicazioni nelle attività di diagnostica per immagini, a cominciare dalla diagnosi dei tumori. Analizzare immagini mammografiche o biopsie di diversi tipi di tessuto alla ricerca di formazioni cellulari anomale o veri e propri tumori si è dimostrato un compito particolarmente facile per questo tipo di algoritmi, che spesso hanno superato in bravura radiologi e patologi con anni di esperienza. Il caso più studiato è sicuramente quello del tumore al seno, ma sono stati ottenuti risultati importanti anche per i tumori del polmone e della pelle.

L’obiettivo è classificare l’immagine diagnostica in un numero finito di categorie. Nei casi semplici sarà sufficiente discriminare fra solo due gruppi, sano o malato, in quelli più complessi bisognerà considerare diversi tipi di anomalie, da quelle benigne a quelle più aggressive. Il successo dell’intelligenza artificiale è arrivato proprio con lo sviluppo di algoritmi particolarmente capaci in questa attività di classificazione delle immagini.

Continua a leggere Diagnosi automatizzate: dalla COVID-19 al tumore al seno

La pandemia non basta, serve una vera transizione energetica

[originariamente pubblicato su Scienza in rete il 16 ottobre 2020]

Martedì l’Agenzia Internazionale dell’Energia (IEA) ha pubblicato il suo World Energy Outlook 2020, il rapporto annuale in cui riassume le previsioni a 20-30 anni per il settore dell’energia in diversi scenari politici ed economici, dedicando però un’attenzione particolare ai prossimi dieci anni e all’uscita dalla crisi causata dalla pandemia.

Ci sono molti aspetti inediti nel rapporto di quest’anno. Il primo è che manca lo scenario business as usual sostituito da quello denominato stated policies scenario (STEPS), in cui si assume che la pandemia termini nel 2021, l’economia ritorni ai livelli pre-crisi nello stesso anno, mentre la domanda di energia solo nel 2023 e si tengono in considerazione le politiche energetiche incluse negli interventi già pianificati dagli Stati per uscire dalla crisi.

Il secondo elemento di novità è che per la prima volta la IEA modellizza due scenari rilevanti per la lotta al cambiamento climatico. Il primo è lo scenario chiamato sustainable development scenario (SDS) in cui una serie di misure aggiuntive permettono di raggiungere il livello zero di emissioni nette di gas serra entro il 2070 e di contenere l’aumento della temperatura globale rispetto ai livelli preindustriali a 1,65°C con il 50% di probabilità. Il secondo è il net zero emissions by 2050 case (NZE2050), che individua una serie di interventi molto più incisivi nel settore dell’energia per raggiungere zero emissioni nette entro il 2050 e avere il 50% di probabilità di contenere l’aumento della temperatura a 1,5°C, l’obiettivo più ambizioso dell’accordo di Parigi.

L’ultimo aspetto inedito è il fatto che la IEA attribuisca un grande peso ai comportamenti individuali tra gli interventi nel settore energetico, considerando necessari cambiamenti radicali nei nostri stili di vita in particolare nello scenario NZE2050.

Oltre agli scenari che abbiamo già nominato, stated policiessustainable development e net zero emissions by 2050, la IEA ne considera un quarto, il delayed recovery scenario (DRS). In questo scenario la crisi dovuta alla pandemia si prolunga più al lungo del previsto, l’economia globale ritorna a livelli pre-crisi solo nel 2023 e la domanda di energia nel 2025, ma le politiche energetiche non cambiano rispetto a quanto dichiarato finora.

La crescita nella domanda di energia, che nel 2019 ci si aspettava sarebbe stata del 12% entro il 2030, si ferma al 9% nello scenario stated policies, con l’aumento dei Paesi emergenti a compensare il rallentamento dei Paesi ricchi. Tuttavia, questo non è sufficiente a garantire che il nostro pianeta si metta sulla traiettoria indicata dall’accordo di Parigi. “La recessione economica ha temporaneamente soppresso le emissioni, ma la bassa crescita economica non è una strategia a basse emissioni, è una strategia che servirebbe solo a impoverire ulteriormente le popolazioni più vulnerabili del mondo”, ha affermato Fatih Birol, direttore della IEA e ha aggiunto: “solo modifiche strutturali al modo in cui produciamo e consumiamo l’energia possono invertire stabilmente la crescita delle emissioni”.

Continua a leggere La pandemia non basta, serve una vera transizione energetica