Italiani premiati per un algoritmo di cooperazione sociale

[pubblicato originariamente su Scienza in rete il 18 dicembre 2020]

Si è conclusa sabato scorso l’edizione 2020 della Neural Information Processing Systems Conference (NeurIPS), una delle più importanti conferenze nel campo dell’intelligenza artificiale e del machine learning. Ogni anno alcuni fra gli articoli accettati per la presentazione alla conferenza ricevono dei riconoscimenti particolari e quest’anno tra i tre premiati c’è anche uno studio italiano. «Erano almeno quindici anni che un team italiano non otteneva questo riconoscimento, siamo molto soddisfatti», commenta Nicola Gatti, professore associato presso il Dipartimento di Elettronica, Informazione e Bioingegneria del Politecnico di Milano, e uno dei quattro autori dell’articolo. Non si tratta di un riconoscimento di poca importanza. Insieme al lavoro del Politecnico è stato premiato anche il generatore di linguaggio GPT-3 sviluppato dalla società di San Francisco OpenAI, di cui avevamo parlato qui, che spicca per essere uno degli algoritmi di machine learning con il più alto costo di calibrazione di sempre, circa 4,5 milioni di dollari.

Nicola Gatti e i suoi collaboratori, Andrea Celli (ora ricercatore postdoc nel Core Data Science team di Facebook), Alberto Marchesi (ricercatore postdoc al Politecnico di Milano) e Gabriele Farina (dottorando alla Carnegie Mellon University), hanno fatto un passo importante verso la soluzione di un problema introdotto nel 1974 dal premio Nobel per l’economia Robert Aumann nell’ambito della teoria dei giochi. Si tratta del lavoro in cui Aumann ha formulato il concetto di “equilibri correlati”, una forma generalizzata del concetto di equilibrio proposto da Nash nel 19501. Gli equilibri correlati si ottengono supponendo che esista un “mediatore” che consiglia i partecipanti individualmente e privatamente sulle strategie da adottare. Un equilibrio correlato si raggiunge quando nessun giocatore ha un incentivo a deviare rispetto al comportamento suggerito dal mediatore, sotto l’ipotesi che tutti gli altri seguano i suggerimenti del mediatore. Aumann ha mostrato che in alcuni casi gli equilibri correlati possono portare a un’analisi più raffinata dell’interazione sociale. In un certo senso la figura del mediatore garantisce, sotto opportune ipotesi, che i giocatori producano un esito socialmente virtuoso pur perseguendo i loro obiettivi personali. «Gli equilibri correlati hanno anche un’altra proprietà interessante: sono molto più semplici da calcolare rispetto a quelli di Nash», spiega Nicolò Cesa-Bianchi, professore ordinario di computer science all’Università Statale di Milano che non è coinvolto nello studio. Cesa-Bianchi è autore di uno dei libri di riferimento sugli algoritmi di apprendimento per la previsione delle sequenze, rilevanti nel campo della teoria dei giochi, degli investimenti finanziari o della compressione dei dati.

Continua a leggere Italiani premiati per un algoritmo di cooperazione sociale

Letture per il finesettimana #13

[pubblicato originariamente su Scienza in rete l’11 dicembre 2020]

Buon venerdì,
questa settimana parliamo di reti neurali che hanno bisogno di dormire per non allucinare, di open access in biologia, della capsula giapponese rientrata sulla Terra portando dei frammenti dell’asteroide Ryugu, dei nuovi ERC Consolidator Grant e degli aggiornamenti sui vaccini contro COVID-19.
Buona lettura e al prossimo venerdì (per segnalare questa newsletter agli amici ecco il link per l’iscrizione)

1 Anche le reti neurali hanno bisogno di dormire
Un gruppo di ricercatori del Los Alamos National Laboratory hanno osservato che esponendo la loro rete neurale artificiale a un segnale con caratteristiche simili alle onde lunghe che attraversano il nostro cervello durante il sonno profondo l’instabilità del loro sistema è scomparsa. Le reti neurali artificiali studiate da questi scienziati cercano di riprodurre il più fedelmente possibile il funzionamento dei neuroni biologici durante diversi tipi di processi di apprendimento. Nell’esperimento in questione la rete si allenava, in maniera non supervisionata, sul riconoscimento delle immagini. Dopo un certo tempo di attività la rete cominciava a sviluppare una sorta di allucinazioni, che sono scomparse non appena è stato imposto uno stato che riproduce quello del sonno profondo [Scientific American]

2 Il modello open access prende piede in campo biologico
La rivista open access eLife, lanciata nel 2012, richiederà di archiviare come preprint gli articoli che gli vengono sottoposti per la pubblicazione. Non solo: renderà pubblici i commenti dei revisori, anche nel caso in cui gli articoli non vengano accettati. Dietro questa decisione c’è Michael Eisen, editore-in-chief della rivista dal 2019. Secondo Eisen il modello dell’editoria scientifica è ancora basato sulla carta stampata e non si adatta più alle dinamiche introdotte da internet. La novità che propone per eLife, nella sua opinione, non fa che prendere atto di un cambiamento che è già avvenuto. Infatti, durante l’estate si sono resi conto che il 68% degli articoli che stavano revisionando per eLife era già stato pubblicato nei vari archivi aperti. Per ora Eisen afferma che questo non cambierà il modello di business della rivista, che può contare su importanti fonti di finanziamento come l’Howard Hughes Medical Institute, e che richiede 2500 dollari agli autori per ogni articolo pubblicato [Science]

3 La missione del Giappone sull’asteroide Ryugu termina con una caccia nell’entroterra australiano
Una capsula della navicella spaziale giapponese Hayabusa2 è rientrata nell’atmosfera terrestre sabato, dopo un viaggio durato sei anni per esplorare e raccogliere campioni da un asteroide chiamato Ryugu. L’atterraggio è avvenuto 450 chilometri a nord della città di Adelaide in Australia, in una zona desertica. Ma i ricercatori hanno dovuto faticare per individuare il punto esatto in cui l’oggetto, largo 40 cm, è atterrato all’interno di una zona migliaia di metri quadrati. Lunedì un aereo ha lasciato l’Australia per trasportare in Giappone i campioni raccolti dalla capsula, dove verranno studiati a fondo e in un secondo momento condivisi con altri ricercatori di tutto il mondo. Studiare l’acqua intrappolata nei minerali di Ryugu potrebbe aiutare a capire se l’acqua negli oceani della Terra proviene dagli asteroidi e se questi abbiano avuto un ruolo nel trasporto di materia organica sul nostro pianeta [The New York Times]

4 Più artefatti che organismi viventi
Il peso degli oggetti fabbricati dagli esseri umani eccederà entro la fine dell’anno quello degli organismi viventi. È questa la conclusione a cui sono giunti i ricercatori del Weizmann Institute of Sciences a Rehovot, in Israele, che dà una misura dell’impatto che la nostra specie ha avuto sul pianeta che abitiamo. Gli scienziati hanno misurato la massa di tutti gli oggetti costruiti dall’umanità a partire dal 1900, come bottiglie di plastica, mattoni e cemento utilizzati per la costruzione degli edifici e delle strade, e hanno osservato che questa quantità è raddoppiata ogni 20 anni circa. Contemporaneamente la biomassa è diminuita a causa della deforestazione e della conseguente scomparsa di molte specie animali. L’azione congiunta di queste due dinamiche porterà per la prima volta al sorpasso degli artefatti sugli organismi viventi alla fine del 2020, secondo le stime del gruppo israeliano. I numeri nella loro conclusione sono chiaramente soggetti a un certo livello di incertezza, ma la sostanza non cambia: siamo entrati in una nuova era, quella dell’Antropocene, in cui la presenza degli umani sulla Terra sarà visibile per milioni di anni nel futuro [BBC News]

5 ERC Consolidator Grant: i ricercatori italiani continuano a fuggire all’estero
Sono stati pubblicati i progetti vincitori di un ERC Consolidator Grant, uno dei prestigiosi strumenti di finanziamento assegnato dallo European Research Council ai ricercatori con almeno sette anni di esperienza di ricerca dopo il dottorato. Dei 327 vincitori, ben 47 sono italiani, posizionando il nostro paese al primo posto nelle statistiche sulle 39 nazionalità partecipanti. Di questi 47 progetti però, solo 17 saranno svolti in Italia, mentre gli altri 30 verranno portati avanti in istituzioni straniere. Al primo posto nella classifica delle nazionalità dei centri ospitanti ci sono, a pari merito, Germania e Regno Unito, con ben 50 progetti, segue la Francia con 34 e i Paesi Bassi con 29. Continua dunque la tendenza che si è verificata negli ultimi anni: la ricerca italiana di eccellenza, per essere finanziata, deve spostarsi all’estero [Wired.it]

6 Aggiornamenti COVID-19
× Il comitato di esperti esterno dell’FDA ha formalmente raccomandato che l’agenzia del farmaco USA approvi il vaccino anti-COVID-19 di Pfizer/BioNTech. È probabile che questo avverrà nei prossimi giorni [The New York Times]
× Pubblicati sul New England Journal of Medicine i dati di sicurezza ed efficacia del vaccino Pfizer/BioNTech [NEJM]
× Martedì è cominciata la campagna di vaccinazione in UK. La prima persona a ricevere il vaccino contro COVID-19 è stata una donna di 91 anni [The Guardian]
× Il tracciamento all’indietro potrebbe essere una strada promettente? [BBC]

Supercomputer contro la pandemia

[originariamente pubblicato su Scienza in rete il 9 ottobre 2020]

Lunedì i CDC hanno aggiornato le linee guida sulla pandemia includendo gli aerosol tra i possibili veicoli di trasmissione del virus. Gli aerosol sono le particelle più piccole emesse dal naso e dalla bocca di una persona quando starnutisce, tossisce o parla, e hanno un diametro tra qualche decimo di micrometro fino a dieci micrometri. Queste particelle sono più leggere dei cosiddetti droplet, che hanno diametri superiori fino a qualche centinaio di micrometri, e dunque non sono attirati immediatamente a terra dalla forza di gravità ma possono rimanere in movimento nell’aria per lunghi periodi. La loro dinamica è particolarmente importante per valutare il rischio di contagio in ambienti chiusi, in cui il ricambio dell’aria è limitato.

L’aggiornamento delle linee guida dei CDC arriva tre giorni dopo la notizia che Donald Trump è risultato positivo al SARS-CoV-2 e a quattro giorni dal primo confronto tra Trump e Biden in vista delle elezioni presidenziali del 3 novembre prossimo. Biden e Trump si sono scontrati in un dibattito trasmesso in diretta televisiva durato oltre un’ora e mezza in cui hanno parlato da podi distanziati di circa due metri. L’allestimento del dibattito televisivo ha spinto molti a chiedersi se Biden è stato esposto a un rischio di contagio concreto.

Tra i modi per capire come droplet e aerosol circolano nell’aria ci sono i modelli computazionali. Già ad aprile un gruppo di scienziati del Kyoto Institute of Technology aveva mostrato che la distanza di sicurezza dovrebbe essere maggiore di 1 metro (meglio 2 metri) per evitare di essere investiti dagli aerosol. Sempre la simulazione della dispersione di queste particelle nell’aria, aveva permesso al supercomputer giapponese Fugaku di concludere che le visiere sono sostanzialmente inutili a contenere la diffusione dei droplet (un risultato confermato di recente anche da un altro studio con un approccio diverso, ovvero la visualizzazione in laboratorio tramite laser del movimento di queste goccioline nell’aria dopo uno starnuto). A fine agosto, sempre Fugaku aveva stabilito che le mascherine in polipropilene sono più efficaci di quelle in tessuto.

Il supercomputer Fugaku è ospitato dal RIKEN Center for Computational Science a Kobe ed è stato sviluppato in collaborazione con Fujitsu. È oggi il computer più potente al mondo, capace di eseguire 415,5 milioni di miliardi di operazioni al secondo (si dice che la sua potenza di calcolo è di 415,5 petaflops), quasi trenta volte più veloce del secondo più potente supercomputer del mondo, il Summit di IBM. Per avere un’idea di cosa vogliano dire questi numeri, basti pensare che un processore presente in un personal computer può arrivare a qualche centinaio di gigaflops, ovvero un milione di volte meno potente di un supercomputer. L’inizio delle attività di Fugaku era previsto per il 2021, ma ad aprile di quest’anno il centro ha annunciato che avrebbe messo a disposizione parte della sua capacità computazionale per progetti di ricerca su SARS-CoV-2 e COVID-19. Sempre lunedì NVIDIA ha annunciato che sta costruendo nel Regno Unito il più potente supercomputer del mondo che aiuterà i ricercatori ad affrontare domande difficili in campo medico, in particolare riguardo COVID-19. Insomma, le piattaforme di high performance computing sono considerate uno strumento cruciale per contrastare con la ricerca scientifica l’avanzata di questa nuova malattia. I loro impieghi sono infatti molteplici. Continua a leggere Supercomputer contro la pandemia

Smettiamo di credere ciecamente negli algoritmi

[pubblicato originariamente su Scienza in rete il 12 settembre 2018]

Quest’anno al carnevale di Notting Hill, che ogni agosto a Londra celebra la black British culture, la London Metropolitan Police non ha utilizzato i sistemi di riconoscimento facciale che aveva sperimentato nel 2017. Le uniche misure straordinarie di sicurezza sono stati i metal detector e gli agenti speciali capaci di memorizzare i volti di una serie di ricercati talmente bene da identificarli in una folla. L’esperienza dello scorso anno infatti era stata deludente: delle 104 persone segnalate dai sistemi di riconoscimento facciale, 102 erano risultati dei falsi positivi: una volta fermati dagli agenti la loro identità non corrispondeva a quella indicata dall’algoritmo. L’organizzazione per i diritti civili Big Brother Watch aveva denunciato i limiti di questa tecnologia, affermando che penalizza in particolare le minoranze (donne e persone appartenenti alle minoranze etniche).

Continua a leggere Smettiamo di credere ciecamente negli algoritmi

Le notizie di scienza della settimana #70

[pubblicato originariamente su Scienza in rete il 18 luglio 2018]

La copertina dell’ultimo numero di Science è dedicata a una importante scoperta realizzata da quindici osservatori, sulla Terra e nello spazio: un neutrino, rilevato dall’esperimento IceCube in Antartide il 22 settembre 2017, sarebbe stato emesso da un blazar, una galassia attiva con al centro un buco nero supermassiccio, distante 4,5 miliardi di anni luce dal nostro Pianeta. Potrebbe trattarsi del primo esempio di neutrino multimessenger astronomy, che sfrutta, come nel caso delle onde gravitazionali, diversi tipi di segnale per identificare un evento astronomico. La scoperta potrebbe aprire la strada verso la comprensione dell’origine dei raggi cosmici, una pioggia di protoni e altri nuclei di alta energia che investono la superficie terrestre. Nell’immagine: il laboratorio IceCube sotto le stelle, 2013. Credit: Felipe Pedreros, IceCube/NSF.

NUOVI E VECCHI VACCINI

Da mesi la Repubblica Democratica del Congo è alle prese con un’epidemia di poliomielite, causata da un virus di tipo 2 derivato dal vaccino trivalente somministrato nella regione per via orale. A causa della scarsa copertura vaccinale, infatti, i virus attenuati contenuti nel vaccino hanno accumulato mutazioni e riacquisito la loro virulenza. A oggi sono 29 i bambini paralizzati. Per far fronte all’emergenza l’OMS ha introdotto nella regione un vaccino monovalente che contiene il solo virus di tipo 2 in forma attenuata. Il medicinale verrà somministrato per via orale solo intorno ai casi segnalati. Resta tuttavia difficile raggiungere le persone che ne hanno bisogno, a causa della mancanza di infrastrutture adeguate.[Scienza in rete; Anna Romano] 

Le autorità sanitarie brasiliane sono in stato di allerta: in 312 città del Paese la percentuale di bambini sotto i 5 anni vaccinati contro la poliomielite è inferiore al 50% e in alcuni comuni non supera il 2%. Il timore è che la malattia ricompaia oltre vent’anni dopo l’eradicazione, dichiarata nel 1994 (ultimo caso registrato nel 1989). Anche la copertura vaccinale contro il morbillo è pericolosamente bassa, soprattutto al nord, dove sono stati registrati 450 casi e 2 vittime. Il problema è principalmente la scarsa diffusione e apertura dei centri vaccinali, che spesso osservano orari incompatibili con la vita di genitori lavoratori. Ma anche il movimento anti-vaccinista comincia ad avere un ruolo, seppure meno preoccupante rispetto a quanto accade in Europa e Stati Uniti. [Le Monde; Claire Gatinois] 

Stanno generando una cauta soddisfazione tra gli esperti i risultati dello studio clinico APPROACH, che ha testato diverse combinazioni di vaccini anti-HIV già esistenti su 393 soggetti sani in 12 centri clinici situati nell’Africa orientale, in Sudafrica, Tailandia e USA. Lo studio di fase 1/2a, con randomizzazione multicentrica, è stato condotto in doppio cieco e con un braccio placebo. Tutti i soggetti che hanno ricevuto il vaccino hanno manifestato una qualche forma di risposta immunitaria. Sulla base di questi risultati sarà iniziato uno studio di fase 2b (“Imbokodo”) su 2 600 giovani donne africane. Guido Poli, dell’Università Vita-Salute San Raffaele, commenta i risultati pubblicati su The Lancet il 6 luglio scorso. [Scienza in rete; Guido Poli]

MACHINE LEARNING

Un articolo, pubblicato la scorsa settimana sulla rivista Toxicological Sciences, riaccende il dibattito sulla possibilità che il machine learning possa sostituire i test su animali nel valutare la tossicità dei prodotti chimici. Un gruppo di ricercatori guidati da Thomas Hartung della Johns Hopkins Bloomberg School of Public Health, ha sviluppato un software in grado di eseguire 10 test di tossicità su circa 10 000 prodotti chimici con risultati più robusti rispetto a quelli ottenuti con i test su animali. Il software è basato su un imponente database di risultati di test di tossicità raccolto dalla European Chemicals Agency e utilizza il metodo del read-across: basandosi sulla somiglianza tra le strutture chimiche dei nuovi prodotti con i vecchi prodotti, sfrutta i risultati dei test già esistenti. Il software verrà commercializzato da una compagnia privata, ma i dati saranno resi disponibili agli altri ricercatori. Uno sforzo simile è quello che sta portando avanti il comitato ICCVAM dei National Institutes of Health, che presto pubblicherà un computational consensus model ottenuto dalla collaborazione di 12 team di ricercatori durante un recente workshop. [Nature; Richard Van Noorden]

Negli Stati Uniti l’età media della diagnosi di disturbo dello spettro autistico è 4 anni, mentre potrebbe essere effettuata intorno ai 2 anni. Questo ritardo è dovuto in parte alla natura della malattia (dai sintomi molto eterogenei) e in parte alla difficoltà di ottenere velocemente un appuntamento con uno specialista nelle cliniche dedicate. A cambiare le cose potrebbe essere, ancora una volta, il machine learning e in particolare il deep learning. La sua caratteristica distintiva è quella di cogliere schemi che l’occhio umano faticherebbe a riconoscere e in particolare di individuare gruppi di differenze nel comportamento dei bambini malati rispetto ai sani, piuttosto che singole differenze. Ma occorre cautela. Prima di tutto perché è ancora molto difficile raccogliere campioni di dati sufficientemente grandi e significativi (sia dati sul comportamento che sulla struttura del cervello). E in secondo luogo non è affatto scontato che, se questi algoritmi fossero messi alla prova fuori dai laboratori, sarebbero in grado di cogliere le sfumature spesso sottili che caratterizzano questa condizione. [The Atltantic; Jeremy Hsu e SPECTRUM]

RICERCA E SOCIETÀ

L’11 luglio scorso, nell’illustrare le sue linee programmatiche alle commissioni competenti di Camera e Senato, il nuovo Ministro dell’istruzione, università e ricerca Marco Bussetti ha dichiarato l’intenzione di costituire un’Agenzia Nazionale della Ricerca, che svolga una funzione di stretto coordinamento tra gli Enti Pubblici di Ricerca, sul modello di quella proposta dal Gruppo 2003. Le sue dichiarazioni hanno destato più di una perplessità tra i membri del Gruppo. L’agenzia che il Gruppo 2003 propone da diversi anni dovrebbe avere il compito di supervisionare la distribuzione dei fondi destinati alla ricerca competitiva e non gli indirizzi scientifici degli Enti. Come dice Pietro Greco su Il Bo Live, gli Enti cui fa riferimento il Ministro hanno nature molto diverse tra loro: ci sono quelli che si occupano solo di ricerca di base, quelli specializzati in certi settori e con vocazione fortemente internazionale, infine quelli che offrono servizi tecnici altamente specializzati di supporto per le istituzioni e la politica. [Il Bo Live; Pietro Greco]

I criteri di valutazione basati sulla bibliometria penalizzano la ricerca biologica al banco, che di conseguenza riceve finanziamenti insufficienti. Nel nostro Paese, spiega il microbiologo dell’Università di Bologna Davide Zannoni, questo ha causato una migrazione verso la ricerca “in silico”, che si è rivelata più produttiva e veloce nella generazione di dati e quindi di pubblicazioni. Per salvare la ricerca biologica al banco in Italia c’è bisogno di un’inversione nella politica degli investimenti per la ricerca di base e un cambio dei criteri di valutazione dei ricercatori. [Scienza in rete; Davide Zannoni]

Le discipline scientifiche e tecnologiche hanno molto successo su YouTube. Si moltiplicano i canali dedicati a questo argomento, ma sono ancora una minoranza quelli gestiti da donne. Colpa dei commenti lasciati dagli utenti, secondo uno studio condotto da Inoka Amarasekara e Will Grant del Centre for the Public Awareness of Science presso la Australian National University. Dopo aver analizzato 23 0000 commenti, i due ricercatori hanno constatato che quelli riguardanti l’aspetto fisico sono il 4,5% per i canali gestiti da donne contro l’1,4% degli uomini. I commenti sessisti o di natura sessuale sono il 3% per le donne e solo lo 0,25% per gli uomini. I risultati, pubblicati sulla rivista Public Understanding of Science, confermano le conclusioni ottenute da uno studio del 2014, che aveva analizzato i commenti diretti ai TED Talks. [The New York Times; Adrianne Jeffries]

Algoritmi per difenderci

[da Il Sole 24 Ore pagina 12, 24 Luglio 2016, Nòva24 Tech]

I nostri comportamenti, che siano telefonate al cellulare, acquisti online, o il modo di muoversi all’interno di un aeroporto, possono essere registrati e trasformati in dati. Sofisticati algoritmi, detti di machine learning, analizzano questi dati per costruire i nostri “profili”. Ma quanto sono affidabili? E che tipo di decisioni supportano?

Continua a leggere Algoritmi per difenderci

I meta dati che uccidono

Se il governo cinese pianifica di intensificare il controllo sui cittadini impugnando l’arma dei big data, gli Stati Uniti lo fanno già da molto tempo. In particolare ha avuto risonanza la notizia che la NSA, l’agenzia di intelligence statunitense, avrebbe basato una parte degli attacchi con droni condotti in Pakistan, responsabili di migliaia di vittime, sull’analisi del traffico telefonico mobile dei cittadini di quel paese.

Se quest’affermazione può destare in voi inquietudine, i dettagli su come questi dati siano stati utilizzati vi sconvolgeranno.

Continua a leggere I meta dati che uccidono

Cina: big data per prevenire il crimine

Ricordate il film Minority Report in cui il sistema Precrimine permetteva di sventare gli omicidi prima che venissero commessi nella Washington del 2054? Ecco, la Cina si prepara a un’operazione simile sfruttando i dati sull’attività online, le telefonate, i conti correnti bancari, il livello dei consumi dei suoi cittadini. L’obiettivo è quello di stanare i sovversivi prima che compiano attività di sabotaggio verso il partito comunista cinese. A realizzare questa impresa, che comporterà l’archiviazione e l’analisi di un’enorme quantità di dati, sarà la società di telecomunicazioni China Technology. Il parlamento ha già preparato il campo a questo programma di sorveglianza, promulgando, il primo gennaio scorso, una legge che priva di qualsiasi diritto di privacy.

Continua a leggere Cina: big data per prevenire il crimine