Smettiamo di credere ciecamente negli algoritmi

[pubblicato originariamente su Scienza in rete il 12 settembre 2018]

Quest’anno al carnevale di Notting Hill, che ogni agosto a Londra celebra la black British culture, la London Metropolitan Police non ha utilizzato i sistemi di riconoscimento facciale che aveva sperimentato nel 2017. Le uniche misure straordinarie di sicurezza sono stati i metal detector e gli agenti speciali capaci di memorizzare i volti di una serie di ricercati talmente bene da identificarli in una folla. L’esperienza dello scorso anno infatti era stata deludente: delle 104 persone segnalate dai sistemi di riconoscimento facciale, 102 erano risultati dei falsi positivi: una volta fermati dagli agenti la loro identità non corrispondeva a quella indicata dall’algoritmo. L’organizzazione per i diritti civili Big Brother Watch aveva denunciato i limiti di questa tecnologia, affermando che penalizza in particolare le minoranze (donne e persone appartenenti alle minoranze etniche).

Continua a leggere Smettiamo di credere ciecamente negli algoritmi

Le notizie di scienza della settimana #70

[pubblicato originariamente su Scienza in rete il 18 luglio 2018]

La copertina dell’ultimo numero di Science è dedicata a una importante scoperta realizzata da quindici osservatori, sulla Terra e nello spazio: un neutrino, rilevato dall’esperimento IceCube in Antartide il 22 settembre 2017, sarebbe stato emesso da un blazar, una galassia attiva con al centro un buco nero supermassiccio, distante 4,5 miliardi di anni luce dal nostro Pianeta. Potrebbe trattarsi del primo esempio di neutrino multimessenger astronomy, che sfrutta, come nel caso delle onde gravitazionali, diversi tipi di segnale per identificare un evento astronomico. La scoperta potrebbe aprire la strada verso la comprensione dell’origine dei raggi cosmici, una pioggia di protoni e altri nuclei di alta energia che investono la superficie terrestre. Nell’immagine: il laboratorio IceCube sotto le stelle, 2013. Credit: Felipe Pedreros, IceCube/NSF.

NUOVI E VECCHI VACCINI

Da mesi la Repubblica Democratica del Congo è alle prese con un’epidemia di poliomielite, causata da un virus di tipo 2 derivato dal vaccino trivalente somministrato nella regione per via orale. A causa della scarsa copertura vaccinale, infatti, i virus attenuati contenuti nel vaccino hanno accumulato mutazioni e riacquisito la loro virulenza. A oggi sono 29 i bambini paralizzati. Per far fronte all’emergenza l’OMS ha introdotto nella regione un vaccino monovalente che contiene il solo virus di tipo 2 in forma attenuata. Il medicinale verrà somministrato per via orale solo intorno ai casi segnalati. Resta tuttavia difficile raggiungere le persone che ne hanno bisogno, a causa della mancanza di infrastrutture adeguate.[Scienza in rete; Anna Romano] 

Le autorità sanitarie brasiliane sono in stato di allerta: in 312 città del Paese la percentuale di bambini sotto i 5 anni vaccinati contro la poliomielite è inferiore al 50% e in alcuni comuni non supera il 2%. Il timore è che la malattia ricompaia oltre vent’anni dopo l’eradicazione, dichiarata nel 1994 (ultimo caso registrato nel 1989). Anche la copertura vaccinale contro il morbillo è pericolosamente bassa, soprattutto al nord, dove sono stati registrati 450 casi e 2 vittime. Il problema è principalmente la scarsa diffusione e apertura dei centri vaccinali, che spesso osservano orari incompatibili con la vita di genitori lavoratori. Ma anche il movimento anti-vaccinista comincia ad avere un ruolo, seppure meno preoccupante rispetto a quanto accade in Europa e Stati Uniti. [Le Monde; Claire Gatinois] 

Stanno generando una cauta soddisfazione tra gli esperti i risultati dello studio clinico APPROACH, che ha testato diverse combinazioni di vaccini anti-HIV già esistenti su 393 soggetti sani in 12 centri clinici situati nell’Africa orientale, in Sudafrica, Tailandia e USA. Lo studio di fase 1/2a, con randomizzazione multicentrica, è stato condotto in doppio cieco e con un braccio placebo. Tutti i soggetti che hanno ricevuto il vaccino hanno manifestato una qualche forma di risposta immunitaria. Sulla base di questi risultati sarà iniziato uno studio di fase 2b (“Imbokodo”) su 2 600 giovani donne africane. Guido Poli, dell’Università Vita-Salute San Raffaele, commenta i risultati pubblicati su The Lancet il 6 luglio scorso. [Scienza in rete; Guido Poli]

MACHINE LEARNING

Un articolo, pubblicato la scorsa settimana sulla rivista Toxicological Sciences, riaccende il dibattito sulla possibilità che il machine learning possa sostituire i test su animali nel valutare la tossicità dei prodotti chimici. Un gruppo di ricercatori guidati da Thomas Hartung della Johns Hopkins Bloomberg School of Public Health, ha sviluppato un software in grado di eseguire 10 test di tossicità su circa 10 000 prodotti chimici con risultati più robusti rispetto a quelli ottenuti con i test su animali. Il software è basato su un imponente database di risultati di test di tossicità raccolto dalla European Chemicals Agency e utilizza il metodo del read-across: basandosi sulla somiglianza tra le strutture chimiche dei nuovi prodotti con i vecchi prodotti, sfrutta i risultati dei test già esistenti. Il software verrà commercializzato da una compagnia privata, ma i dati saranno resi disponibili agli altri ricercatori. Uno sforzo simile è quello che sta portando avanti il comitato ICCVAM dei National Institutes of Health, che presto pubblicherà un computational consensus model ottenuto dalla collaborazione di 12 team di ricercatori durante un recente workshop. [Nature; Richard Van Noorden]

Negli Stati Uniti l’età media della diagnosi di disturbo dello spettro autistico è 4 anni, mentre potrebbe essere effettuata intorno ai 2 anni. Questo ritardo è dovuto in parte alla natura della malattia (dai sintomi molto eterogenei) e in parte alla difficoltà di ottenere velocemente un appuntamento con uno specialista nelle cliniche dedicate. A cambiare le cose potrebbe essere, ancora una volta, il machine learning e in particolare il deep learning. La sua caratteristica distintiva è quella di cogliere schemi che l’occhio umano faticherebbe a riconoscere e in particolare di individuare gruppi di differenze nel comportamento dei bambini malati rispetto ai sani, piuttosto che singole differenze. Ma occorre cautela. Prima di tutto perché è ancora molto difficile raccogliere campioni di dati sufficientemente grandi e significativi (sia dati sul comportamento che sulla struttura del cervello). E in secondo luogo non è affatto scontato che, se questi algoritmi fossero messi alla prova fuori dai laboratori, sarebbero in grado di cogliere le sfumature spesso sottili che caratterizzano questa condizione. [The Atltantic; Jeremy Hsu e SPECTRUM]

RICERCA E SOCIETÀ

L’11 luglio scorso, nell’illustrare le sue linee programmatiche alle commissioni competenti di Camera e Senato, il nuovo Ministro dell’istruzione, università e ricerca Marco Bussetti ha dichiarato l’intenzione di costituire un’Agenzia Nazionale della Ricerca, che svolga una funzione di stretto coordinamento tra gli Enti Pubblici di Ricerca, sul modello di quella proposta dal Gruppo 2003. Le sue dichiarazioni hanno destato più di una perplessità tra i membri del Gruppo. L’agenzia che il Gruppo 2003 propone da diversi anni dovrebbe avere il compito di supervisionare la distribuzione dei fondi destinati alla ricerca competitiva e non gli indirizzi scientifici degli Enti. Come dice Pietro Greco su Il Bo Live, gli Enti cui fa riferimento il Ministro hanno nature molto diverse tra loro: ci sono quelli che si occupano solo di ricerca di base, quelli specializzati in certi settori e con vocazione fortemente internazionale, infine quelli che offrono servizi tecnici altamente specializzati di supporto per le istituzioni e la politica. [Il Bo Live; Pietro Greco]

I criteri di valutazione basati sulla bibliometria penalizzano la ricerca biologica al banco, che di conseguenza riceve finanziamenti insufficienti. Nel nostro Paese, spiega il microbiologo dell’Università di Bologna Davide Zannoni, questo ha causato una migrazione verso la ricerca “in silico”, che si è rivelata più produttiva e veloce nella generazione di dati e quindi di pubblicazioni. Per salvare la ricerca biologica al banco in Italia c’è bisogno di un’inversione nella politica degli investimenti per la ricerca di base e un cambio dei criteri di valutazione dei ricercatori. [Scienza in rete; Davide Zannoni]

Le discipline scientifiche e tecnologiche hanno molto successo su YouTube. Si moltiplicano i canali dedicati a questo argomento, ma sono ancora una minoranza quelli gestiti da donne. Colpa dei commenti lasciati dagli utenti, secondo uno studio condotto da Inoka Amarasekara e Will Grant del Centre for the Public Awareness of Science presso la Australian National University. Dopo aver analizzato 23 0000 commenti, i due ricercatori hanno constatato che quelli riguardanti l’aspetto fisico sono il 4,5% per i canali gestiti da donne contro l’1,4% degli uomini. I commenti sessisti o di natura sessuale sono il 3% per le donne e solo lo 0,25% per gli uomini. I risultati, pubblicati sulla rivista Public Understanding of Science, confermano le conclusioni ottenute da uno studio del 2014, che aveva analizzato i commenti diretti ai TED Talks. [The New York Times; Adrianne Jeffries]

Le notizie di scienza della settimana #67

[pubblicato originariamente su Scienza in rete il 27 giugno 2018]

Solo il 5% dell’Universo è costituito da materia ordinaria, il resto è fatto di materia ed energia oscura. Ma se il mistero sulla natura di questa seconda componente è ben noto, è meno noto che circa il 40% della materia ordinaria manca all’appello. In altre parole: non è mai stato osservata. Almeno finora. La scorsa settimana Nature ha pubblicato i risultati di un’analisi condotta da un gruppo di astrofisici dell’ESA guidati da Fabrizio Nicastro (Istituto Nazionale di Astrofisica, INAF). Osservando la radiazione emessa da un singolo quasar nella regione dei raggi X, è stato possibile rilevare la presenza di materia barionica nello spazio intergalattico che separa il quasar dalla Terra. La materia ordinaria mancante sarebbe infatti distribuita, a bassissima densità e altissima temperatura, lungo i filamenti della ragnatela cosmica. Nell’immagine: rappresentazione artistica del mezzo intergalattico caldo e caldissimo, una miscela di gas con temperature che vanno da centinaia di migliaia di gradi (caldo) a milioni di gradi (caldissimo) che permea l’universo in una struttura simile a una ragnatela filamentosa. Credit: ESA / ATG medialab (illustrazione); ESA / XMM-Newton / F. Nicastro et al. 2018 (dati); R. Cen (simulazione cosmologica).

LA VIA ITALIANA ALLE ALTE ENERGIE

Il 21 giugno si è spento a Roma all’età di 88 anni Carlo Bernardini. Bernardini è stato prima di tutto un fisico, protagonista della cosiddetta “via italiana alle alte energie”. Negli anni ’50, sotto la guida di Giorgio Salvini ed Edoardo Amaldi, la scuola di fisica di Roma torna a essere all’altezza dell’operato dei “ragazzi di via Panisperna”. Questo accade soprattutto grazie al contributo dell’austriaco Bruno Touschek, che propone il primo acceleratore in cui vengono fatti collidere due fasci di particelle che viaggiano in versi opposti. Venne chiamato AdA (Anello di Accumulazione) e costruito, come prototipo, nel 1961 presso i laboratori dell’INFN a Frascati. Fino a quel momento lo studio delle interazioni fondamentali si era basato su collisori a bersaglio fisso. Carlo Bernardini faceva parte del gruppo di giovani scienziati che prese parte al progetto AdA e, successivamente, al suoupgrade ADONE. Ma Bernardini, da intellettuale autentico quale era, fu anche eccellente didatta, divulgatore e politico. [Scienza in rete; Pietro Greco] 

Un altro dei protagonisti della “via italiana alle alte energie” è stato Giorgio Parisi, eletto il 22 giugno nuovo Presidente dell’Accademia Nazionale dei Lincei. Durante la lectio magistralis che ha tenuto il 24 maggio scorso presso il Dipartimento di Fisica della Sapienza, Università di Roma, Parisi ha ricordato la “formidabile” storia della fisica teorica tra gli anni ’60 e ’70 del Novecento, popolata di scienziati italiani: Segré, Cabibbo, Maiani, oltre ai già citati Amaldi, Touschek, Salvini e Bernardini. Nel 1977 anche Parisi entra a pieno titolo in questo elenco, quando, insieme a Guido Altarelli, formula le equazioni che descrivono come cambia il contenuto dei protoni in termini di partoni (oggi li chiamiamo quark e gluoni) al variare dell’energia dei protoni. Un contributo fondamentale per calcolare il rumore prodotto dalle interazioni forti in un collisore di adroni, come LHC, e stanare così i segnali di nuova fisica. [Scienza in rete; Pietro Greco]

INTELLIGENZA ARTIFICIALE

Sono sempre più diffusi i sistemi di assistenza alla decisione basati su un’intelligenza artificiale. Promettono una maggiore oggettività, ma spesso non fanno altro che esacerbare le ingiustizie che esistono nelle nostre società. È per questo motivo che un numero sempre maggiore di ricercatori sta affrontando il problema dell’equità degli algoritmi. Come fare a valutarla? La risposta a questa domanda è tutt’altro che semplice. Prima di tutto è difficile dare una definizione unica di equità o giustizia, in secondo luogo non è facile avere accesso agli algoritmi e ai dati su cui questi sono basati. Infine le leggi che cercano di tutelare i cittadini dalle decisioni ingiuste di un sistema automatico sembrano essere ancora poco efficaci. Ma ormai il problema è al centro della discussione dei politici, dei legislatori e degli scienziati. [Nature; Rachel Courtland]

Un esempio di algoritmo ingiusto è quello che regola l’ammissione a molti college americani. Recentemente il gruppo ‘Students for fair admissions’ ha fatto causa all’università di Harvard accusandola di penalizzare i candidati di origine asiatica. È ormai noto che il test SAT, fino a poco tempo fa un vero e proprio standard per l’ammissione ai college americani, è fortemente correlato con il reddito dei genitori e dunque sfavorisce i tentativi di diversificazione sociale. Per questo motivo alcune università hanno deciso di cambiare metodo. La University of Texas at Austin, ad esempio, sceglie gli studenti che al momento del diploma occupano il 6% più alto della classifica nella loro classe. E questo indipendentemente dalla scuola considerata. [Bloomberg View; Cathy O’Neil]

Un dibattito particolare quello che si è svolto la scorsa settimana a San Francisco in un affollato ufficio della IBM. A prendervi parte due umani, Noa Ovadia e Dan Zafrir, e un’intelligenza artificiale, chiamata Project Debater, su cui IBM lavora da 6 anni. I tre ospiti hanno discusso di due temi: l’opportunità di finanziare la ricerca spaziale e l’importanza della telemedicina. Nella prima discussione il pubblico ha preferito Noa Ovadia a Project Debater, mentre nella seconda il sistema IBM ha ottenuto più voti di Zafrir. Un pareggio di fatto, ma che permette di capire a che punto sia la ricerca e lo sviluppo di sistemi informatici che svolgano compiti di alto livello, come quello di trasformare le informazioni disponibili in argomentazioni e comunicarle in modo persuasivo. [The Guardian; Olivia Solon]

RICERCA E SOCIETÀ

Uno studio, pubblicato il 20 giugno dagli economisti Alesina, Miano e Stantcheva di Harvard, ha mostrato che negli Stati Uniti e in numerosi Paesi europei la percezione riguardo agli immigrati è molto distante dalla realtà. In media gli italiani pensano che gli immigrati costituiscano più di un quarto della popolazione, mentre in realtà sono solo l’11% del totale. Negli Stati Uniti la percezione è del 35%, il dato reale è inferiore al 15%. Il divario tra dati reali e impressioni è maggiore in certi gruppi sociali. Inoltre si tende a sovrastimare la componente musulmana e a sottostimare il livello di istruzione e di reddito delle popolazioni migranti. Particolarmente significativo il fatto che 1 francese su 4 ritiene che gli immigrati ottengano il doppio dei sussidi statali rispetto ai cittadini francesi.[The New York Times; Eduardo Porter, Karl Russell]

La guerra commerciale tra Stati Uniti e Cina potrebbe avere degli effetti anche sul futuro della ricerca scientifica dei due Paesi. Il 15 giugno Trump ha annunciato un aumento del 25% dei dazi su 818 prodotti importati dalla Cina, inclusi componenti elettroniche, microscopi, dispositivi per le indagini geologiche. Le nuove tariffe entreranno in vigore il 6 luglio. Dal canto suo, il Governo cinese ha risposto con un aumento delle tasse di importazione su 545 prodotti statunitensi e ha minacciato di estenderlo ad altri 114, inclusi reagenti chimici e macchine per la risonanza magnetica. Se la ricerca Cinese sembra in grado di assorbire il colpo, quella americana appare meno preparata. [Nature; Andrew Silver]

Ricorre quest’anno il quarantesimo anniversario della fondazione della SISSA, la Scuola Internazionale Superiore di Studi Avanzati con sede a Trieste. Nelle intenzioni del suo fondatore, il fisico Paolo Budinich, la SISSA avrebbe dovuto offrire percorsi di alta formazione post-universitaria che avviassero al mondo della ricerca, mantenendo una forte apertura internazionale. [Scienza in rete; Silvia D’Autilia]

Algoritmi umani alla francese

[pubblicato originariamente su Scienza in rete il 21 marzo 2018]

Le rivelazioni di Chrstopher Wylie, data scientist canadese di 28 anni ex dipendente della società di consulenza Cambridge Analytica, confermano ancora una volta l’importanza degli algoritmi, in particolare quelli di machine learning (che basano cioè parte del loro funzionamento sui dati), nell’influenzare i processi sociali e, in ultima battuta, la vita dei singoli individui.

Quanto affermato da Wylie promette infatti di avere conseguenze su due diverse inchieste parlamentari: quella sulle interferenze russe nelle elezioni presidenziali americane del 2016 e quella riguardo il referendum britannico sull’uscita dall’Unione Europea. Wylie ha reso pubblici una serie di documenti che testimoniano come Cambridge Analytica sviluppò il suo algoritmo di microtargeting psicologico basandosi sui dati Facebook di decine di milioni di elettori americani, ottenuti illegalmente tramite la società Global Science Research, del ricercatore dell’Università di Cambridge Aleksandr Kogan. Kogan riuscì a raccogliere i dati dichiarando che sarebbero stati usati per scopi accademici, salvo poi venderli a Cambridge Analytica per un milione di dollari.

I rischi connessi all’utilizzo degli algoritmi come sistemi di assistenza alla decisione stanno emergendo in diversi ambiti: finanza, assicurazioni, accesso al credito, giustizia, sicurezza, gestione del personale e, appunto, informazione e propaganda politica. Li racconta bene Cathy O’Neil nel suo libro Weapons of math destruction (che abbiamo recensito qui), in cui si capisce chiaramente qual è il problema: gli algoritmi apprendono dai dati prodotti dai nostri comportamenti e in questi sono incorporati anche i nostri pregiudizi.

Continua a leggere Algoritmi umani alla francese

Polizia predittiva: possono gli algoritmi prevedere i reati?

[pubblicato originariamente su Il Messaggero l’11 dicembre 2017 con il titolo “Scacco alla malavita: arriva l’algoritmo che prevede i reati”]

All’inizio degli anni ’60 tre ragazzi di Angera, vicino Varese, misero a segno 17 rapine in banca tra Milano, Torino e Varese. Colpivano sempre di lunedì, e fu proprio lunedì 15 marzo 1965 che vennero arrestati dalla squadra mobile di Milano, guidata dal commissario Mario Nardone. I tre banditi vennero ribattezzati “banda del lunedì”. Cinquanta anni dopo le cose non sono cambiate: delle 2000 rapine a danno di esercizi commerciali e istituti bancari avvenute a Milano tra il 2008 e il 2011, il 70% può essere collegato a un’altra tra quelle commesse. Insomma: il reato di rapina tende a essere seriale. Questa caratteristica ha spinto Mario Venturi, assistente capo della Polizia di Stato presso la questura di Milano, a sviluppare il software di polizia predittiva KeyCrime, collaudato nel 2007 e regolarmente utilizzato a partire dal 2008. Analizzando i dati relativi alle rapine passate, KeyCrime raggruppa gli eventi simili in una serie e prevede dove e quando è più probabile che avvenga la prossima rapina. Le previsioni indirizzano le operazioni degli agenti sul territorio per permettergli di cogliere i colpevoli in flagrante.

Continua a leggere Polizia predittiva: possono gli algoritmi prevedere i reati?

Stradella, dove finiscono i libri che nessuno apre

[pubblicato originariamente su Pagina99, 13/10/2017]

In Italia aumentano i titoli in libreria, non i lettori. Gli unici a farci i soldi, così, sono i magazzini della logistica. Abbiamo visitato il più grande

Gli italiani leggono poco, eppure ogni anno siamo invasi da un numero di nuovi titoli sempre maggiore. Libri che si riversano sugli scaffali delle librerie a frotte, restano in bella vista per poche settimane, tornano in buona parte negli scatoloni. Il mercato editoriale italiano sta diventando anche (soprattutto?) questo, un business logistico immenso e complicatissimo.

Per raccontarlo bisogna venire a Stradella, a pochi chilometri da Pavia, dove ha sede lo stabilimento “Città del libro” della società di logistica Ceva. Qui ogni anno 400 magazzinieri movimentano 96 milioni di volumi. Tra i clienti ci sono grandi editori, come Mondadori, Rizzoli e Pearson, ma anche Messaggerie Libri, il distributore di circa 600 case editrici italiane, grandi, piccole e medie. Le rese dalle librerie, ogni anno, sono 24 milioni. Un movimento ogni quattro, insomma, è un libro che torna indietro.

Continua a leggere Stradella, dove finiscono i libri che nessuno apre

Algoritmi ingiusti

[pubblicato originariamente su Scienza in rete, 17 luglio 2017]

Pubblicità online, gestione del rischio finanziario, valutazione degli insegnanti delle scuole pubbliche, ranking delle università, sicurezza, giustizia, selezione del personale, organizzazione dei turni di lavoro, assicurazioni, campagna elettorale. Cos’hanno in comune queste attività? In ognuna di loro trova impiego uno tra i cosiddetti Weapons of math destruction, letteralmente “armi di distruzione matematica”, ma più propriamente “armi matematiche di distruzione di massa”, per rendere conto del riuscito gioco di parole che dà il titolo al secondo libro di Cathy O’Neil, pubblicato da Crown Publishing ad agosto del 2016, dal sottotitolo eloquente: “How big data increases inequality and threatens democracy”.

Continua a leggere Algoritmi ingiusti

Algoritmi per difenderci

[da Il Sole 24 Ore pagina 12, 24 Luglio 2016, Nòva24 Tech]

I nostri comportamenti, che siano telefonate al cellulare, acquisti online, o il modo di muoversi all’interno di un aeroporto, possono essere registrati e trasformati in dati. Sofisticati algoritmi, detti di machine learning, analizzano questi dati per costruire i nostri “profili”. Ma quanto sono affidabili? E che tipo di decisioni supportano?

Continua a leggere Algoritmi per difenderci

I meta dati che uccidono

Se il governo cinese pianifica di intensificare il controllo sui cittadini impugnando l’arma dei big data, gli Stati Uniti lo fanno già da molto tempo. In particolare ha avuto risonanza la notizia che la NSA, l’agenzia di intelligence statunitense, avrebbe basato una parte degli attacchi con droni condotti in Pakistan, responsabili di migliaia di vittime, sull’analisi del traffico telefonico mobile dei cittadini di quel paese.

Se quest’affermazione può destare in voi inquietudine, i dettagli su come questi dati siano stati utilizzati vi sconvolgeranno.

Continua a leggere I meta dati che uccidono