Le notizie di scienza della settimana #67

[pubblicato originariamente su Scienza in rete il 27 giugno 2018]

Solo il 5% dell’Universo è costituito da materia ordinaria, il resto è fatto di materia ed energia oscura. Ma se il mistero sulla natura di questa seconda componente è ben noto, è meno noto che circa il 40% della materia ordinaria manca all’appello. In altre parole: non è mai stato osservata. Almeno finora. La scorsa settimana Nature ha pubblicato i risultati di un’analisi condotta da un gruppo di astrofisici dell’ESA guidati da Fabrizio Nicastro (Istituto Nazionale di Astrofisica, INAF). Osservando la radiazione emessa da un singolo quasar nella regione dei raggi X, è stato possibile rilevare la presenza di materia barionica nello spazio intergalattico che separa il quasar dalla Terra. La materia ordinaria mancante sarebbe infatti distribuita, a bassissima densità e altissima temperatura, lungo i filamenti della ragnatela cosmica. Nell’immagine: rappresentazione artistica del mezzo intergalattico caldo e caldissimo, una miscela di gas con temperature che vanno da centinaia di migliaia di gradi (caldo) a milioni di gradi (caldissimo) che permea l’universo in una struttura simile a una ragnatela filamentosa. Credit: ESA / ATG medialab (illustrazione); ESA / XMM-Newton / F. Nicastro et al. 2018 (dati); R. Cen (simulazione cosmologica).

LA VIA ITALIANA ALLE ALTE ENERGIE

Il 21 giugno si è spento a Roma all’età di 88 anni Carlo Bernardini. Bernardini è stato prima di tutto un fisico, protagonista della cosiddetta “via italiana alle alte energie”. Negli anni ’50, sotto la guida di Giorgio Salvini ed Edoardo Amaldi, la scuola di fisica di Roma torna a essere all’altezza dell’operato dei “ragazzi di via Panisperna”. Questo accade soprattutto grazie al contributo dell’austriaco Bruno Touschek, che propone il primo acceleratore in cui vengono fatti collidere due fasci di particelle che viaggiano in versi opposti. Venne chiamato AdA (Anello di Accumulazione) e costruito, come prototipo, nel 1961 presso i laboratori dell’INFN a Frascati. Fino a quel momento lo studio delle interazioni fondamentali si era basato su collisori a bersaglio fisso. Carlo Bernardini faceva parte del gruppo di giovani scienziati che prese parte al progetto AdA e, successivamente, al suoupgrade ADONE. Ma Bernardini, da intellettuale autentico quale era, fu anche eccellente didatta, divulgatore e politico. [Scienza in rete; Pietro Greco] 

Un altro dei protagonisti della “via italiana alle alte energie” è stato Giorgio Parisi, eletto il 22 giugno nuovo Presidente dell’Accademia Nazionale dei Lincei. Durante la lectio magistralis che ha tenuto il 24 maggio scorso presso il Dipartimento di Fisica della Sapienza, Università di Roma, Parisi ha ricordato la “formidabile” storia della fisica teorica tra gli anni ’60 e ’70 del Novecento, popolata di scienziati italiani: Segré, Cabibbo, Maiani, oltre ai già citati Amaldi, Touschek, Salvini e Bernardini. Nel 1977 anche Parisi entra a pieno titolo in questo elenco, quando, insieme a Guido Altarelli, formula le equazioni che descrivono come cambia il contenuto dei protoni in termini di partoni (oggi li chiamiamo quark e gluoni) al variare dell’energia dei protoni. Un contributo fondamentale per calcolare il rumore prodotto dalle interazioni forti in un collisore di adroni, come LHC, e stanare così i segnali di nuova fisica. [Scienza in rete; Pietro Greco]

INTELLIGENZA ARTIFICIALE

Sono sempre più diffusi i sistemi di assistenza alla decisione basati su un’intelligenza artificiale. Promettono una maggiore oggettività, ma spesso non fanno altro che esacerbare le ingiustizie che esistono nelle nostre società. È per questo motivo che un numero sempre maggiore di ricercatori sta affrontando il problema dell’equità degli algoritmi. Come fare a valutarla? La risposta a questa domanda è tutt’altro che semplice. Prima di tutto è difficile dare una definizione unica di equità o giustizia, in secondo luogo non è facile avere accesso agli algoritmi e ai dati su cui questi sono basati. Infine le leggi che cercano di tutelare i cittadini dalle decisioni ingiuste di un sistema automatico sembrano essere ancora poco efficaci. Ma ormai il problema è al centro della discussione dei politici, dei legislatori e degli scienziati. [Nature; Rachel Courtland]

Un esempio di algoritmo ingiusto è quello che regola l’ammissione a molti college americani. Recentemente il gruppo ‘Students for fair admissions’ ha fatto causa all’università di Harvard accusandola di penalizzare i candidati di origine asiatica. È ormai noto che il test SAT, fino a poco tempo fa un vero e proprio standard per l’ammissione ai college americani, è fortemente correlato con il reddito dei genitori e dunque sfavorisce i tentativi di diversificazione sociale. Per questo motivo alcune università hanno deciso di cambiare metodo. La University of Texas at Austin, ad esempio, sceglie gli studenti che al momento del diploma occupano il 6% più alto della classifica nella loro classe. E questo indipendentemente dalla scuola considerata. [Bloomberg View; Cathy O’Neil]

Un dibattito particolare quello che si è svolto la scorsa settimana a San Francisco in un affollato ufficio della IBM. A prendervi parte due umani, Noa Ovadia e Dan Zafrir, e un’intelligenza artificiale, chiamata Project Debater, su cui IBM lavora da 6 anni. I tre ospiti hanno discusso di due temi: l’opportunità di finanziare la ricerca spaziale e l’importanza della telemedicina. Nella prima discussione il pubblico ha preferito Noa Ovadia a Project Debater, mentre nella seconda il sistema IBM ha ottenuto più voti di Zafrir. Un pareggio di fatto, ma che permette di capire a che punto sia la ricerca e lo sviluppo di sistemi informatici che svolgano compiti di alto livello, come quello di trasformare le informazioni disponibili in argomentazioni e comunicarle in modo persuasivo. [The Guardian; Olivia Solon]

RICERCA E SOCIETÀ

Uno studio, pubblicato il 20 giugno dagli economisti Alesina, Miano e Stantcheva di Harvard, ha mostrato che negli Stati Uniti e in numerosi Paesi europei la percezione riguardo agli immigrati è molto distante dalla realtà. In media gli italiani pensano che gli immigrati costituiscano più di un quarto della popolazione, mentre in realtà sono solo l’11% del totale. Negli Stati Uniti la percezione è del 35%, il dato reale è inferiore al 15%. Il divario tra dati reali e impressioni è maggiore in certi gruppi sociali. Inoltre si tende a sovrastimare la componente musulmana e a sottostimare il livello di istruzione e di reddito delle popolazioni migranti. Particolarmente significativo il fatto che 1 francese su 4 ritiene che gli immigrati ottengano il doppio dei sussidi statali rispetto ai cittadini francesi.[The New York Times; Eduardo Porter, Karl Russell]

La guerra commerciale tra Stati Uniti e Cina potrebbe avere degli effetti anche sul futuro della ricerca scientifica dei due Paesi. Il 15 giugno Trump ha annunciato un aumento del 25% dei dazi su 818 prodotti importati dalla Cina, inclusi componenti elettroniche, microscopi, dispositivi per le indagini geologiche. Le nuove tariffe entreranno in vigore il 6 luglio. Dal canto suo, il Governo cinese ha risposto con un aumento delle tasse di importazione su 545 prodotti statunitensi e ha minacciato di estenderlo ad altri 114, inclusi reagenti chimici e macchine per la risonanza magnetica. Se la ricerca Cinese sembra in grado di assorbire il colpo, quella americana appare meno preparata. [Nature; Andrew Silver]

Ricorre quest’anno il quarantesimo anniversario della fondazione della SISSA, la Scuola Internazionale Superiore di Studi Avanzati con sede a Trieste. Nelle intenzioni del suo fondatore, il fisico Paolo Budinich, la SISSA avrebbe dovuto offrire percorsi di alta formazione post-universitaria che avviassero al mondo della ricerca, mantenendo una forte apertura internazionale. [Scienza in rete; Silvia D’Autilia]

Algoritmi umani alla francese

[pubblicato originariamente su Scienza in rete il 21 marzo 2018]

Le rivelazioni di Chrstopher Wylie, data scientist canadese di 28 anni ex dipendente della società di consulenza Cambridge Analytica, confermano ancora una volta l’importanza degli algoritmi, in particolare quelli di machine learning (che basano cioè parte del loro funzionamento sui dati), nell’influenzare i processi sociali e, in ultima battuta, la vita dei singoli individui.

Quanto affermato da Wylie promette infatti di avere conseguenze su due diverse inchieste parlamentari: quella sulle interferenze russe nelle elezioni presidenziali americane del 2016 e quella riguardo il referendum britannico sull’uscita dall’Unione Europea. Wylie ha reso pubblici una serie di documenti che testimoniano come Cambridge Analytica sviluppò il suo algoritmo di microtargeting psicologico basandosi sui dati Facebook di decine di milioni di elettori americani, ottenuti illegalmente tramite la società Global Science Research, del ricercatore dell’Università di Cambridge Aleksandr Kogan. Kogan riuscì a raccogliere i dati dichiarando che sarebbero stati usati per scopi accademici, salvo poi venderli a Cambridge Analytica per un milione di dollari.

I rischi connessi all’utilizzo degli algoritmi come sistemi di assistenza alla decisione stanno emergendo in diversi ambiti: finanza, assicurazioni, accesso al credito, giustizia, sicurezza, gestione del personale e, appunto, informazione e propaganda politica. Li racconta bene Cathy O’Neil nel suo libro Weapons of math destruction (che abbiamo recensito qui), in cui si capisce chiaramente qual è il problema: gli algoritmi apprendono dai dati prodotti dai nostri comportamenti e in questi sono incorporati anche i nostri pregiudizi.

Continua a leggere Algoritmi umani alla francese

Polizia predittiva: possono gli algoritmi prevedere i reati?

[pubblicato originariamente su Il Messaggero l’11 dicembre 2017 con il titolo “Scacco alla malavita: arriva l’algoritmo che prevede i reati”]

All’inizio degli anni ’60 tre ragazzi di Angera, vicino Varese, misero a segno 17 rapine in banca tra Milano, Torino e Varese. Colpivano sempre di lunedì, e fu proprio lunedì 15 marzo 1965 che vennero arrestati dalla squadra mobile di Milano, guidata dal commissario Mario Nardone. I tre banditi vennero ribattezzati “banda del lunedì”. Cinquanta anni dopo le cose non sono cambiate: delle 2000 rapine a danno di esercizi commerciali e istituti bancari avvenute a Milano tra il 2008 e il 2011, il 70% può essere collegato a un’altra tra quelle commesse. Insomma: il reato di rapina tende a essere seriale. Questa caratteristica ha spinto Mario Venturi, assistente capo della Polizia di Stato presso la questura di Milano, a sviluppare il software di polizia predittiva KeyCrime, collaudato nel 2007 e regolarmente utilizzato a partire dal 2008. Analizzando i dati relativi alle rapine passate, KeyCrime raggruppa gli eventi simili in una serie e prevede dove e quando è più probabile che avvenga la prossima rapina. Le previsioni indirizzano le operazioni degli agenti sul territorio per permettergli di cogliere i colpevoli in flagrante.

Continua a leggere Polizia predittiva: possono gli algoritmi prevedere i reati?

Algoritmi per difenderci

[da Il Sole 24 Ore pagina 12, 24 Luglio 2016, Nòva24 Tech]

I nostri comportamenti, che siano telefonate al cellulare, acquisti online, o il modo di muoversi all’interno di un aeroporto, possono essere registrati e trasformati in dati. Sofisticati algoritmi, detti di machine learning, analizzano questi dati per costruire i nostri “profili”. Ma quanto sono affidabili? E che tipo di decisioni supportano?

Continua a leggere Algoritmi per difenderci

I meta dati che uccidono

Se il governo cinese pianifica di intensificare il controllo sui cittadini impugnando l’arma dei big data, gli Stati Uniti lo fanno già da molto tempo. In particolare ha avuto risonanza la notizia che la NSA, l’agenzia di intelligence statunitense, avrebbe basato una parte degli attacchi con droni condotti in Pakistan, responsabili di migliaia di vittime, sull’analisi del traffico telefonico mobile dei cittadini di quel paese.

Se quest’affermazione può destare in voi inquietudine, i dettagli su come questi dati siano stati utilizzati vi sconvolgeranno.

Continua a leggere I meta dati che uccidono

Cina: big data per prevenire il crimine

Ricordate il film Minority Report in cui il sistema Precrimine permetteva di sventare gli omicidi prima che venissero commessi nella Washington del 2054? Ecco, la Cina si prepara a un’operazione simile sfruttando i dati sull’attività online, le telefonate, i conti correnti bancari, il livello dei consumi dei suoi cittadini. L’obiettivo è quello di stanare i sovversivi prima che compiano attività di sabotaggio verso il partito comunista cinese. A realizzare questa impresa, che comporterà l’archiviazione e l’analisi di un’enorme quantità di dati, sarà la società di telecomunicazioni China Technology. Il parlamento ha già preparato il campo a questo programma di sorveglianza, promulgando, il primo gennaio scorso, una legge che priva di qualsiasi diritto di privacy.

Continua a leggere Cina: big data per prevenire il crimine

Fisica per cittadini

Ormai molte delle scelte politiche e sociali che siamo chiamati a compiere si basano su dati di natura scientifica. Perché siamo così disperatamente attaccati al petrolio? Sappiamo che le polveri sottili sono dannose per la nostra salute, ma che differenza c’è tra PM 2.5 e PM 10? Quando dicono che il PIL è cresciuto dello 0.75%, stanno dicendo la verità? Se non sapete rispondere a queste domande non preoccupatevi. Il 29 febbraio avrà inizio, nelle aule del dipartimento “Cultura, politica e società” dell’Università di Torino, il corso “Fisica per cittadini”. È destinato principalmente agli studenti delle lauree umanistiche, ma non solo. Di cosa si tratta? Ce lo racconta Lorenzo Magnea, professore ordinario di fisica teorica all’Università di Torino e titolare del corso.

Continua a leggere Fisica per cittadini