Parte l’appello Scienza in Parlamento

[pubblicato originariamente su Scienza in rete il 2 aprile 2019]

Come portare la Scienza in Parlamento

Un gruppo di giovani ricercatori e giornalisti scientifici lancia oggi l’appello #ScienzaInParlamento – La Scienza al servizio della Democrazia, per chiedere la costituzione di un ufficio di consulenza scientifica a supporto dell’attività legislativa del nostro Paese. L’iniziativa è già stata sottoscritta da personalità di peso del mondo della ricerca che condividono l’importanza di mettere a disposizione dei deputati e dei senatori le migliori conoscenze esistenti su alcuni temi di natura` scientifica e tecnologica che sono fondamentali per il futuro del nostro Paese e dell’Europa. È cruciale però che queste conoscenze siano trasmesse in modo funzionale, fruibile e al momento giusto cosicché i politici possano trarne beneficio. Per questo la proposta è quella di costituire una struttura che faccia da intermediaria tra gli esperti e i parlamentari, rimanendo dunque indipendente e traducendo il linguaggio, spesso troppo tecnico, della scienza. Soprattutto, deve essere in grado di restituire la complessità di alcune questioni per permettere ai nostri rappresentanti di prendere decisioni informate ed equilibrate.

Continua a leggere Parte l’appello Scienza in Parlamento

Sofosbuvir: la battaglia continua

[pubblicato originariamente su Scienza in rete il 23/09/2018]

In una seduta pubblica svoltasi a Monaco il 13 settembre, lo European Patent Office (EPO) ha deciso di respingere l’opposizione al brevetto sul farmaco sofosbuvir, un antivirale ad azione diretta utilizzato per curare l’epatite C, di proprietà dalla società farmaceutica Gilead Sciences. La richiesta di opposizione era stata depositata a marzo dello scorso anno simultaneamente in 17 Paesi, tra cui India, Argentina, Brasile, Cina e Stati Uniti, da parte di una serie di organizzazioni non governative e associazioni di pazienti (in Europa Medici Senza Frontiere e Médecins du Monde).

Continua a leggere Sofosbuvir: la battaglia continua

Le notizie di scienza della settimana #72

[pubblicato originariamente su Scienza in rete il 19 settembre 2018]

L'uragano Florence fotografato dalla Stazione Spaziale Internazionale il 10 settembre 2018. Credit: NASA. Licenza: Public Domain.
Dopo aver raggiunto il North Carolina venerdì pomeriggio, l’uragano Florence ha rallentato la sua corsa, rimanendo sui territori del North Carolina e South Carolina fino a domenica. La permanenza prolungata dell’uragano, che intanto era stato declassato a ciclone tropicale di categoria 2 per la minore intensità dei suoi venti, ha portato nella regione temporali molto intensi. In alcune città sono caduti oltre 70 cm di pioggia in soli due giorni causando, anche nelle zone più interne, l’esondazione di torrenti e fiumi che potrebbero continuare nei prossimi giorni. Finora le vittime accertate sono 32, 500 000 le persone rimaste senza elettricità, oltre 2 500 le persone salvate dai soccorritori. Il ruolo del cambiamento climatico nel determinare la violenza degli uragani è stato analizzato in uno studio pubblicato a maggio sul Journal of Climate: simulando 22 uragani recenti in uno scenario con temperature più alte, gli scienziati hanno osservato che non diventano più intensi ma quasi tutti portano maggiori quantità di pioggia, con un aumento medio del 25% nel livello delle precipitazioni. Il motivo è che la capacità dell’aria di trattenere umidità aumenta del 7% per ogni grado centigrado di temperatura in più. Per capire quanto e come l’aumento della temperatura globale ha influenzato l’uragano Florence servirà tempo: gli scienziati dovranno eseguire tutte le simulazioni del caso. Tuttavia la possibilità di attribuire le caratteristiche di singoli eventi meteorologici al cambiamento climatico sta diventando una scienza sempre più affidabile. Nell’immagine: l’uragano Florence fotografato dalla Stazione Spaziale Internazionale il 10 settembre 2018. Credit: NASA. Licenza: Public Domain.

SOFOSBUVIR: LA BATTAGLIA CONTINUA

Riunito a Monaco il 13 settembre, lo European Patent Office (EPO) ha deciso di respingere l’opposizione al brevetto sul farmaco contro l’epatite C Sofosbuvir, di proprietà dalla società Gilead Sciences. La richiesta di opposizione era stata depositata a marzo dello scorso anno da una serie di organizzazioni non governative appartenenti a 17 Paesi, tra cui Medici Senza Frontiere e Médecins du Monde. Il motivo dell’opposizione è che la scienza dietro il Sofosbuvir non ha elementi di novità sufficienti per giustificare la copertura brevettuale. La decisione dell’EPO preclude di fatto l’accesso al costoso farmaco per i cittadini europei, che non possono acquistare le versioni generiche più economiche vendute in altri Paesi. Il Sofosbuvir, lanciato sul mercato da Gilead alla fine del 2013, è un antivirale diretto per il trattamento dell’epatite C e in Europa il costo di un ciclo di dodici settimane di terapia è di 59 mila dollari. [Doctors Without Borders; Redazione]

Oggi il governo indiano acquista lo stesso ciclo di terapia al costo di 80 dollari dai produttori di farmaci generici indiani. La terapia è poi distribuita gratuitamente ai pazienti degli stati del Punjab e di Haryana, circa 60 mila persone. Come è stato possibile? Grazie all’azione combinata di attivisti, medici e rappresentanti del governo, che hanno favorito il superamento degli ostacoli riguardanti la proprietà intellettuale e l’approvazione del generico da parte dell’agenzia del farmaco. Le società farmaceutiche indiane sono state in grado di offrire un prezzo così basso perché il numero totale di pazienti bisognosi della terapia è talmente elevato che i margini di profitto sono comunque garantiti. [Undark Magazine; Huizhong Wu]

Nel frattempo, a luglio di quest’anno, l’associazione indiana Delhi Network of Positive People (DNP+) ha depositato un’opposizione alla richiesta di brevetto su altri due farmaci contro l’epatite C: il Velpatasvir, un antivirale usato insieme al Sofosbuvir, e l’Epclusa, una combinazione a dose fissa di Sofosbuvir e Velpatasvir efficace al 90% su sei genotipi del virus. Entrambi i brevetti sono di proprietà della Gilead Sciences. La decisione su questa opposizione sarà cruciale per garantire l’accesso a queste terapie non solo ai cittadini indiani, ma anche alle popolazioni dei Paesi in via di sviluppo. [The Telegraph India; Redazione]

OPEN ACCESS: DA SOGNO A REALTÀ?

I risultati della ricerca finanziata pubblicamente dovrebbe essere disponibili gratuitamente. Questo il punto dell’editoriale di George Monbiot sul Guardian, che evidenzia, ancora una volta, l’ingiustizia del mercato dell’editoria scientifica. Dominato da cinque grandi aziende (Reed Elsevier, Springer, Taylor & Francis, Wiley-Blackwell e American Chemical Society) questo mercato è basato su un modello di business che Monbiot definisce una “rapina”. Le case editrici ricevono dai ricercatori una bozza dell’articolo, affidano ad altri ricercatori la revisione e questi la eseguono a titolo gratuito, e infine pubblicano la versione corretta. Le biblioteche universitarie e i centri di ricerca pubblici devono poi pagare tariffe esorbitanti per accedere a questi stessi contenuti e al privato cittadino, che ha già contribuito con le sue tasse, vengono richiesti fino a 50 dollari per leggere un singolo articolo. Monbiot loda l’opera di hackeraggio di Alexandra Elbakian, la ricercatrice kazaka fondatrice di Sci-Hub e osserva che esperienze come quelle della Public Library of Science dimostrano che non servono paywall per produrre riviste eccellenti. [The Guardian; George Monbiot]

Nel suo editoriale Monbiot accoglie inoltre con ottimismo l’iniziativa di conversione all’Open Access (OA) “Plan S”, lanciata il 4 settembre da 11 agenzie europee di finanziamento della ricerca, tra cui anche un ente italiano, l’Istituto Nazionale di Fisica Nucleare (INFN). Il piano prevede di rendere obbligatoria entro il 2020 la pubblicazione immediata in OA per tutti i ricercatori che ricevono fondi da queste agenzie. Le riviste che rispettano i requisiti stabiliti dal piano sono solo il 15% del totale. Sono infatti esclusi i giornali che permettono la consultazione gratuita degli articoli solo dopo sei mesi dalla pubblicazione e anche quelli con modello ibrido (che prevedono di norma l’accesso a pagamento ma consentono di pubblicare singoli articoli in OA pagando un’ulteriore commissione). Il modello proposto si ispira a quello della Bill & Melinda Gates Fundation, che ha spinto alcune riviste a convertire il loro modello di business. Ed è quello che sperano di fare anche i promotori del Plan-S, ma sono numerose le agenzie nazionali della ricerca che non hanno ancora aderito, esprimendo dei dubbi sulla scadenza del 2020, sull’esclusione delle riviste ibride e sui costi di pubblicazione che dovrebbero sostenere. Manca, soprattutto, l’adesione della Commissione Europea, che sta ancora mettendo a punto i dettagli del suo prossimo programma quadro per la ricerca e l’innovazione Horizon Europe.[Nature; Holly Else]

L’articolo di Monbiot ha aperto un dibattito con i ricercatori e i rappresentanti delle associazioni di editori. I primi si dichiarano d’accordo e difendono convintamente il passaggio all’Open Access, che, tra l’altro, renderebbe accessibile la ricerca anche a coloro che lavorano nelle università dei Paesi in via di sviluppo. Al contrario i secondi difendono il ruolo delle case editrici nel migliorare, archiviare e rendere disponibile online gli articoli scientifici, sottolineando infine l’importanza delle metriche di valutazione della ricerca introdotte proprio dalle case editrici. [The Guardian; Readers]

RICERCA E SOCIETÀ

Durante l’incontro annuale della Cochrane collaboration il 13 settembre a Edimburgo il comitato esecutivo ha votato l’espulsione di uno dei suoi membri, Peter Gøtzsche, leader riconosciuto del centro nordeuropeo della Cochrane basato a Copenhagen, il Nordic Cochrane Center. La decisione è probabilmente motivata dalla critica mossa a luglio dal Nordic Cochrane Center riguardo la revisione sul vaccino HPV, che la collaborazione aveva pubblicato a maggio di quest’anno. L’epidemiologo Eugenio Paci commenta l’accaduto, essendo stato lui stesso testimone di un incidente simile con Peter Gøtzsche sull’efficacia dello screening mammografico. [Scienza in rete; Eugenio Paci]

Assegnati il 14 settembre i premi Ig Nobel 2018 che riconoscono risultati scientifici che prima fanno ridere le persone e poi le spingono a riflettere. Ecco alcuni dei vincitori. Il premio per l’economia è stato assegnato a un gruppo di ricercatori che ha investigato l’efficacia per gli impiegati di vendicarsi del loro capo attraverso una bambola Voodoo. Quello per la pace è andato alla ricerca sulla frequenza e la motivazione delle grida e delle imprecazioni alla guida. Infine il premio per la chimica: misurare quanto la saliva sia in grado di pulire superfici sporche. [Ars Technica; Jennifer Ouellette]

Gli esseri umani e la tecnologia fanno parte del sistema Terra e dovrebbero contribuire alla sua autoregolazione. In un articolo pubblicato su Science, l’ecologo Tim Lenton e il filosofo Bruno Latour propongono un aggiornamento della cosiddetta “Ipotesi Gaia”. La teoria, proposta dal chimico James Lovelock e sviluppata dalla microbiologa Lynn Margulis negli anni ’70, parte dal presupposto che le condizioni di abitabilità del nostro pianeta siano determinate dall’azione simultanea e sinergica di tutti gli esseri viventi che la abitano. L’ingresso nell’epoca dell’Antropocene ci sta spingendo a essere consapevoli delle conseguenze delle nostre azioni sul clima globale e, in alcuni casi, ad autoregolarci. Queste scelte di autoregolazione, affermano i due autori, potrebbero essere fatte nel quadro più ampio dell’ipotesi Gaia, creando così le condizioni per una Gaia 2.0. [Science; Timothy M. Lenton, Bruno Latour]

Nel suo ultimo libro “Tracciare la rotta. Come orientarsi in politica”, il filosofo Bruno Latour analizza gli effetti politici del nuovo regime climatico sancito dall’accordo di Parigi. Secondo Latour sia le tendenze sovraniste e populiste che attraversano l’Europa sia il negazionismo trumpiano sono reazioni al disvelamento della realtà climatica, che ha colto un po’ tutti di sorpresa e comincia a porre interrogativi inquietanti sulla qualità della vita in un futuro non toppo lontano.[Scienza in rete; Luca Carra]

Le notizie di scienza della settimana #71

[pubblicato originariamente su Scienza in rete il 12 settembre 2018]

Il ministro della salute della Repubblica Democratica del Congo Oly Ilunga Kalenga insieme agli amministratori locali accolgono una delegazione ONU a Beni, nella provincia del Nord Kivu, il 2 agosto 2018, dove è stata dichiarata una nuova epidemia di Ebola.
Una nuova epidemia di Ebola è stata dichiarata il 1° agosto nella provincia orientale del Nord Kivu, nella Repubblica Democratica del Congo (RDC). Solo il 24 luglio le autorità sanitarie avevano dichiarato chiusa un’altra epidemia di Ebola, la nona negli ultimi 40 anni, che aveva colpito il nordovest del Paese all’inizio di maggio, ma era stata rapidamente controllata anche grazie all’utilizzo di un vaccino sperimentale. Al 3 settembre i decessi erano 82 e le persone raggiunte dal vaccino, somministrato secondo uno schema ad anelli concentrici, erano oltre 6 000. Resta comunque molto difficile intervenire nella zona, poiché tutta la provincia è interessata dal 2004 dal conflitto tra le milizie ribelli Allied Democratic Forces e l’esercito della RDC. La popolazione è infatti molto provata e alcuni rifiutano di condurre i parenti malati nei centri di cura, scoraggiati anche dall’isolamento cui verrebbero sottoposti e dall’aspetto degli operatori sanitari protetti dalle tute anti contaminazione. Ma la ONG ALIMA (The Alliance For International Medical Action) sta cercando di superare questi ostacoli, offrendo assistenza ai casi confermati di Ebola in un nuovo tipo di struttura, installato nella città di Beni. Qui i pazienti vengono ricoverati in unità individuali di isolamento chiamate CUBE, che permettono da una parte il contatto visivo con i parenti e dall’altra agli operatori di lavorare senza indossare le tute speciali. Nell’immagine: il ministro della salute della Repubblica Democratica del Congo Oly Ilunga Kalenga insieme agli amministratori locali accolgono una delegazione ONU a Beni, nella provincia del Nord Kivu, il 2 agosto 2018. Credit: MONUSCO Photos / Flickr. Licenza: CC BY-SA 2.0.

SMETTIAMO DI CREDERE (CIECAMENTE) NEGLI ALGORITMI

Nel suo libro “Hello World: Being Human in the Age of Algorithms”, appena pubblicato nel Regno Unito, la matematica Hannah Fry affronta il tema degli algoritmi e di come limitare i loro effetti negativi nella società. In primo luogo dovremmo smettere di riconoscere agli algoritmi un’autorità superiore. In secondo luogo potremmo programmarli in modo che sia esplicita l’incertezza che è contenuta nei loro risultati. I sistemi di riconoscimento facciale, per esempio, potrebbero indicare una serie di possibili identità e non una sola e lasciare la scelta finale agli esseri umani. Secondo Fry il risultato migliore si ottiene quando gli algoritmi lavorano insieme alle persone, come accade nei sistemi che analizzano le immagini delle mammografie per individuare possibili formazioni tumorali. Il software identifica un sottoinsieme di immagini in cui sospetta di vedere un cancro e le sottopone al vaglio del medico. [The Wall Street Journal; Hannah Fry]

Intanto alla fine di luglio negli Stati Uniti il senatore Mark Warner ha presentato una proposta di legge sulla regolamentazione dei social media e delle compagnie tecnologiche. La proposta rispetta l’approccio che da sempre la legislazione americana ha avuto su questi temi: non limitare l’accesso ai dati. Warner propone infatti di favorire l’ingresso di competitor nel mercato dei dati, permettendo agli utenti Facebook ad esempio, di consegnare i loro dati personali ad altre compagnie del settore. Sostanzialmente un tentativo di interrompere il monopolio delle big tech. Il secondo punto della proposta riguarda invece gli algoritmi, in particolare quelli utilizzati in alcuni settori sensibili, come il credito, la salute, le assicurazioni. I Governi, propone Warner, potrebbero infatti esigere che i software utilizzati in questi ambiti siano sottoposti a procedure di auditing che ne accertino la qualità e l’equità. [Bloomberg Opinion; Cathy O’Neil]

Ulteriori rischi connessi all’utilizzo, sempre più diffuso, di sistemi di decisione automatizzati potrebbero derivare dall’interazione degli algoritmi tra loro. Un esempio è quello dell’High Frequency Trading (HFT), lo scambio di titoli sul mercato azionario affidato a software che operano su scale di tempo molto piccole cercando di sfruttare la volatilità dei prezzi. L’interazione dei software di HFT appartenenti a vari fondi di investimento ha causato nel 2010 il cosiddetto flash crash, un intervallo di pochi minuti in cui due importanti indici azionari statunitensi persero il 9% del loro valore, riacquistandone gran parte nell’ora successiva. Secondo il fisico Neil Johnson, della George Washington University, altri mini flash crash si continuano a osservare sul mercato dal 2014. Situazioni analoghe si stanno verificano anche su Amazon nei sistemi che fissano i prezzi dei prodotti in vendita. Il rischio, insomma, è di perdere il controllo dell’insieme degli algoritmi che utilizziamo e che collettivamente si comportano come un organismo multicellulare in evoluzione. [The Guardian; Andrew Smith]

GLIFOSATO: DALLA SCIENZA AL TRIBUNALE E RITORNO

Il processo mediatico era stato celebrato a giugno del 2017 sui giornali di mezzo mondo. Il primo atto del processo ufficiale si è concluso invece lo scorso 10 agosto, quando il giudice Suzanne Ramos Bolanos della Corte Suprema della California ha condannato in primo grado l’azienda agrochimica Monsanto al pagamento di 289 milioni di dollari di risarcimento a Dewayne Johnson, un ex giardiniere di 46 anni colpito da una forma terminale di linfoma della pelle. La giuria ha giudicato verosimile il nesso causale fra il glifosato contenuto nell’erbicida Round Up, commercializzato dall’azienda fin dagli anni ’70, e la malattia di Johnson, a cui restano ormai pochi mesi di vita. [The Guardian; Sam Levin] 

La sentenza, seppure solo di primo grado, incoraggia gli oltre 4 000 querelanti sparsi negli Stati Uniti che hanno fatto causa alla Monsanto e che attendono di andare a processo (il prossimo verrà celebrato all’inizio del 2019 a St.Louis, Missouri). All’origine di queste cause c’è anche la monografia pubblicata nel 2015 dalla International Agency for Research on Cancer (IARC), che ha dichiarato il glifosato contenuto nell’erbicida RoundUp probabile cancerogeno per gli esseri umani. Ed è proprio su questa monografia che i legali di Johnson hanno basato la loro argomentazione insieme, ovviamente, ai Monsanto Papers, che hanno usato per dimostrare che l’azienda sapeva da decenni degli effetti negativi del Round Up per la salute umana, ma ha taciuto e anzi ha ingaggiato scienziati che scrivessero studi favorevoli facendoli apparire indipendenti. [The Guardian; Carey Gilam] 

La Monsanto, da giugno una divisione della tedesca Bayer che la acquistata per 62,5 miliardi di dollari, promette di ricorrere in appello affermando che la sentenza ignora una grande mole di studi che smentiscono le conclusioni raggiunte dal gruppo di esperti autori della monografia IARC. Numerose sono infatti le critiche mosse al contenuto della monografia e ai metodi utilizzati da IARC per classificare le sostanze in categorie di cancerogenicità. Da una parte viene criticato il fatto che l’agenzia scelga di non considerare i livelli di esposizione e dunque di non indicare soglie di sicurezza al di sotto delle quali le sostanze possono essere considerate sicure. Dall’altra vengono chiamati in causa i pareri di altre autorevoli agenzie internazionali, come EFSA, ECHA e la stessa OMS, e i risultati recenti dell’Agricultural Health Study pubblicati a novembre del 2017. Su questi elementi si baserà molto probabilmente la linea degli avvocati di Monsanto nel processo di appello. [Scienza in rete; Chiara Sabelli]

RICERCA E SOCIETÀ

Questa settimana ha segnato l’inizio del nuovo anno scolastico in numerose regioni riaccendendo così il dibattito sull’obbligo vaccinale: è uno strumento utile a risolvere il problema del calo delle coperture? Secondo l’epidemiologo Vittorio Demicheli andrebbe accompagnato da altri interventi, che tengano in considerazioni le diverse cause del fenomeno. L’obbligo, imponendo sanzioni, è efficace solo per uno dei determinanti (il rifiuto ideologico), ma non si occupa degli altri due (difficoltà di accesso ai servizi vaccinali e diffidenza). Prima del decreto Lorenzin, che comunque ha il merito di stabilire uno standard comune a tutto il territorio nazionale, la legislazione italiana promuoveva l’adesione volontaria e consapevole. Per questa c’è bisogno del potenziamento dei servizi e di interventi culturali. In particolare è necessario che il dibattito sulle vaccinazioni ritrovi toni pacati e smetta di essere una guerra di religione. [Scienza in rete; Vittorio Demicheli]

Pubblicati a fine luglio i progetti vincitori di un ERC Starting Grant, il finanziamento dello European Research Council ai giovani ricercatori. L’Italia è seconda, per nazionalità dei vincitori, dopo la Germania, ma prima nella classifica dei Paesi che vedono i loro scienziati andare all’estero per spendere i fondi ottenuti. Dei 42 ricercatori italiani premiati, 27 hanno scelto come host institution un’università o un centro di ricerca straniero. Una situazione che si ripete uguale a se stessa da ormai diversi anni e trova spiegazione nella peggiore condizione dei laboratori e delle strutture italiane, ma anche nelle burocrazie respingenti. Se l’Italia registra il saldo negativo più elevato, la Gran Bretagna, malgrado Brexit, ottiene il saldo positivo più alto: 22 i ricercatori britannici vincitori di un grant, ma 67 i progetti che verranno svolti nel Regno Unito. [Scienza in rete; Pietro Greco]

Nella notte del 2 settembre un incendio ha distrutto il Museo Nazionale di Rio de Janeiro riducendo in cenere la quasi totalità delle collezioni che ospitava. Una tragedia annunciata secondo i ricercatori intervistati da Science. Tra i pezzi più significativi che si teme siano andati perduti c’è il cranio di Luzia, risalente a 11 000 anni fa, uno dei resti umani più antichi ritrovati nel continente americano. A giugno, durante i festeggiamenti per i 200 anni dall’inaugurazione, la Brazilian Development Bank aveva annunciato un finanziamento di 5 milioni di dollari per ristrutturare l’edificio del museo, compresi i suoi sistemi antincendio. Troppo tardi. Ora il governo promette di stanziare fondi di emergenza per ricostruirlo il prima possibile. [Science; Herton Escobar]

 

Smettiamo di credere ciecamente negli algoritmi

[pubblicato originariamente su Scienza in rete il 12 settembre 2018]

Quest’anno al carnevale di Notting Hill, che ogni agosto a Londra celebra la black British culture, la London Metropolitan Police non ha utilizzato i sistemi di riconoscimento facciale che aveva sperimentato nel 2017. Le uniche misure straordinarie di sicurezza sono stati i metal detector e gli agenti speciali capaci di memorizzare i volti di una serie di ricercati talmente bene da identificarli in una folla. L’esperienza dello scorso anno infatti era stata deludente: delle 104 persone segnalate dai sistemi di riconoscimento facciale, 102 erano risultati dei falsi positivi: una volta fermati dagli agenti la loro identità non corrispondeva a quella indicata dall’algoritmo. L’organizzazione per i diritti civili Big Brother Watch aveva denunciato i limiti di questa tecnologia, affermando che penalizza in particolare le minoranze (donne e persone appartenenti alle minoranze etniche).

Continua a leggere Smettiamo di credere ciecamente negli algoritmi

Le notizie di scienza della settimana #67

[pubblicato originariamente su Scienza in rete il 27 giugno 2018]

Solo il 5% dell’Universo è costituito da materia ordinaria, il resto è fatto di materia ed energia oscura. Ma se il mistero sulla natura di questa seconda componente è ben noto, è meno noto che circa il 40% della materia ordinaria manca all’appello. In altre parole: non è mai stato osservata. Almeno finora. La scorsa settimana Nature ha pubblicato i risultati di un’analisi condotta da un gruppo di astrofisici dell’ESA guidati da Fabrizio Nicastro (Istituto Nazionale di Astrofisica, INAF). Osservando la radiazione emessa da un singolo quasar nella regione dei raggi X, è stato possibile rilevare la presenza di materia barionica nello spazio intergalattico che separa il quasar dalla Terra. La materia ordinaria mancante sarebbe infatti distribuita, a bassissima densità e altissima temperatura, lungo i filamenti della ragnatela cosmica. Nell’immagine: rappresentazione artistica del mezzo intergalattico caldo e caldissimo, una miscela di gas con temperature che vanno da centinaia di migliaia di gradi (caldo) a milioni di gradi (caldissimo) che permea l’universo in una struttura simile a una ragnatela filamentosa. Credit: ESA / ATG medialab (illustrazione); ESA / XMM-Newton / F. Nicastro et al. 2018 (dati); R. Cen (simulazione cosmologica).

LA VIA ITALIANA ALLE ALTE ENERGIE

Il 21 giugno si è spento a Roma all’età di 88 anni Carlo Bernardini. Bernardini è stato prima di tutto un fisico, protagonista della cosiddetta “via italiana alle alte energie”. Negli anni ’50, sotto la guida di Giorgio Salvini ed Edoardo Amaldi, la scuola di fisica di Roma torna a essere all’altezza dell’operato dei “ragazzi di via Panisperna”. Questo accade soprattutto grazie al contributo dell’austriaco Bruno Touschek, che propone il primo acceleratore in cui vengono fatti collidere due fasci di particelle che viaggiano in versi opposti. Venne chiamato AdA (Anello di Accumulazione) e costruito, come prototipo, nel 1961 presso i laboratori dell’INFN a Frascati. Fino a quel momento lo studio delle interazioni fondamentali si era basato su collisori a bersaglio fisso. Carlo Bernardini faceva parte del gruppo di giovani scienziati che prese parte al progetto AdA e, successivamente, al suoupgrade ADONE. Ma Bernardini, da intellettuale autentico quale era, fu anche eccellente didatta, divulgatore e politico. [Scienza in rete; Pietro Greco] 

Un altro dei protagonisti della “via italiana alle alte energie” è stato Giorgio Parisi, eletto il 22 giugno nuovo Presidente dell’Accademia Nazionale dei Lincei. Durante la lectio magistralis che ha tenuto il 24 maggio scorso presso il Dipartimento di Fisica della Sapienza, Università di Roma, Parisi ha ricordato la “formidabile” storia della fisica teorica tra gli anni ’60 e ’70 del Novecento, popolata di scienziati italiani: Segré, Cabibbo, Maiani, oltre ai già citati Amaldi, Touschek, Salvini e Bernardini. Nel 1977 anche Parisi entra a pieno titolo in questo elenco, quando, insieme a Guido Altarelli, formula le equazioni che descrivono come cambia il contenuto dei protoni in termini di partoni (oggi li chiamiamo quark e gluoni) al variare dell’energia dei protoni. Un contributo fondamentale per calcolare il rumore prodotto dalle interazioni forti in un collisore di adroni, come LHC, e stanare così i segnali di nuova fisica. [Scienza in rete; Pietro Greco]

INTELLIGENZA ARTIFICIALE

Sono sempre più diffusi i sistemi di assistenza alla decisione basati su un’intelligenza artificiale. Promettono una maggiore oggettività, ma spesso non fanno altro che esacerbare le ingiustizie che esistono nelle nostre società. È per questo motivo che un numero sempre maggiore di ricercatori sta affrontando il problema dell’equità degli algoritmi. Come fare a valutarla? La risposta a questa domanda è tutt’altro che semplice. Prima di tutto è difficile dare una definizione unica di equità o giustizia, in secondo luogo non è facile avere accesso agli algoritmi e ai dati su cui questi sono basati. Infine le leggi che cercano di tutelare i cittadini dalle decisioni ingiuste di un sistema automatico sembrano essere ancora poco efficaci. Ma ormai il problema è al centro della discussione dei politici, dei legislatori e degli scienziati. [Nature; Rachel Courtland]

Un esempio di algoritmo ingiusto è quello che regola l’ammissione a molti college americani. Recentemente il gruppo ‘Students for fair admissions’ ha fatto causa all’università di Harvard accusandola di penalizzare i candidati di origine asiatica. È ormai noto che il test SAT, fino a poco tempo fa un vero e proprio standard per l’ammissione ai college americani, è fortemente correlato con il reddito dei genitori e dunque sfavorisce i tentativi di diversificazione sociale. Per questo motivo alcune università hanno deciso di cambiare metodo. La University of Texas at Austin, ad esempio, sceglie gli studenti che al momento del diploma occupano il 6% più alto della classifica nella loro classe. E questo indipendentemente dalla scuola considerata. [Bloomberg View; Cathy O’Neil]

Un dibattito particolare quello che si è svolto la scorsa settimana a San Francisco in un affollato ufficio della IBM. A prendervi parte due umani, Noa Ovadia e Dan Zafrir, e un’intelligenza artificiale, chiamata Project Debater, su cui IBM lavora da 6 anni. I tre ospiti hanno discusso di due temi: l’opportunità di finanziare la ricerca spaziale e l’importanza della telemedicina. Nella prima discussione il pubblico ha preferito Noa Ovadia a Project Debater, mentre nella seconda il sistema IBM ha ottenuto più voti di Zafrir. Un pareggio di fatto, ma che permette di capire a che punto sia la ricerca e lo sviluppo di sistemi informatici che svolgano compiti di alto livello, come quello di trasformare le informazioni disponibili in argomentazioni e comunicarle in modo persuasivo. [The Guardian; Olivia Solon]

RICERCA E SOCIETÀ

Uno studio, pubblicato il 20 giugno dagli economisti Alesina, Miano e Stantcheva di Harvard, ha mostrato che negli Stati Uniti e in numerosi Paesi europei la percezione riguardo agli immigrati è molto distante dalla realtà. In media gli italiani pensano che gli immigrati costituiscano più di un quarto della popolazione, mentre in realtà sono solo l’11% del totale. Negli Stati Uniti la percezione è del 35%, il dato reale è inferiore al 15%. Il divario tra dati reali e impressioni è maggiore in certi gruppi sociali. Inoltre si tende a sovrastimare la componente musulmana e a sottostimare il livello di istruzione e di reddito delle popolazioni migranti. Particolarmente significativo il fatto che 1 francese su 4 ritiene che gli immigrati ottengano il doppio dei sussidi statali rispetto ai cittadini francesi.[The New York Times; Eduardo Porter, Karl Russell]

La guerra commerciale tra Stati Uniti e Cina potrebbe avere degli effetti anche sul futuro della ricerca scientifica dei due Paesi. Il 15 giugno Trump ha annunciato un aumento del 25% dei dazi su 818 prodotti importati dalla Cina, inclusi componenti elettroniche, microscopi, dispositivi per le indagini geologiche. Le nuove tariffe entreranno in vigore il 6 luglio. Dal canto suo, il Governo cinese ha risposto con un aumento delle tasse di importazione su 545 prodotti statunitensi e ha minacciato di estenderlo ad altri 114, inclusi reagenti chimici e macchine per la risonanza magnetica. Se la ricerca Cinese sembra in grado di assorbire il colpo, quella americana appare meno preparata. [Nature; Andrew Silver]

Ricorre quest’anno il quarantesimo anniversario della fondazione della SISSA, la Scuola Internazionale Superiore di Studi Avanzati con sede a Trieste. Nelle intenzioni del suo fondatore, il fisico Paolo Budinich, la SISSA avrebbe dovuto offrire percorsi di alta formazione post-universitaria che avviassero al mondo della ricerca, mantenendo una forte apertura internazionale. [Scienza in rete; Silvia D’Autilia]

Algoritmi umani alla francese

[pubblicato originariamente su Scienza in rete il 21 marzo 2018]

Le rivelazioni di Chrstopher Wylie, data scientist canadese di 28 anni ex dipendente della società di consulenza Cambridge Analytica, confermano ancora una volta l’importanza degli algoritmi, in particolare quelli di machine learning (che basano cioè parte del loro funzionamento sui dati), nell’influenzare i processi sociali e, in ultima battuta, la vita dei singoli individui.

Quanto affermato da Wylie promette infatti di avere conseguenze su due diverse inchieste parlamentari: quella sulle interferenze russe nelle elezioni presidenziali americane del 2016 e quella riguardo il referendum britannico sull’uscita dall’Unione Europea. Wylie ha reso pubblici una serie di documenti che testimoniano come Cambridge Analytica sviluppò il suo algoritmo di microtargeting psicologico basandosi sui dati Facebook di decine di milioni di elettori americani, ottenuti illegalmente tramite la società Global Science Research, del ricercatore dell’Università di Cambridge Aleksandr Kogan. Kogan riuscì a raccogliere i dati dichiarando che sarebbero stati usati per scopi accademici, salvo poi venderli a Cambridge Analytica per un milione di dollari.

I rischi connessi all’utilizzo degli algoritmi come sistemi di assistenza alla decisione stanno emergendo in diversi ambiti: finanza, assicurazioni, accesso al credito, giustizia, sicurezza, gestione del personale e, appunto, informazione e propaganda politica. Li racconta bene Cathy O’Neil nel suo libro Weapons of math destruction (che abbiamo recensito qui), in cui si capisce chiaramente qual è il problema: gli algoritmi apprendono dai dati prodotti dai nostri comportamenti e in questi sono incorporati anche i nostri pregiudizi.

Continua a leggere Algoritmi umani alla francese

Polizia predittiva: possono gli algoritmi prevedere i reati?

[pubblicato originariamente su Il Messaggero l’11 dicembre 2017 con il titolo “Scacco alla malavita: arriva l’algoritmo che prevede i reati”]

All’inizio degli anni ’60 tre ragazzi di Angera, vicino Varese, misero a segno 17 rapine in banca tra Milano, Torino e Varese. Colpivano sempre di lunedì, e fu proprio lunedì 15 marzo 1965 che vennero arrestati dalla squadra mobile di Milano, guidata dal commissario Mario Nardone. I tre banditi vennero ribattezzati “banda del lunedì”. Cinquanta anni dopo le cose non sono cambiate: delle 2000 rapine a danno di esercizi commerciali e istituti bancari avvenute a Milano tra il 2008 e il 2011, il 70% può essere collegato a un’altra tra quelle commesse. Insomma: il reato di rapina tende a essere seriale. Questa caratteristica ha spinto Mario Venturi, assistente capo della Polizia di Stato presso la questura di Milano, a sviluppare il software di polizia predittiva KeyCrime, collaudato nel 2007 e regolarmente utilizzato a partire dal 2008. Analizzando i dati relativi alle rapine passate, KeyCrime raggruppa gli eventi simili in una serie e prevede dove e quando è più probabile che avvenga la prossima rapina. Le previsioni indirizzano le operazioni degli agenti sul territorio per permettergli di cogliere i colpevoli in flagrante.

Continua a leggere Polizia predittiva: possono gli algoritmi prevedere i reati?

Algoritmi per difenderci

[da Il Sole 24 Ore pagina 12, 24 Luglio 2016, Nòva24 Tech]

I nostri comportamenti, che siano telefonate al cellulare, acquisti online, o il modo di muoversi all’interno di un aeroporto, possono essere registrati e trasformati in dati. Sofisticati algoritmi, detti di machine learning, analizzano questi dati per costruire i nostri “profili”. Ma quanto sono affidabili? E che tipo di decisioni supportano?

Continua a leggere Algoritmi per difenderci

I meta dati che uccidono

Se il governo cinese pianifica di intensificare il controllo sui cittadini impugnando l’arma dei big data, gli Stati Uniti lo fanno già da molto tempo. In particolare ha avuto risonanza la notizia che la NSA, l’agenzia di intelligence statunitense, avrebbe basato una parte degli attacchi con droni condotti in Pakistan, responsabili di migliaia di vittime, sull’analisi del traffico telefonico mobile dei cittadini di quel paese.

Se quest’affermazione può destare in voi inquietudine, i dettagli su come questi dati siano stati utilizzati vi sconvolgeranno.

Continua a leggere I meta dati che uccidono