Le notizie di scienza della settimana #71

[pubblicato originariamente su Scienza in rete il 12 settembre 2018]

Il ministro della salute della Repubblica Democratica del Congo Oly Ilunga Kalenga insieme agli amministratori locali accolgono una delegazione ONU a Beni, nella provincia del Nord Kivu, il 2 agosto 2018, dove è stata dichiarata una nuova epidemia di Ebola.
Una nuova epidemia di Ebola è stata dichiarata il 1° agosto nella provincia orientale del Nord Kivu, nella Repubblica Democratica del Congo (RDC). Solo il 24 luglio le autorità sanitarie avevano dichiarato chiusa un’altra epidemia di Ebola, la nona negli ultimi 40 anni, che aveva colpito il nordovest del Paese all’inizio di maggio, ma era stata rapidamente controllata anche grazie all’utilizzo di un vaccino sperimentale. Al 3 settembre i decessi erano 82 e le persone raggiunte dal vaccino, somministrato secondo uno schema ad anelli concentrici, erano oltre 6 000. Resta comunque molto difficile intervenire nella zona, poiché tutta la provincia è interessata dal 2004 dal conflitto tra le milizie ribelli Allied Democratic Forces e l’esercito della RDC. La popolazione è infatti molto provata e alcuni rifiutano di condurre i parenti malati nei centri di cura, scoraggiati anche dall’isolamento cui verrebbero sottoposti e dall’aspetto degli operatori sanitari protetti dalle tute anti contaminazione. Ma la ONG ALIMA (The Alliance For International Medical Action) sta cercando di superare questi ostacoli, offrendo assistenza ai casi confermati di Ebola in un nuovo tipo di struttura, installato nella città di Beni. Qui i pazienti vengono ricoverati in unità individuali di isolamento chiamate CUBE, che permettono da una parte il contatto visivo con i parenti e dall’altra agli operatori di lavorare senza indossare le tute speciali. Nell’immagine: il ministro della salute della Repubblica Democratica del Congo Oly Ilunga Kalenga insieme agli amministratori locali accolgono una delegazione ONU a Beni, nella provincia del Nord Kivu, il 2 agosto 2018. Credit: MONUSCO Photos / Flickr. Licenza: CC BY-SA 2.0.

SMETTIAMO DI CREDERE (CIECAMENTE) NEGLI ALGORITMI

Nel suo libro “Hello World: Being Human in the Age of Algorithms”, appena pubblicato nel Regno Unito, la matematica Hannah Fry affronta il tema degli algoritmi e di come limitare i loro effetti negativi nella società. In primo luogo dovremmo smettere di riconoscere agli algoritmi un’autorità superiore. In secondo luogo potremmo programmarli in modo che sia esplicita l’incertezza che è contenuta nei loro risultati. I sistemi di riconoscimento facciale, per esempio, potrebbero indicare una serie di possibili identità e non una sola e lasciare la scelta finale agli esseri umani. Secondo Fry il risultato migliore si ottiene quando gli algoritmi lavorano insieme alle persone, come accade nei sistemi che analizzano le immagini delle mammografie per individuare possibili formazioni tumorali. Il software identifica un sottoinsieme di immagini in cui sospetta di vedere un cancro e le sottopone al vaglio del medico. [The Wall Street Journal; Hannah Fry]

Intanto alla fine di luglio negli Stati Uniti il senatore Mark Warner ha presentato una proposta di legge sulla regolamentazione dei social media e delle compagnie tecnologiche. La proposta rispetta l’approccio che da sempre la legislazione americana ha avuto su questi temi: non limitare l’accesso ai dati. Warner propone infatti di favorire l’ingresso di competitor nel mercato dei dati, permettendo agli utenti Facebook ad esempio, di consegnare i loro dati personali ad altre compagnie del settore. Sostanzialmente un tentativo di interrompere il monopolio delle big tech. Il secondo punto della proposta riguarda invece gli algoritmi, in particolare quelli utilizzati in alcuni settori sensibili, come il credito, la salute, le assicurazioni. I Governi, propone Warner, potrebbero infatti esigere che i software utilizzati in questi ambiti siano sottoposti a procedure di auditing che ne accertino la qualità e l’equità. [Bloomberg Opinion; Cathy O’Neil]

Ulteriori rischi connessi all’utilizzo, sempre più diffuso, di sistemi di decisione automatizzati potrebbero derivare dall’interazione degli algoritmi tra loro. Un esempio è quello dell’High Frequency Trading (HFT), lo scambio di titoli sul mercato azionario affidato a software che operano su scale di tempo molto piccole cercando di sfruttare la volatilità dei prezzi. L’interazione dei software di HFT appartenenti a vari fondi di investimento ha causato nel 2010 il cosiddetto flash crash, un intervallo di pochi minuti in cui due importanti indici azionari statunitensi persero il 9% del loro valore, riacquistandone gran parte nell’ora successiva. Secondo il fisico Neil Johnson, della George Washington University, altri mini flash crash si continuano a osservare sul mercato dal 2014. Situazioni analoghe si stanno verificano anche su Amazon nei sistemi che fissano i prezzi dei prodotti in vendita. Il rischio, insomma, è di perdere il controllo dell’insieme degli algoritmi che utilizziamo e che collettivamente si comportano come un organismo multicellulare in evoluzione. [The Guardian; Andrew Smith]

GLIFOSATO: DALLA SCIENZA AL TRIBUNALE E RITORNO

Il processo mediatico era stato celebrato a giugno del 2017 sui giornali di mezzo mondo. Il primo atto del processo ufficiale si è concluso invece lo scorso 10 agosto, quando il giudice Suzanne Ramos Bolanos della Corte Suprema della California ha condannato in primo grado l’azienda agrochimica Monsanto al pagamento di 289 milioni di dollari di risarcimento a Dewayne Johnson, un ex giardiniere di 46 anni colpito da una forma terminale di linfoma della pelle. La giuria ha giudicato verosimile il nesso causale fra il glifosato contenuto nell’erbicida Round Up, commercializzato dall’azienda fin dagli anni ’70, e la malattia di Johnson, a cui restano ormai pochi mesi di vita. [The Guardian; Sam Levin] 

La sentenza, seppure solo di primo grado, incoraggia gli oltre 4 000 querelanti sparsi negli Stati Uniti che hanno fatto causa alla Monsanto e che attendono di andare a processo (il prossimo verrà celebrato all’inizio del 2019 a St.Louis, Missouri). All’origine di queste cause c’è anche la monografia pubblicata nel 2015 dalla International Agency for Research on Cancer (IARC), che ha dichiarato il glifosato contenuto nell’erbicida RoundUp probabile cancerogeno per gli esseri umani. Ed è proprio su questa monografia che i legali di Johnson hanno basato la loro argomentazione insieme, ovviamente, ai Monsanto Papers, che hanno usato per dimostrare che l’azienda sapeva da decenni degli effetti negativi del Round Up per la salute umana, ma ha taciuto e anzi ha ingaggiato scienziati che scrivessero studi favorevoli facendoli apparire indipendenti. [The Guardian; Carey Gilam] 

La Monsanto, da giugno una divisione della tedesca Bayer che la acquistata per 62,5 miliardi di dollari, promette di ricorrere in appello affermando che la sentenza ignora una grande mole di studi che smentiscono le conclusioni raggiunte dal gruppo di esperti autori della monografia IARC. Numerose sono infatti le critiche mosse al contenuto della monografia e ai metodi utilizzati da IARC per classificare le sostanze in categorie di cancerogenicità. Da una parte viene criticato il fatto che l’agenzia scelga di non considerare i livelli di esposizione e dunque di non indicare soglie di sicurezza al di sotto delle quali le sostanze possono essere considerate sicure. Dall’altra vengono chiamati in causa i pareri di altre autorevoli agenzie internazionali, come EFSA, ECHA e la stessa OMS, e i risultati recenti dell’Agricultural Health Study pubblicati a novembre del 2017. Su questi elementi si baserà molto probabilmente la linea degli avvocati di Monsanto nel processo di appello. [Scienza in rete; Chiara Sabelli]

RICERCA E SOCIETÀ

Questa settimana ha segnato l’inizio del nuovo anno scolastico in numerose regioni riaccendendo così il dibattito sull’obbligo vaccinale: è uno strumento utile a risolvere il problema del calo delle coperture? Secondo l’epidemiologo Vittorio Demicheli andrebbe accompagnato da altri interventi, che tengano in considerazioni le diverse cause del fenomeno. L’obbligo, imponendo sanzioni, è efficace solo per uno dei determinanti (il rifiuto ideologico), ma non si occupa degli altri due (difficoltà di accesso ai servizi vaccinali e diffidenza). Prima del decreto Lorenzin, che comunque ha il merito di stabilire uno standard comune a tutto il territorio nazionale, la legislazione italiana promuoveva l’adesione volontaria e consapevole. Per questa c’è bisogno del potenziamento dei servizi e di interventi culturali. In particolare è necessario che il dibattito sulle vaccinazioni ritrovi toni pacati e smetta di essere una guerra di religione. [Scienza in rete; Vittorio Demicheli]

Pubblicati a fine luglio i progetti vincitori di un ERC Starting Grant, il finanziamento dello European Research Council ai giovani ricercatori. L’Italia è seconda, per nazionalità dei vincitori, dopo la Germania, ma prima nella classifica dei Paesi che vedono i loro scienziati andare all’estero per spendere i fondi ottenuti. Dei 42 ricercatori italiani premiati, 27 hanno scelto come host institution un’università o un centro di ricerca straniero. Una situazione che si ripete uguale a se stessa da ormai diversi anni e trova spiegazione nella peggiore condizione dei laboratori e delle strutture italiane, ma anche nelle burocrazie respingenti. Se l’Italia registra il saldo negativo più elevato, la Gran Bretagna, malgrado Brexit, ottiene il saldo positivo più alto: 22 i ricercatori britannici vincitori di un grant, ma 67 i progetti che verranno svolti nel Regno Unito. [Scienza in rete; Pietro Greco]

Nella notte del 2 settembre un incendio ha distrutto il Museo Nazionale di Rio de Janeiro riducendo in cenere la quasi totalità delle collezioni che ospitava. Una tragedia annunciata secondo i ricercatori intervistati da Science. Tra i pezzi più significativi che si teme siano andati perduti c’è il cranio di Luzia, risalente a 11 000 anni fa, uno dei resti umani più antichi ritrovati nel continente americano. A giugno, durante i festeggiamenti per i 200 anni dall’inaugurazione, la Brazilian Development Bank aveva annunciato un finanziamento di 5 milioni di dollari per ristrutturare l’edificio del museo, compresi i suoi sistemi antincendio. Troppo tardi. Ora il governo promette di stanziare fondi di emergenza per ricostruirlo il prima possibile. [Science; Herton Escobar]

 

Smettiamo di credere ciecamente negli algoritmi

[pubblicato originariamente su Scienza in rete il 12 settembre 2018]

Quest’anno al carnevale di Notting Hill, che ogni agosto a Londra celebra la black British culture, la London Metropolitan Police non ha utilizzato i sistemi di riconoscimento facciale che aveva sperimentato nel 2017. Le uniche misure straordinarie di sicurezza sono stati i metal detector e gli agenti speciali capaci di memorizzare i volti di una serie di ricercati talmente bene da identificarli in una folla. L’esperienza dello scorso anno infatti era stata deludente: delle 104 persone segnalate dai sistemi di riconoscimento facciale, 102 erano risultati dei falsi positivi: una volta fermati dagli agenti la loro identità non corrispondeva a quella indicata dall’algoritmo. L’organizzazione per i diritti civili Big Brother Watch aveva denunciato i limiti di questa tecnologia, affermando che penalizza in particolare le minoranze (donne e persone appartenenti alle minoranze etniche).

Continua a leggere Smettiamo di credere ciecamente negli algoritmi

Le notizie di scienza della settimana #70

[pubblicato originariamente su Scienza in rete il 18 luglio 2018]

La copertina dell’ultimo numero di Science è dedicata a una importante scoperta realizzata da quindici osservatori, sulla Terra e nello spazio: un neutrino, rilevato dall’esperimento IceCube in Antartide il 22 settembre 2017, sarebbe stato emesso da un blazar, una galassia attiva con al centro un buco nero supermassiccio, distante 4,5 miliardi di anni luce dal nostro Pianeta. Potrebbe trattarsi del primo esempio di neutrino multimessenger astronomy, che sfrutta, come nel caso delle onde gravitazionali, diversi tipi di segnale per identificare un evento astronomico. La scoperta potrebbe aprire la strada verso la comprensione dell’origine dei raggi cosmici, una pioggia di protoni e altri nuclei di alta energia che investono la superficie terrestre. Nell’immagine: il laboratorio IceCube sotto le stelle, 2013. Credit: Felipe Pedreros, IceCube/NSF.

NUOVI E VECCHI VACCINI

Da mesi la Repubblica Democratica del Congo è alle prese con un’epidemia di poliomielite, causata da un virus di tipo 2 derivato dal vaccino trivalente somministrato nella regione per via orale. A causa della scarsa copertura vaccinale, infatti, i virus attenuati contenuti nel vaccino hanno accumulato mutazioni e riacquisito la loro virulenza. A oggi sono 29 i bambini paralizzati. Per far fronte all’emergenza l’OMS ha introdotto nella regione un vaccino monovalente che contiene il solo virus di tipo 2 in forma attenuata. Il medicinale verrà somministrato per via orale solo intorno ai casi segnalati. Resta tuttavia difficile raggiungere le persone che ne hanno bisogno, a causa della mancanza di infrastrutture adeguate.[Scienza in rete; Anna Romano] 

Le autorità sanitarie brasiliane sono in stato di allerta: in 312 città del Paese la percentuale di bambini sotto i 5 anni vaccinati contro la poliomielite è inferiore al 50% e in alcuni comuni non supera il 2%. Il timore è che la malattia ricompaia oltre vent’anni dopo l’eradicazione, dichiarata nel 1994 (ultimo caso registrato nel 1989). Anche la copertura vaccinale contro il morbillo è pericolosamente bassa, soprattutto al nord, dove sono stati registrati 450 casi e 2 vittime. Il problema è principalmente la scarsa diffusione e apertura dei centri vaccinali, che spesso osservano orari incompatibili con la vita di genitori lavoratori. Ma anche il movimento anti-vaccinista comincia ad avere un ruolo, seppure meno preoccupante rispetto a quanto accade in Europa e Stati Uniti. [Le Monde; Claire Gatinois] 

Stanno generando una cauta soddisfazione tra gli esperti i risultati dello studio clinico APPROACH, che ha testato diverse combinazioni di vaccini anti-HIV già esistenti su 393 soggetti sani in 12 centri clinici situati nell’Africa orientale, in Sudafrica, Tailandia e USA. Lo studio di fase 1/2a, con randomizzazione multicentrica, è stato condotto in doppio cieco e con un braccio placebo. Tutti i soggetti che hanno ricevuto il vaccino hanno manifestato una qualche forma di risposta immunitaria. Sulla base di questi risultati sarà iniziato uno studio di fase 2b (“Imbokodo”) su 2 600 giovani donne africane. Guido Poli, dell’Università Vita-Salute San Raffaele, commenta i risultati pubblicati su The Lancet il 6 luglio scorso. [Scienza in rete; Guido Poli]

MACHINE LEARNING

Un articolo, pubblicato la scorsa settimana sulla rivista Toxicological Sciences, riaccende il dibattito sulla possibilità che il machine learning possa sostituire i test su animali nel valutare la tossicità dei prodotti chimici. Un gruppo di ricercatori guidati da Thomas Hartung della Johns Hopkins Bloomberg School of Public Health, ha sviluppato un software in grado di eseguire 10 test di tossicità su circa 10 000 prodotti chimici con risultati più robusti rispetto a quelli ottenuti con i test su animali. Il software è basato su un imponente database di risultati di test di tossicità raccolto dalla European Chemicals Agency e utilizza il metodo del read-across: basandosi sulla somiglianza tra le strutture chimiche dei nuovi prodotti con i vecchi prodotti, sfrutta i risultati dei test già esistenti. Il software verrà commercializzato da una compagnia privata, ma i dati saranno resi disponibili agli altri ricercatori. Uno sforzo simile è quello che sta portando avanti il comitato ICCVAM dei National Institutes of Health, che presto pubblicherà un computational consensus model ottenuto dalla collaborazione di 12 team di ricercatori durante un recente workshop. [Nature; Richard Van Noorden]

Negli Stati Uniti l’età media della diagnosi di disturbo dello spettro autistico è 4 anni, mentre potrebbe essere effettuata intorno ai 2 anni. Questo ritardo è dovuto in parte alla natura della malattia (dai sintomi molto eterogenei) e in parte alla difficoltà di ottenere velocemente un appuntamento con uno specialista nelle cliniche dedicate. A cambiare le cose potrebbe essere, ancora una volta, il machine learning e in particolare il deep learning. La sua caratteristica distintiva è quella di cogliere schemi che l’occhio umano faticherebbe a riconoscere e in particolare di individuare gruppi di differenze nel comportamento dei bambini malati rispetto ai sani, piuttosto che singole differenze. Ma occorre cautela. Prima di tutto perché è ancora molto difficile raccogliere campioni di dati sufficientemente grandi e significativi (sia dati sul comportamento che sulla struttura del cervello). E in secondo luogo non è affatto scontato che, se questi algoritmi fossero messi alla prova fuori dai laboratori, sarebbero in grado di cogliere le sfumature spesso sottili che caratterizzano questa condizione. [The Atltantic; Jeremy Hsu e SPECTRUM]

RICERCA E SOCIETÀ

L’11 luglio scorso, nell’illustrare le sue linee programmatiche alle commissioni competenti di Camera e Senato, il nuovo Ministro dell’istruzione, università e ricerca Marco Bussetti ha dichiarato l’intenzione di costituire un’Agenzia Nazionale della Ricerca, che svolga una funzione di stretto coordinamento tra gli Enti Pubblici di Ricerca, sul modello di quella proposta dal Gruppo 2003. Le sue dichiarazioni hanno destato più di una perplessità tra i membri del Gruppo. L’agenzia che il Gruppo 2003 propone da diversi anni dovrebbe avere il compito di supervisionare la distribuzione dei fondi destinati alla ricerca competitiva e non gli indirizzi scientifici degli Enti. Come dice Pietro Greco su Il Bo Live, gli Enti cui fa riferimento il Ministro hanno nature molto diverse tra loro: ci sono quelli che si occupano solo di ricerca di base, quelli specializzati in certi settori e con vocazione fortemente internazionale, infine quelli che offrono servizi tecnici altamente specializzati di supporto per le istituzioni e la politica. [Il Bo Live; Pietro Greco]

I criteri di valutazione basati sulla bibliometria penalizzano la ricerca biologica al banco, che di conseguenza riceve finanziamenti insufficienti. Nel nostro Paese, spiega il microbiologo dell’Università di Bologna Davide Zannoni, questo ha causato una migrazione verso la ricerca “in silico”, che si è rivelata più produttiva e veloce nella generazione di dati e quindi di pubblicazioni. Per salvare la ricerca biologica al banco in Italia c’è bisogno di un’inversione nella politica degli investimenti per la ricerca di base e un cambio dei criteri di valutazione dei ricercatori. [Scienza in rete; Davide Zannoni]

Le discipline scientifiche e tecnologiche hanno molto successo su YouTube. Si moltiplicano i canali dedicati a questo argomento, ma sono ancora una minoranza quelli gestiti da donne. Colpa dei commenti lasciati dagli utenti, secondo uno studio condotto da Inoka Amarasekara e Will Grant del Centre for the Public Awareness of Science presso la Australian National University. Dopo aver analizzato 23 0000 commenti, i due ricercatori hanno constatato che quelli riguardanti l’aspetto fisico sono il 4,5% per i canali gestiti da donne contro l’1,4% degli uomini. I commenti sessisti o di natura sessuale sono il 3% per le donne e solo lo 0,25% per gli uomini. I risultati, pubblicati sulla rivista Public Understanding of Science, confermano le conclusioni ottenute da uno studio del 2014, che aveva analizzato i commenti diretti ai TED Talks. [The New York Times; Adrianne Jeffries]

Le notizie di scienza della settimana #67

[pubblicato originariamente su Scienza in rete il 27 giugno 2018]

Solo il 5% dell’Universo è costituito da materia ordinaria, il resto è fatto di materia ed energia oscura. Ma se il mistero sulla natura di questa seconda componente è ben noto, è meno noto che circa il 40% della materia ordinaria manca all’appello. In altre parole: non è mai stato osservata. Almeno finora. La scorsa settimana Nature ha pubblicato i risultati di un’analisi condotta da un gruppo di astrofisici dell’ESA guidati da Fabrizio Nicastro (Istituto Nazionale di Astrofisica, INAF). Osservando la radiazione emessa da un singolo quasar nella regione dei raggi X, è stato possibile rilevare la presenza di materia barionica nello spazio intergalattico che separa il quasar dalla Terra. La materia ordinaria mancante sarebbe infatti distribuita, a bassissima densità e altissima temperatura, lungo i filamenti della ragnatela cosmica. Nell’immagine: rappresentazione artistica del mezzo intergalattico caldo e caldissimo, una miscela di gas con temperature che vanno da centinaia di migliaia di gradi (caldo) a milioni di gradi (caldissimo) che permea l’universo in una struttura simile a una ragnatela filamentosa. Credit: ESA / ATG medialab (illustrazione); ESA / XMM-Newton / F. Nicastro et al. 2018 (dati); R. Cen (simulazione cosmologica).

LA VIA ITALIANA ALLE ALTE ENERGIE

Il 21 giugno si è spento a Roma all’età di 88 anni Carlo Bernardini. Bernardini è stato prima di tutto un fisico, protagonista della cosiddetta “via italiana alle alte energie”. Negli anni ’50, sotto la guida di Giorgio Salvini ed Edoardo Amaldi, la scuola di fisica di Roma torna a essere all’altezza dell’operato dei “ragazzi di via Panisperna”. Questo accade soprattutto grazie al contributo dell’austriaco Bruno Touschek, che propone il primo acceleratore in cui vengono fatti collidere due fasci di particelle che viaggiano in versi opposti. Venne chiamato AdA (Anello di Accumulazione) e costruito, come prototipo, nel 1961 presso i laboratori dell’INFN a Frascati. Fino a quel momento lo studio delle interazioni fondamentali si era basato su collisori a bersaglio fisso. Carlo Bernardini faceva parte del gruppo di giovani scienziati che prese parte al progetto AdA e, successivamente, al suoupgrade ADONE. Ma Bernardini, da intellettuale autentico quale era, fu anche eccellente didatta, divulgatore e politico. [Scienza in rete; Pietro Greco] 

Un altro dei protagonisti della “via italiana alle alte energie” è stato Giorgio Parisi, eletto il 22 giugno nuovo Presidente dell’Accademia Nazionale dei Lincei. Durante la lectio magistralis che ha tenuto il 24 maggio scorso presso il Dipartimento di Fisica della Sapienza, Università di Roma, Parisi ha ricordato la “formidabile” storia della fisica teorica tra gli anni ’60 e ’70 del Novecento, popolata di scienziati italiani: Segré, Cabibbo, Maiani, oltre ai già citati Amaldi, Touschek, Salvini e Bernardini. Nel 1977 anche Parisi entra a pieno titolo in questo elenco, quando, insieme a Guido Altarelli, formula le equazioni che descrivono come cambia il contenuto dei protoni in termini di partoni (oggi li chiamiamo quark e gluoni) al variare dell’energia dei protoni. Un contributo fondamentale per calcolare il rumore prodotto dalle interazioni forti in un collisore di adroni, come LHC, e stanare così i segnali di nuova fisica. [Scienza in rete; Pietro Greco]

INTELLIGENZA ARTIFICIALE

Sono sempre più diffusi i sistemi di assistenza alla decisione basati su un’intelligenza artificiale. Promettono una maggiore oggettività, ma spesso non fanno altro che esacerbare le ingiustizie che esistono nelle nostre società. È per questo motivo che un numero sempre maggiore di ricercatori sta affrontando il problema dell’equità degli algoritmi. Come fare a valutarla? La risposta a questa domanda è tutt’altro che semplice. Prima di tutto è difficile dare una definizione unica di equità o giustizia, in secondo luogo non è facile avere accesso agli algoritmi e ai dati su cui questi sono basati. Infine le leggi che cercano di tutelare i cittadini dalle decisioni ingiuste di un sistema automatico sembrano essere ancora poco efficaci. Ma ormai il problema è al centro della discussione dei politici, dei legislatori e degli scienziati. [Nature; Rachel Courtland]

Un esempio di algoritmo ingiusto è quello che regola l’ammissione a molti college americani. Recentemente il gruppo ‘Students for fair admissions’ ha fatto causa all’università di Harvard accusandola di penalizzare i candidati di origine asiatica. È ormai noto che il test SAT, fino a poco tempo fa un vero e proprio standard per l’ammissione ai college americani, è fortemente correlato con il reddito dei genitori e dunque sfavorisce i tentativi di diversificazione sociale. Per questo motivo alcune università hanno deciso di cambiare metodo. La University of Texas at Austin, ad esempio, sceglie gli studenti che al momento del diploma occupano il 6% più alto della classifica nella loro classe. E questo indipendentemente dalla scuola considerata. [Bloomberg View; Cathy O’Neil]

Un dibattito particolare quello che si è svolto la scorsa settimana a San Francisco in un affollato ufficio della IBM. A prendervi parte due umani, Noa Ovadia e Dan Zafrir, e un’intelligenza artificiale, chiamata Project Debater, su cui IBM lavora da 6 anni. I tre ospiti hanno discusso di due temi: l’opportunità di finanziare la ricerca spaziale e l’importanza della telemedicina. Nella prima discussione il pubblico ha preferito Noa Ovadia a Project Debater, mentre nella seconda il sistema IBM ha ottenuto più voti di Zafrir. Un pareggio di fatto, ma che permette di capire a che punto sia la ricerca e lo sviluppo di sistemi informatici che svolgano compiti di alto livello, come quello di trasformare le informazioni disponibili in argomentazioni e comunicarle in modo persuasivo. [The Guardian; Olivia Solon]

RICERCA E SOCIETÀ

Uno studio, pubblicato il 20 giugno dagli economisti Alesina, Miano e Stantcheva di Harvard, ha mostrato che negli Stati Uniti e in numerosi Paesi europei la percezione riguardo agli immigrati è molto distante dalla realtà. In media gli italiani pensano che gli immigrati costituiscano più di un quarto della popolazione, mentre in realtà sono solo l’11% del totale. Negli Stati Uniti la percezione è del 35%, il dato reale è inferiore al 15%. Il divario tra dati reali e impressioni è maggiore in certi gruppi sociali. Inoltre si tende a sovrastimare la componente musulmana e a sottostimare il livello di istruzione e di reddito delle popolazioni migranti. Particolarmente significativo il fatto che 1 francese su 4 ritiene che gli immigrati ottengano il doppio dei sussidi statali rispetto ai cittadini francesi.[The New York Times; Eduardo Porter, Karl Russell]

La guerra commerciale tra Stati Uniti e Cina potrebbe avere degli effetti anche sul futuro della ricerca scientifica dei due Paesi. Il 15 giugno Trump ha annunciato un aumento del 25% dei dazi su 818 prodotti importati dalla Cina, inclusi componenti elettroniche, microscopi, dispositivi per le indagini geologiche. Le nuove tariffe entreranno in vigore il 6 luglio. Dal canto suo, il Governo cinese ha risposto con un aumento delle tasse di importazione su 545 prodotti statunitensi e ha minacciato di estenderlo ad altri 114, inclusi reagenti chimici e macchine per la risonanza magnetica. Se la ricerca Cinese sembra in grado di assorbire il colpo, quella americana appare meno preparata. [Nature; Andrew Silver]

Ricorre quest’anno il quarantesimo anniversario della fondazione della SISSA, la Scuola Internazionale Superiore di Studi Avanzati con sede a Trieste. Nelle intenzioni del suo fondatore, il fisico Paolo Budinich, la SISSA avrebbe dovuto offrire percorsi di alta formazione post-universitaria che avviassero al mondo della ricerca, mantenendo una forte apertura internazionale. [Scienza in rete; Silvia D’Autilia]

Algoritmi umani alla francese

[pubblicato originariamente su Scienza in rete il 21 marzo 2018]

Le rivelazioni di Chrstopher Wylie, data scientist canadese di 28 anni ex dipendente della società di consulenza Cambridge Analytica, confermano ancora una volta l’importanza degli algoritmi, in particolare quelli di machine learning (che basano cioè parte del loro funzionamento sui dati), nell’influenzare i processi sociali e, in ultima battuta, la vita dei singoli individui.

Quanto affermato da Wylie promette infatti di avere conseguenze su due diverse inchieste parlamentari: quella sulle interferenze russe nelle elezioni presidenziali americane del 2016 e quella riguardo il referendum britannico sull’uscita dall’Unione Europea. Wylie ha reso pubblici una serie di documenti che testimoniano come Cambridge Analytica sviluppò il suo algoritmo di microtargeting psicologico basandosi sui dati Facebook di decine di milioni di elettori americani, ottenuti illegalmente tramite la società Global Science Research, del ricercatore dell’Università di Cambridge Aleksandr Kogan. Kogan riuscì a raccogliere i dati dichiarando che sarebbero stati usati per scopi accademici, salvo poi venderli a Cambridge Analytica per un milione di dollari.

I rischi connessi all’utilizzo degli algoritmi come sistemi di assistenza alla decisione stanno emergendo in diversi ambiti: finanza, assicurazioni, accesso al credito, giustizia, sicurezza, gestione del personale e, appunto, informazione e propaganda politica. Li racconta bene Cathy O’Neil nel suo libro Weapons of math destruction (che abbiamo recensito qui), in cui si capisce chiaramente qual è il problema: gli algoritmi apprendono dai dati prodotti dai nostri comportamenti e in questi sono incorporati anche i nostri pregiudizi.

Continua a leggere Algoritmi umani alla francese

Polizia predittiva: possono gli algoritmi prevedere i reati?

[pubblicato originariamente su Il Messaggero l’11 dicembre 2017 con il titolo “Scacco alla malavita: arriva l’algoritmo che prevede i reati”]

All’inizio degli anni ’60 tre ragazzi di Angera, vicino Varese, misero a segno 17 rapine in banca tra Milano, Torino e Varese. Colpivano sempre di lunedì, e fu proprio lunedì 15 marzo 1965 che vennero arrestati dalla squadra mobile di Milano, guidata dal commissario Mario Nardone. I tre banditi vennero ribattezzati “banda del lunedì”. Cinquanta anni dopo le cose non sono cambiate: delle 2000 rapine a danno di esercizi commerciali e istituti bancari avvenute a Milano tra il 2008 e il 2011, il 70% può essere collegato a un’altra tra quelle commesse. Insomma: il reato di rapina tende a essere seriale. Questa caratteristica ha spinto Mario Venturi, assistente capo della Polizia di Stato presso la questura di Milano, a sviluppare il software di polizia predittiva KeyCrime, collaudato nel 2007 e regolarmente utilizzato a partire dal 2008. Analizzando i dati relativi alle rapine passate, KeyCrime raggruppa gli eventi simili in una serie e prevede dove e quando è più probabile che avvenga la prossima rapina. Le previsioni indirizzano le operazioni degli agenti sul territorio per permettergli di cogliere i colpevoli in flagrante.

Continua a leggere Polizia predittiva: possono gli algoritmi prevedere i reati?

Stradella, dove finiscono i libri che nessuno apre

[pubblicato originariamente su Pagina99, 13/10/2017]

In Italia aumentano i titoli in libreria, non i lettori. Gli unici a farci i soldi, così, sono i magazzini della logistica. Abbiamo visitato il più grande

Gli italiani leggono poco, eppure ogni anno siamo invasi da un numero di nuovi titoli sempre maggiore. Libri che si riversano sugli scaffali delle librerie a frotte, restano in bella vista per poche settimane, tornano in buona parte negli scatoloni. Il mercato editoriale italiano sta diventando anche (soprattutto?) questo, un business logistico immenso e complicatissimo.

Per raccontarlo bisogna venire a Stradella, a pochi chilometri da Pavia, dove ha sede lo stabilimento “Città del libro” della società di logistica Ceva. Qui ogni anno 400 magazzinieri movimentano 96 milioni di volumi. Tra i clienti ci sono grandi editori, come Mondadori, Rizzoli e Pearson, ma anche Messaggerie Libri, il distributore di circa 600 case editrici italiane, grandi, piccole e medie. Le rese dalle librerie, ogni anno, sono 24 milioni. Un movimento ogni quattro, insomma, è un libro che torna indietro.

Continua a leggere Stradella, dove finiscono i libri che nessuno apre

Algoritmi ingiusti

[pubblicato originariamente su Scienza in rete, 17 luglio 2017]

Pubblicità online, gestione del rischio finanziario, valutazione degli insegnanti delle scuole pubbliche, ranking delle università, sicurezza, giustizia, selezione del personale, organizzazione dei turni di lavoro, assicurazioni, campagna elettorale. Cos’hanno in comune queste attività? In ognuna di loro trova impiego uno tra i cosiddetti Weapons of math destruction, letteralmente “armi di distruzione matematica”, ma più propriamente “armi matematiche di distruzione di massa”, per rendere conto del riuscito gioco di parole che dà il titolo al secondo libro di Cathy O’Neil, pubblicato da Crown Publishing ad agosto del 2016, dal sottotitolo eloquente: “How big data increases inequality and threatens democracy”.

Continua a leggere Algoritmi ingiusti

Algoritmi per difenderci

[da Il Sole 24 Ore pagina 12, 24 Luglio 2016, Nòva24 Tech]

I nostri comportamenti, che siano telefonate al cellulare, acquisti online, o il modo di muoversi all’interno di un aeroporto, possono essere registrati e trasformati in dati. Sofisticati algoritmi, detti di machine learning, analizzano questi dati per costruire i nostri “profili”. Ma quanto sono affidabili? E che tipo di decisioni supportano?

Continua a leggere Algoritmi per difenderci

I meta dati che uccidono

Se il governo cinese pianifica di intensificare il controllo sui cittadini impugnando l’arma dei big data, gli Stati Uniti lo fanno già da molto tempo. In particolare ha avuto risonanza la notizia che la NSA, l’agenzia di intelligence statunitense, avrebbe basato una parte degli attacchi con droni condotti in Pakistan, responsabili di migliaia di vittime, sull’analisi del traffico telefonico mobile dei cittadini di quel paese.

Se quest’affermazione può destare in voi inquietudine, i dettagli su come questi dati siano stati utilizzati vi sconvolgeranno.

Continua a leggere I meta dati che uccidono