Gli algoritmi sbagliano, ma anche noi

[pubblicato su Scienza in rete il 18 giugno 2022]

Una delle ragioni con cui viene giustificato il ricorso agli algoritmi come sistemi di assistenza alla decisione è la necessità di diminuire gli errori umani e arginare la parzialità dei loro punti di vista. Inserire nel processo decisionale una procedura automatica formulata nel linguaggio della matematica e magari anche basata sui dati, sembra una buona strategia per renderlo più oggettivo e affidabile.

Ma gli algoritmi sbagliano, eccome. E sbagliano in tanti modi diversi. In alcuni casi sbagliano nel senso che sono approssimazioni numeriche di qualche formula matematica implicita, in altri casi sbagliano in senso statistico perché hanno un’accuratezza limitata, in altri sbagliano perché, come scriveva la matematica Cathy O’Neil nel 2016, sono “opinioni scritte nel linguaggio della matematica”.

Questa tassonomia degli errori degli algoritmi non ha nessuna pretesa di essere esaustiva, ma è utile per ragionare su quanto gli algoritmi siano fallibili, senza mai perdere di vista il fatto che anche le persone sbagliano e l’obiettivo da perseguire dovrebbe essere quello di costruire un’alleanza virtuosa tra esseri umani e computer.

Continua a leggere Gli algoritmi sbagliano, ma anche noi

Come evitare che l’intelligenza artificiale prenda il controllo

[pubblicato su Scienza in rete l’11 giugno 2022]

Nel 1951 il matematico britannico Alan Turing, considerato uno dei fondatori dell’intelligenza artificiale, disse che «una volta avviato lo sviluppo di macchine intelligenti, non ci vorrà molto perché superino i nostri deboli poteri. A un certo punto dovremo aspettarci che le macchine prendano il controllo».

L’idea di una macchina o un algoritmo super intelligente era già comparsa nella finzione letteraria, come per esempio nel racconto di fantascienza The Machine Stops scritto da Edward Morgan Forster nel 1909 che descrive una infrastruttura intelligente onnipotente da cui gli esseri umani diventano gradualmente sempre più dipendenti e di cui conoscono sempre meno il funzionamento.

Ma proprio il lavoro di Turing del 1936, in cui introdusse gli oggetti matematici di macchina e programma, ha trascinato questa prospettiva dalla finzione alla realtà. Quei due oggetti si sono rivelati tra le entità matematiche più potenti mai inventate: otto delle dieci più profittevoli aziende del mondo oggi sono basate sul loro sviluppo.

L’intelligenza artificiale che potrebbe sottrarci il controllo sul nostro futuro di specie umana viene indicata con l’espressione general purpose AI, ovvero “sistemi capaci di imparare rapidamente a svolgere l’intera gamma di compiti che gli esseri umani sono in grado di eseguire”. Spesso viene usata anche l’espressione intelligenza artificiale generale.

Come possiamo evitare di perdere il controllo, consegnandolo alle macchine generaliste? Come possiamo imparare a coesistere con queste macchine? A queste domande ha risposto il matematico e informatico britannico Stuart Russell, della University of California at Berkeley in una serie di quattro lezioni chiamate Reith Lectures, trasmesse ogni anno tra novembre e dicembre via radio dalla BBC dal 1948 e affidate a una figura intellettuale di spicco. Il titolo delle lezioni tenute da Russell è “Living with Artificial Intelligence”.

Continua a leggere Come evitare che l’intelligenza artificiale prenda il controllo

Algoritmi e tumori della pelle: meno accurati di quanto si pensasse

[pubblicato su Scienza in rete il 21 maggio 2022]

Negli ultimi anni, grazie a un particolare tipo di reti neurali profonde, chiamate convolutional neural network e particolarmente efficaci nella classificazione delle immagini, abbiamo letto sui giornali a più riprese che i dermatologi sarebbero presto stati sostituiti dagli algoritmi, almeno nei compiti di screening delle lesioni della pelle. I risultati dell’ultima competizione organizzata dall’International Skin Imaging Collaboration ridimensionano queste aspettative e richiamano all’importanza di valutare le perfomance di questi algoritmi con dati realistici prima di introdurli nella pratica clinica. Gli algoritmi sono sì più accurati della media dei dermatologi coinvolti nella sfida, ma molto meno di quello che si pensava e tranne quando incontrano lesioni che non hanno mai visto prima.

Continua a leggere Algoritmi e tumori della pelle: meno accurati di quanto si pensasse

Cosa dice il Digital Services Act approvato dal Parlamento europeo

[pubblicato su Scienza in rete il 30 aprile 2022]

All’alba di sabato 23 aprile il Parlamento europeo insieme al Consiglio dell’Unione Europea ha pubblicato il suo rapporto sul Digital Services Act (DSA), il regolamento proposto un anno fa dalla Commissione europea per regolare i servizi digitali che agiscono come intermediari tra i cittadini dell’Unione e prodotti, contenuti o servizi. Si tratta delle piattaforme per gli acquisti online, dei social network o dei motori di ricerca. Nell’ambito del DSA rientra anche l’utilizzo di algoritmi da parte delle istituzioni pubbliche, come forze dell’ordine, tribunali, amministrazioni e servizi sanitari.

«Insieme a Dragoş Tudorache abbiamo lavorato per inserire nella bozza i punti su cui c’era già un forte accordo», ha dichiarato Brando Benifei, europarlamentare del Partito Democratico durante l’AI summit organizzato da POLITICO poche ore prima che il documento venisse pubblicato. Benifei è relatore della proposta di regolamento insieme all’eurodeputato rumeno Tudorache del gruppo liberale Renew Europe.

Continua a leggere Cosa dice il Digital Services Act approvato dal Parlamento europeo

Elezioni francesi: una piattaforma digitale per costruire un programma elettorale collettivo

[pubblicato su Scienza in rete il 23 aprile 2022]

Domani i cittadini francesi saranno chiamati a scegliere chi tra Emmanuel Macron e Marine Le Pen ricoprirà la carica di presidente della Repubblica. Nelle scorse settimane i due candidati si sono contesi soprattutto i voti di Jean-Luc Mélenchon del movimento La France insoumise, il terzo ad aver ricevuto il maggior numero di preferenze, quasi il 22% del totale, al primo turno.

Tra i sondaggi, alcuni dicono che fino al 20-30% degli elettori di Mélenchon potrebbe votare per il Rassemblement National di Marine Le Pen. Il quotidiano Libération scrive che si tratta di coloro che nel 2017 hanno votato Macron al secondo turno e sono rimasti delusi dai suoi cinque anni di governo. Già nel 2017 circa il 7% degli elettori di Mélenchon votarono per il partito sovranista guidato da Le Pen.

Proprio perché l’identità politica dei candidati sembra essere sempre meno rilevante nelle scelte elettorali, un gruppo di ricercatori francesi ha deciso di concentrarsi sui programmi più che sui candidati, coinvolgendo i cittadini in un esperimento di democrazia digitale partecipata.

Si tratta del progetto MonProgramme2022.org, una piattaforma web che permette agli utenti di esprimere una serie di preferenze sulle 120 proposte che i ricercatori hanno estratto dai programmi dei dodici candidati al primo turno delle presidenziali francesi.

Continua a leggere Elezioni francesi: una piattaforma digitale per costruire un programma elettorale collettivo

Gli occhi del cuore

[pubblicato su Scienza in rete il 4 febbraio 2022]

Un’intelligenza artificiale capace di dedurre la massa e il volume del ventricolo sinistro del cuore analizzando l’immagine della retina e da lì stabilire se il paziente è a rischio di andare incontro a un infarto del miocardio. È l’ultima applicazione in ambito medico di un sistema di deep learning pubblicata la scorsa settimana su Nature Machine Intelligence da un gruppo di matematici, informatici e cardiologi coordinati da Alejandro Frangi, professore di medicina computazionale alla University of Leeds e dal 2019 membro del comitato per le tecnologie emergenti della Royal Academy of Engineering, e Andres Diaz-Pinto, ricercatore al King’s College London.

Continua a leggere Gli occhi del cuore

La sfida dell’IA per l’Italia: colloquio con Nicolò Cesa-Bianchi

[pubblicato su Scienza in rete il 10 dicembre 2021]

A metà novembre i quattro atenei milanesi, Statale, Bicocca, Bocconi e Politecnico, hanno annunciato la nascita di una unità locale di ELLIS, l’associazione europea di ricercatori sull’intelligenza artificiale e il machine learning. Una settimana dopo il Consiglio dei Ministri ha approvato il Programma Strategico per l’Intelligenza Artificiale per il triennio 2022-2024, sviluppato dal Ministero dell’Università e della Ricerca insieme al Ministero dello Sviluppo Economico e del Ministro per l’innovazione tecnologica e la transizione digitale. In un certo senso, l’accordo stretto dalle quattro università milanesi per collaborare all’interno di ELLIS rappresenta un esperimento su scala metropolitana di quello che il Programma Strategico vorrebbe che avvenisse a livello nazionale. Abbiamo parlato di questi temi con Nicolò Cesa-Bianchi, informatico all’Università Statale di Milano e attuale coordinatore della ELLIS Unit milanese.

Continua a leggere La sfida dell’IA per l’Italia: colloquio con Nicolò Cesa-Bianchi

Algoritmi in medicina: come vigilare sulla loro affidabilità

[pubblicato su Scienza in rete il 9 novembre 2021]

Due anni fa Facebook ha inserito nella sua applicazione la funzione “Why am I seeing this post?” per permettere ai suoi utenti di capire di più sul funzionamento dell’algoritmo che regola il news feed, il flusso di post di amici, amici degli amici, pagine e gruppi che ci viene mostrato quando accediamo. È uno dei tentativi per rendere più trasparente e comprensibile il complicato algoritmo, o più correttamente l’insieme di complicati algoritmi, che animano la più grande piattaforma digitale di interazioni sociali del mondo, non solo per gli utenti ma prima di tutto per gli stessi programmatori che l’hanno costruita.

Ora immaginiamo che l’algoritmo in questione invece di decidere quali post visualizzare e in che ordine, analizzi l’immagine di una radiografia del torace e suggerisca ai medici che ci hanno in cura la diagnosi di polmonite. Come viene utilizzata questa informazione? E come viene comunicato ai pazienti l’esito dell’algoritmo e il ruolo che questo ha avuto nel suo piano terapeutico? Una delle strategie proposte per rendere più affidabili, accettabili e utilizzati gli algoritmi di machine learning in ambito medico è quella di corredarli con sistemi di explanation, spiegazione, nello stile del “Why am I seeing this post?”. Nel caso dell’immagine radiografica del torace, un esempio di spiegazione potrebbe essere una mappa di rilevanza, che mostra cioè su quali aree dell’immagine l’algoritmo si è “concentrato” di più per arrivare alla classificazione di “polmonite”.

Continua a leggere Algoritmi in medicina: come vigilare sulla loro affidabilità

Letture per il finesettimana #42

Buon sabato,
questa settimana parliamo di armi e violenza, della prima mappa dettagliata dell’interno di Marte, di come la provenienza geografica viene tenuta in considerazione negli algoritmi sanitari, di big data nei paesi a basso e medio reddito, del database di strutture tridimensionali di proteine pubblicato dalla società londinese DeepMind e diamo gli ultimi aggiornamenti su Covid-19.
Buona lettura (per segnalare questa newsletter agli amici ecco il link per l’iscrizione)

1 Dal 2019 negli Stati Uniti 25 milioni di dollari all’anno per la ricerca sulla violenza collegata alle armi da fuoco
Le armi da fuoco sono tra le prime 20 cause di morte negli Stati Uniti. Due terzi delle morti causate dalle armi da fuoco sono suicidi. Eppure, tra il 1996 al 2019 le due maggiori agenzie di salute pubblica, NIH e CDC, avevano visto quasi azzerarsi il budget dedicato alla ricerca su questo tema. La strage alla scuola elementare Sandy Hook in Connecticut nel 2012, dove persero la vita venti bambini sei insegnanti, cambiò le cose e il Congresso cominciò a lavorare per ripristinare i fondi. Come risultato negli ultimi due anni NIH e CDC hanno avuto un budget di 12,5 milioni di dollari ciascuno per finanziare ricerche sull’impatto che le politiche di controllo delle armi potrebbero avere sul numero di morti e incidenti non fatali e anche per raccogliere più statistiche. Ad aprile il presidente Biden ha chiesto che questi fondi vengano raddoppiati [Nature]

2 La prima mappa dettagliata della struttura interna di Marte
In tre articoli pubblicati giovedì sulla rivista Science il gruppo di ricercatori del Seismic Experiment for Interior Structures ha dettagliato come è stato possibile sfruttare i segnali sismici raccolti dalla missione InSight della NASA su Marte per dedurre la struttura interna del pianeta, che potrebbe dare informazioni importanti sulla sua nascita ed evoluzione. La prima osservazione importante ha riguardato il nucleo, che ha dimensioni maggiori di quelle stimate finora e simili a quello della Terra. Appare però molto meno denso e dunque i ricercatori ipotizzano che contenga anche un’importante frazione di elementi chimici leggeri. Questo potrebbe suggerire che Marte si sia formato a grande distanza dal Sole e prima della Terra. La seconda osservazione importante riguarda invece il mantello di Marte, lo strato tra il nucleo e la parte più esterna (la crosta). Il mantello marziano sarebbe infatti più sottile di quanto si pensava e mancherebbe di una parte isolante costituita da un minerale chiamato bridgmanite. Questo potrebbe spiegare il rapido raffreddamento del pianeta e lo spegnimento del suo campo magnetico, che ha lasciato Marte senza protezione dalla radiazione ionizzante che proviene dallo spazio [Le Monde]

3 Come si considera l’origine geografica dei pazienti negli algoritmi sanitari?
Sono ormai diversi gli algoritmi impiegati in ambito sanitario che tengono conto dell’origine geografica dei pazienti. Un esempio è il sistema messo a punto da un gruppo di pediatri dell’Università di Pittsburgh che aiuta i medici a decidere se è opportuno prelevare con un catetere un campione di urina in bambini sotto i due anni per diagnosticare infezioni del tratto urinario. La procedura è fastidiosa e queste infezioni sono relativamente rare. L’algoritmo calcola la probabilità di una simile infezione in base a una serie di dati, tra cui la temperatura corporea, il sesso e anche il colore della pelle. Studi precedenti hanno infatti mostrato che i bambini neri incorrono in questa patologia meno frequentemente di quelli bianchi. Tuttavia, nell’ultimo anno si è aperto un dibattito su quale sia il modo migliore per includere l’origine geografica dei pazienti in questi algoritmi. Il rischio è infatti quello di aumentare le disuguaglianze tra bianchi e neri nell’accesso alle cure [Science]

4 I paesi a basso e medio reddito non hanno gli strumenti di analisi dei big data. Ecco come recuperare
La capacità di raccogliere e apprendere da grandi quantità di dati è stato uno dei principali motori dell’innovazione negli ultimi decenni. Tuttavia, la capacità di selezionare dati significativi, ricavarne informazioni e trasformare tali informazioni in interventi efficaci non è distribuita uniformemente in tutto il mondo. Dal 2012 il Laboratory for Interdisciplinary Statistical Analysis della University of Colorado Boulder ha costruito una rete di laboratori di statistica in oltre dieci paesi in via di sviluppo, tra cui Nigeria, Brasile, Etiopia, Gana, Pakistan, Kenya. Si tratta di centri accademici che formano giovani ricercatori a collaborare su progetti locali [The Conversation]

5 DeepMind ha pubblicato la struttura di oltre 350 000 proteine, 250 000 erano finora sconosciute
Dopo aver pubblicato, la scorsa settimana, i dettagli dell’algoritmo che aveva vinto la competizione CASP14 a dicembre scorso, insieme al codice, giovedì la società londinese ha condiviso un archivio contenente la forma tridimensionale di 350 000 proteine, tutte le proteine espresse dal genoma umano e da altri 20 organismi viventi, tra cui il topo, il moscerino della frutta e il batterio Escherichia Coli. 250 000 di queste strutture non erano finora state misurate sperimentalmente. Al cuore dell’algoritmo di DeepMind, chiamato AlphaFold2, c’è una rete neurale profonda. La condivisione di questi risultati, e la possibilità di prevedere in poche ore nuove strutture su richiesta, promette di rivoluzionare il campo della ricerca biomedica [The New York Times]

6 Aggiornamenti COVID-19
×  Il carico virale delle persone infettate con la variante Delta è circa 1 000 volte quello di chi si infettava con il virus originale, ecco perché è così trasmissibile [Nature]
×  Due dosi di vaccino, AstraZeneca e Pfizer-BioNTech, sono altamente efficaci anche contro la Delta. Questi i risultati di uno studio condotto da Public Health England [The New England Journal of Medicine]
×  Le infezioni postvaccinali sono rare ma possibili, e aumentano con l’incidenza del contagio e con la copertura vaccinale [The New York Times]
×  La app per il tracciamento digitale dei contatti è molto utilizzata nel Regno Unito. Ora pare che ci siano un milione e mezzo di cittadini in isolamento perché entrati in contatto con un caso positivo [The Guardian]
×  Chi non si vaccina non è necessariamente antivaccinista [The Atlantic]
×  L’incidenza del contagio in Italia nella settimana tra il 16 e il 22 luglio è raddoppiata rispetto a quella della settimana precedente, raggiungendo 41 nuovi casi diagnosticati ogni 100 000 abitanti. Sardegna (83), Lazio e Veneto (69) sono sopra la soglia di 50 ogni 100 000 abitanti ma non passano in zona gialla per via delle nuove regole introdotte questa settimana che richiedono anche che almeno uno dei tassi di occupazione dei reparti ordinari e intensivi siano sopra le soglie critiche fissate a 15% e 10%, rispettivamente [Ministero della Salute]
×  L’indice di riproduzione netta del contagio è a 1,26 (range 0,96– 1,62), aumenta la prevalenza della variante Delta che è ora dominante nel paese (la prossima settimana arriveranno i risultati dell’indagine rapida condotta questa settimana) [Istituto Superiore di Sanità]
×  Nel frattempo, il Governo ha deciso che dal 6 agosto in Italia sarà richiesto di esibire un certificato digitale per consumare al tavolo in bar e ristoranti ed entrare in musei, stadi e teatri. Il certificato si ottiene con una singola dose di vaccino, un test negativo nelle 48 ore precedenti o la guarigione da Covid-19 nei sei mesi precedenti [The Guardian]

Protein folding per tutti

[pubblicato su Scienza in rete il 17 luglio 2021]

Le proteine sono le molecole fondamentali per i processi biologici e la loro struttura tridimensionale, cioè il modo in cui gli aminoacidi che le compongono sono distribuiti nello spazio, è strettamente legata alle funzioni che svolgono. Conoscere questa struttura è un compito tutt’altro che semplice. Sperimentalmente può essere estremamente oneroso e in alcuni casi impossibile. Da cinquant’anni gli scienziati cercano di sviluppare dei metodi computazionali, che inferiscano la struttura a partire dalla sequenza di aminoacidi che costituiscono la proteina. Ora la soluzione potrebbe essere a portata di mano, e non di pochi ricercatori ma della comunità intera.

In due articoli pubblicati giovedì su Nature e Science, la società londinese DeepMind specializzata in tecniche di deep learning e un gruppo di ricercatori guidato da David Baker, biologo strutturale della University of Washington, hanno descritto due algoritmi basati su reti neurali profonde che prevedono in modo estremamente accurato la struttura delle proteine a partire dalle sequenze di aminoacidi. In alcuni casi la loro precisione è confrontabile con quella delle strutture misurate sperimentalmente tramite la cristallografia a raggi X o la criomicroscopia elettronica. Contestualmente hanno messo a disposizione gratuitamente il codice per il calcolo di queste strutture, anche se con alcune differenze dal punto di vista dell’accessibilità.

Continua a leggere Protein folding per tutti