Algoritmi e tumori della pelle: meno accurati di quanto si pensasse

[pubblicato su Scienza in rete il 21 maggio 2022]

Negli ultimi anni, grazie a un particolare tipo di reti neurali profonde, chiamate convolutional neural network e particolarmente efficaci nella classificazione delle immagini, abbiamo letto sui giornali a più riprese che i dermatologi sarebbero presto stati sostituiti dagli algoritmi, almeno nei compiti di screening delle lesioni della pelle. I risultati dell’ultima competizione organizzata dall’International Skin Imaging Collaboration ridimensionano queste aspettative e richiamano all’importanza di valutare le perfomance di questi algoritmi con dati realistici prima di introdurli nella pratica clinica. Gli algoritmi sono sì più accurati della media dei dermatologi coinvolti nella sfida, ma molto meno di quello che si pensava e tranne quando incontrano lesioni che non hanno mai visto prima.

Continua a leggere Algoritmi e tumori della pelle: meno accurati di quanto si pensasse

Gli occhi del cuore

[pubblicato su Scienza in rete il 4 febbraio 2022]

Un’intelligenza artificiale capace di dedurre la massa e il volume del ventricolo sinistro del cuore analizzando l’immagine della retina e da lì stabilire se il paziente è a rischio di andare incontro a un infarto del miocardio. È l’ultima applicazione in ambito medico di un sistema di deep learning pubblicata la scorsa settimana su Nature Machine Intelligence da un gruppo di matematici, informatici e cardiologi coordinati da Alejandro Frangi, professore di medicina computazionale alla University of Leeds e dal 2019 membro del comitato per le tecnologie emergenti della Royal Academy of Engineering, e Andres Diaz-Pinto, ricercatore al King’s College London.

Continua a leggere Gli occhi del cuore

La sfida dell’IA per l’Italia: colloquio con Nicolò Cesa-Bianchi

[pubblicato su Scienza in rete il 10 dicembre 2021]

A metà novembre i quattro atenei milanesi, Statale, Bicocca, Bocconi e Politecnico, hanno annunciato la nascita di una unità locale di ELLIS, l’associazione europea di ricercatori sull’intelligenza artificiale e il machine learning. Una settimana dopo il Consiglio dei Ministri ha approvato il Programma Strategico per l’Intelligenza Artificiale per il triennio 2022-2024, sviluppato dal Ministero dell’Università e della Ricerca insieme al Ministero dello Sviluppo Economico e del Ministro per l’innovazione tecnologica e la transizione digitale. In un certo senso, l’accordo stretto dalle quattro università milanesi per collaborare all’interno di ELLIS rappresenta un esperimento su scala metropolitana di quello che il Programma Strategico vorrebbe che avvenisse a livello nazionale. Abbiamo parlato di questi temi con Nicolò Cesa-Bianchi, informatico all’Università Statale di Milano e attuale coordinatore della ELLIS Unit milanese.

Continua a leggere La sfida dell’IA per l’Italia: colloquio con Nicolò Cesa-Bianchi

Il machine learning migliora le previsioni meteo

[pubblicato su Scienza in rete il 13 novembre 2021]

Il sogno di Fenwick Cooper era quello di sviluppare un modello matematico per descrivere il moto turbolento dei fluidi, un problema sul quale i fisici si sono scervellati per cento anni. «Mi sono reso conto che non sarei stato io a scoprire questa nuova incredibile teoria». Così Cooper, che oggi collabora con lo European Centre for Medium-Range Weather Forecast (ECMWF), è sceso a compromessi e si è specializzato in modelli numerici della turbolenza, «questo è il percorso che mi ha portato a conoscere e impiegare sistemi di machine learning per descrivere la dinamica dell’atmosfera e degli oceani».

Cooper è l’autore di uno studio su come gli strumenti di machine learning potrebbero migliorare il sistema di previsioni integrato dell’ECMWF sulla temperatura dell’aria e la velocità del vento vicino alla superficie terrestre. Lo studio è stato finanziato al 50% dalla International Foundation Big Data and Artificial Intelligence for Human Development (IFAB) con sede a Bologna ed è stato presentato per la prima volta lo scorso 9 novembre in un seminario online.

Continua a leggere Il machine learning migliora le previsioni meteo

Protein folding per tutti

[pubblicato su Scienza in rete il 17 luglio 2021]

Le proteine sono le molecole fondamentali per i processi biologici e la loro struttura tridimensionale, cioè il modo in cui gli aminoacidi che le compongono sono distribuiti nello spazio, è strettamente legata alle funzioni che svolgono. Conoscere questa struttura è un compito tutt’altro che semplice. Sperimentalmente può essere estremamente oneroso e in alcuni casi impossibile. Da cinquant’anni gli scienziati cercano di sviluppare dei metodi computazionali, che inferiscano la struttura a partire dalla sequenza di aminoacidi che costituiscono la proteina. Ora la soluzione potrebbe essere a portata di mano, e non di pochi ricercatori ma della comunità intera.

In due articoli pubblicati giovedì su Nature e Science, la società londinese DeepMind specializzata in tecniche di deep learning e un gruppo di ricercatori guidato da David Baker, biologo strutturale della University of Washington, hanno descritto due algoritmi basati su reti neurali profonde che prevedono in modo estremamente accurato la struttura delle proteine a partire dalle sequenze di aminoacidi. In alcuni casi la loro precisione è confrontabile con quella delle strutture misurate sperimentalmente tramite la cristallografia a raggi X o la criomicroscopia elettronica. Contestualmente hanno messo a disposizione gratuitamente il codice per il calcolo di queste strutture, anche se con alcune differenze dal punto di vista dell’accessibilità.

Continua a leggere Protein folding per tutti

Machine learning in radioterapia: il problema è conquistare la fiducia degli oncologi

[pubblicato su Scienza in rete il 25 giugno 2021]

In ambito medico, sono ormai numerosi gli algoritmi di machine learning, sistemi di apprendimento automatico basato sui dati, sviluppati sia per la diagnosi che per il trattamento di diverse patologie. Finora però la loro efficacia è stata valutata prevalentemente fuori dall’ambiente clinico. Per questo è particolarmente significativo il lavoro di un gruppo di fisici medici, oncologi radioterapisti ed esperti di intelligenza artificiale della University Health Network di Toronto, Canada, che ha meritato la copertina dell’ultimo numero di Nature Medicine.

I ricercatori hanno testato un approccio per integrare piani di trattamento radioterapici per la cura del tumore alla prostata generati da un algoritmo di machine learning nelle normali procedure decisionali del Princess Margaret Cancer Centre, il maggiore centro oncologico canadese. L’algoritmo parte dalle immagini raccolte dalla TAC di un nuovo paziente e le confronta con un database di 99 pazienti e con i relativi piani di radioterapia per elaborare il nuovo piano di trattamento.I risultati dell’esperimento mostrano che questa tecnologia è pronta per essere utilizzata nella pratica clinica a patto di mantenere tutti i passaggi e i controlli di qualità che già vengono eseguiti sui piani elaborati dagli esperti umani per favorire la fiducia verso questi strumenti e garantire le migliori cure possibili ai pazienti.

Continua a leggere Machine learning in radioterapia: il problema è conquistare la fiducia degli oncologi

Letture per il finesettimana #30

[pubblicato su Scienza in rete il 1 maggio 2021]

Buon sabato,
questa settimana parliamo di software per il riconoscimento delle emozioni, dei determinanti sociali delle disuguaglianze di salute, del lago Urmia in Iran, del calcolo infinitesimale, di un nuovo e promettente vaccino contro la malaria e diamo gli ultimi aggiornamenti su Covid-19. Buona lettura (per segnalare questa newsletter agli amici ecco il link per l’iscrizione)

1 I software per il riconoscimento delle emozioni sono basati su teorie scientifiche non consolidate
Oggi gli strumenti di riconoscimento delle emozioni a partire dalle espressioni facciali sono sfruttati nei sistemi di sicurezza nazionale e negli aeroporti, nell’istruzione e nella selezione del personale, nella diagnosi di malattie psichiatriche e nei programmi di polizia per prevedere la violenza. L’affermazione secondo cui lo stato interiore di una persona può essere valutato accuratamente analizzando il suo volto, si basa su prove traballanti. Una revisione sistematica della letteratura scientifica nel 2019, guidata dalla psicologa e neuroscienziata Lisa Feldman Barrett, ha rilevato che non ci sono prove affidabili che si possa prevedere con precisione lo stato emotivo di qualcuno a partire dai movimenti facciali. Un estratto del nuovo libro di Kate Crawford, “The Atlas of AI” [The Atlantic]

2 Le disuguaglianze sociali come determinanti di salute
Un recente studio ha mostrato che i lavoratori del settore agricolo e alimentare in California hanno avuto un rischio di morire di Covid-19 del 40% superiore rispetto alla popolazione generale dello stato. Tra quelli di origine sudamericana l’aumento di mortalità è stato del 60%, mentre per i lavoratori bianchi del 16%. Questa disparità è dovuta alle discriminazioni, i salari insufficienti, poche garanzie sul lavoro, disagio abitativo e difficoltà di accesso all’istruzione. La pandemia ha reso evidente ciò che si studia da anni: le disuguaglianze di salute hanno una componente sociale ed economica. Avrà anche offerto una motivazione sufficiente forte per provare ad affrontarla? Un reportage dalla San Joaquin Valley, a metà strada fra San Francisco e Sacramento [Nature]

3 Il grande lago Urmia in Iran è a rischio
Tra la fine degli anni ’90 e il 2013 il lago era passato da un volume d’acqua di 30 miliardi di litri a 500 milioni di litri a causa dello sfruttamento del bacino per l’irrigazione dei campi. Poi cinque anni di piogge intense hanno riportato i livelli dell’acqua a valori accettabili, e al ritorno dei fenicotteri. Ma potrebbe non durare a lungo senza un piano serio di investimenti e una conversione delle coltivazioni perché richiedano meno irrigazione [Science]

4 Il calcolo infinitesimale raccontato nell’ultimo libro di Steven Strogatz
Il matematico americano, che ospita anche un podcast chiamato “The Joy of x” per Quantamagazine, ha dedicato il suo ultimo libro al calcolo infinitesimale, o calcolo integrale o calcolo differenziale. L’autore non ha difficoltà a presentare questa tecnica come onnipresente nelle moderne tecnologie di calcolo, dall’imaging medico, alla geolocalizzazione, passando per la descrizione di un’epidemia. Tutti abbiamo avuto a che fare con il calcolo integrale senza saperlo [Le Monde]

5 Un nuovo vaccino contro la malaria si dimostra efficace al 77% in uno studio clinico di fase 2
Lo studio clinico è frutto di una collaborazione tra Oxford e la Clinical Research Unit of Nanoro, Burkina Faso e ha coinvolto bambini fra i 5 e i 17 mesi, con la somministrazione di due dosi e poi un terzo richiamo a un anno di distanza. Rispetto al precedente vaccino utilizzato, questo ha bisogno di una dose in meno ed è più efficace. Ogni hanno il parassita della malaria infetta centinaia di milioni di persone e ne uccide centinaia di migliaia, soprattutto bambini e donne incinte [Vox]

6 Aggiornamenti COVID-19
×  Coloro che si infettano a tre settimane dalla prima dose di Pfizer o AstraZeneca, hanno una probabilità dimezzata di contagiare le persone conviventi, rispetto ai non vaccinati. Un nuovo studio di Public Health England [BBC]
×  Da uno studio osservazionale di Public Health Scotland si è visto che a 4-5 settimane dalla prima dose, il vaccino Pfizer/BioNTech protegge dall’ospedalizzazione al 91% mentre quello di AstraZeneca all’88%. Questo risultato vale anche per gli over 80 per la combinazione dei due vaccini (preprint del 19 febbraio ora pubblicato su The Lancet) [The Lancet]
×  Una singola dose di Pfizer o AstraZeneca protegge dall’infezione sintomatica al 74% e anche asintomatica al 57%. Dopo due dosi di vaccino Pfizer l’efficacia contro infezioni sintomatiche e asintomatiche diventa del 90%. Uno studio realizzato dall’Università di Oxford che ha testato un gruppo di 370 000 persone [BBC]
×  La decisione della Commissione Europea di intraprendere un’azione legale contro AstraZeneca per i ritardi e i tagli alle consegne sembra indicare che il vaccino della società anglo-svedese non sarà più indispensabile per l’Europa a partire dalla seconda metà del 2021 [Le Monde]
×  L’improvviso aumento del contagio nelle ultime settimane in India mette in dubbio il bilancio ufficiale di 200 000 vittime, con più di 2 000 persone che muoiono ogni giorno. Le interviste dai luoghi di cremazione in tutto il paese, dove il fuoco non si spegne mai, descrivono una situazione che supera di gran lunga le cifre ufficiali [The New York Times]
×  I Centers for Disease Control and Prevention statunitensi sollevano dall’obbligo di indossare la mascherina all’aperto in specifiche circostanze [The New York Times]
×  L’agenzia del farmaco brasiliana non ha autorizzato il vaccino russo Sputnik V [Financial Times]

I modelli di linguaggio non devono limitarsi ad apprendere dai dati

[pubblicato su Scienza in rete il 17 aprile 2021]

La scorsa settimana, Samy Bengio, direttore del progetto Google Brain, ha annunciato le sue dimissioni. A fine aprile lascerà la società dopo 14 anni. La decisione di Bengio arriva dopo mesi turbolenti per Google, segnati dal licenziamento di Timnit Gebru e Margareth Mitchell, le due ricercatrici a capo del gruppo Ethical AI di Google, a causa di un articolo critico verso i modelli statistici di linguaggio basati su grandi quantità di dati e di parametri. Si tratta di sistemi già utilizzati in diverse tecnologie, come i motori di ricerca, gli assistenti vocali o i chat bot. L’articolo, scritto insieme Emily Bender e Angelina McMillan-Major, linguiste computazionali della University of Washington, è stato presentato un mese fa durante la conferenza Fairness Accountability and Transparency.

Abbiamo parlato con Dirk Hovy, professore associato all’Università Bocconi dove si occupa di linguistica computazionale con particolare attenzione verso gli impatti sociali dell’impiego dei cosiddetti large language modelDa settembre dello scorso anno Hovy è coordinatore del progetto INTEGRATOR, finanziato con uno Starting Grant dello European Research Council, e che ha l’obiettivo di integrare fattori demografici nei modelli di linguaggio naturale per mitigare il rischio che i contenuti generati siano discriminatori verso minoranze etnichedonne e persone con identità di genere non binaria, persone anziane e in generale gruppi sociali minoritari.

Continua a leggere I modelli di linguaggio non devono limitarsi ad apprendere dai dati

Coded bias: sull’importanza dell’inclusività quando si progettano e impiegano gli algoritmi

[pubblicato su Scienza in rete il 10 aprile 2021]

“The more humans share with me, the more I learn”. Una voce metallica pronuncia questa frase all’inizio del documentario Coded Bias, diretto dalla regista Shalini Kantayya e disponibile su Netflix dal 5 aprile. Queste parole riassumono il messaggio centrale del documentario: gli algoritmi sono distorti soprattutto perché “apprendono” dagli esseri umani. Questo è particolarmente vero per i sistemi di machine learning, quelli che sottintendono al funzionamento dei motori di ricerca, dei social media, degli assistenti vocali e di molti altri strumenti tecnologici che usiamo quotidianamente.

Continua a leggere Coded bias: sull’importanza dell’inclusività quando si progettano e impiegano gli algoritmi

Non per forza l’intelligenza artificiale deve promuovere le discriminazioni

[pubblicato su Domani il 20 marzo 2021]

Gli algoritmi sono sempre più diffusi in ambito medico e sanitario, ma il loro utilizzo rischia di replicare su vasta scala le disuguaglianze strutturali della nostra società. Raccogliere dati più rappresentativi delle minoranze e condurre analisi approfondite di questi sistemi è fondamentale e può renderli strumenti per mitigare la discriminazione

  • «I dati sono uno strumento per costruire il potere politico delle persone nere, e con potere politico intendo la capacità di influenzare le decisioni che hanno un impatto sulla propria vita». Queste le parole di Yeshimabeit Milner, fondatrice del gruppo Data For Black Lives, alla conferenza Fairness Accountability and Transparency.
  • «Algoritmi progettati male possono creare discriminazione ma se ben costruiti essi possono porre rimedio ai pregiudizi che hanno gli esseri umani», ha dichiarato Sendhil Mullainathan della Booth School of Business di Chicago.
  • Gli algoritmi di machine learning basano il loro funzionamento sui dati su cui vengono allenati e da cui apprendono. Per questo costruire campioni di dati che siano più rappresentativi delle minoranze è fondamentale per assicurarsi che questi algoritmi non replichino su vasta scala le disuguaglianze strutturali della società.

Continua a leggere su Domani →

L’immagine è di Ars Electronica / Flickr. Licenza: CC BY-NC-ND 2.0.