Automatizzare la scuola

[pubblicato originariamente su Scienza in rete il 20 novembre 2020]

La pandemia ha portato, a marzo, alla chiusura anticipata delle scuole in molti stati europei e non solo. Oltre 500 000 studenti italiani hanno sostenuto la maturità e il loro voto è stato calcolato per il 60% sulla base del percorso degli ultimi tre anni e per il 40% sulla base della sola prova orale (le prove scritte non si sono tenute). In tempi normali l’esame, con due prove scritte e una orale, serve ad assegnare 60 dei 100 punti in palio, mentre i voti ottenuti durante gli ultimi tre anni possono generare massimo 40 punti. Il risultato è stato un generale aumento dei voti. Se nel 2019 i diplomati con voto superiore a 80 erano il 32,8%, quest’anno sono stati il 49,6% del totale. Hanno preso 100, il voto massimo, il 9,9% dei maturandi contro il 5,6% del 2019.

In Gran Bretagna le cose sono andate diversamente. Gli esami finali degli studenti all’uscita dalle scuole superiori, chiamati A-level, non si sono tenuti e la loro valutazione è stata affidata a un algoritmo sulla base dei voti intermedi e della perfomance storica di ciascuna scuola. Il 40% degli studenti ha ricevuto voti più bassi rispetto a quelli proposti dai loro insegnanti e nel pomeriggio del 16 agosto le strade di Londra si sono riempite di ragazzi che agitavano cartelli con su scritto ‘fuck the algorithm’. C’è da sottolineare che il peso degli A-level nel sistema dell’istruzione britannico è molto più grande della nostra maturità. Sulla base di quei voti si decide infatti l’accesso all’università e, come conseguenza, al mondo del lavoro. L’algoritmo però non ha penalizzato ugualmente tutti gli studenti, come vedremo. Quelli appartenenti a contesti socioeconomici più svantaggiati hanno pagato il prezzo più salato.

Anche le università hanno trasferito lezioni ed esami online. E se la didattica a distanza ha funzionato meglio rispetto ai gradi inferiori di istruzione, i problemi si sono presentati nelle procedure di valutazione. Un grande numero di università, anche in Italia, ha cominciato a utilizzare sistemi di sorveglianza automatica durante gli esami. Le proteste degli studenti sono state numerose e hanno riguardato diversi temi, dall’eccessiva pressione psicologica a cui sono stati sottoposti, alla discriminazione verso studenti neri su cui i software di riconoscimento facciale funzionano ancora molto male, fino ai dubbi sul rispetto delle leggi sulla privacy. Diverse università hanno deciso di sospenderne l’utilizzo e di ricorrere a personale aggiuntivo per monitorare il comportamento degli studenti da remoto.

Continua a leggere Automatizzare la scuola

Indicatori e governo dell’epidemia

Fase. Rischio. Scenario. Queste tre parole scandiscono la risposta e la preparazione che le istituzioni hanno progettato per contrastare l’epidemia di SARS-CoV-2 in Italia da febbraio a oggi.

Le tre parole sono introdotte e dettagliate in tre documenti istituzionali, che costituiscono la base di questo approfondimento, il Decreto del Presidente del Consiglio dei Ministri del 26 aprile [1], il Decreto del Ministero della Salute del 30 aprile [2] e il documento “Prevenzione e risposta COVID-19” [3] pubblicato all’inizio di ottobre da Ministero della Salute e Istituto Superiore di Sanità (ISS) insieme a un’altra serie di centri di ricerca e associazioni del settore sanitario.

I tre documenti definiscono una serie di indicatori (numerici e non) grazie ai quali si elabora una sintesi del quadro epidemiologico a livello locale e nazionale e si stabilisce in che fase siamo, qual è il livello di rischio delle singole regioni e infine in quale scenario queste si trovino. Il colore, giallo, arancione o rosso, delle regioni viene stabilito sulla base del livello di rischio e dello scenario, in una maniera non del tutto lineare come vedremo.

Continua a leggere Indicatori e governo dell’epidemia

Elezioni americane: l’accusa di frode e la crisi dei sondaggi

[pubblicato originariamente su Scienza in rete il 6 novembre 2020]

Nel momento in cui scriviamo il risultato delle elezioni presidenziali americane non è ancora definitivo: Biden ha 39 voti in più di Trump nel collegio elettorale, ma per vincere deve conquistarne ancora 17.

Il collegio viene costituito al solo scopo di scegliere il presidente e il suo vice e lo farà a dicembre per permettere l’insediamento alla Casa Bianca a gennaio. Ogni stato americano elegge un certo numero di membri del collegio elettorale, i cosiddetti grandi elettori, che vengono assegnati ai democratici o ai repubblicani a maggioranza sulla base del voto popolare (in tutti gli stati tranne tre, dove valgono regole diverse). In totale il collegio elettorale conta 538 posti e dunque viene dichiarato vincitore il candidato presidente che se ne aggiudica almeno 270. In California, dove si nominano 55 grandi elettori, sono stati scrutinati il 77% dei voti (oltre 12 milioni di schede) e di questi il 65,1% sono andati a Biden. Per questo tutti i 55 grandi elettori dello stato sono già considerati come assegnati al Partito Democratico. Attualmente Biden ha 253 grandi elettori già confermati e Trump 214, restano da assegnarne 71. Sono sei gli stati ancora in bilico: Pennsylvania (20), Georgia (16), North Carolina (15), Arizona (11), Nevada (6) e Alaska (3). In questi stati la distanza tra democratici e repubblicani è irrisoria (poco più di 18 000 voti in Pennsylvania, meno di 1 000 in Georgia, circa 67 000 in North Carolina) e dunque non è possibile stabilire a chi andranno i loro grandi elettori prima del termine dello spoglio (fonte: New York Times).

E mentre Biden chiede ai suoi sostenitori di avere pazienza di aspettare la vittoria ufficiale, Trump denuncia, senza averne alcuna prova, illegalità nel processo di voto. Nella sua ultima conferenza stampa alla Casa Bianca nel tardo pomeriggio di ieri a Washington, ha affermato: “Se si contano i voti legittimi vinco facilmente”, e ha ribadito che continuano i suoi sforzi per proteggere l’integrità di queste elezioni attraverso procedure legali intentate dagli avvocati della sua campagna negli stati chiave. Le maggiori emittenti televisive hanno interrotto il collegamento con la Casa Bianca comunicando ai propri spettatori che le accuse del presidente sono infondate.

FRODE ELETTORALE

Già nel discorso pronunciato a poche ore dalla chiusura dei seggi, nella notte tra martedì e mercoledì, Trump aveva messo in dubbio l’integrità del processo di voto, definendo le elezioni una frode e aveva assicurato che avrebbe fatto di tutto per vincere, appellandosi addirittura alla corte suprema.

Continua a leggere Elezioni americane: l’accusa di frode e la crisi dei sondaggi

La consulenza scientifica al Parlamento: il caso del 5G

[pubblicato originariamente su Scienza in rete il 30 ottobre 2020]

Non potrebbe apparire più urgente che in questo momento storico la necessità di strutture e processi che garantiscano l’accesso dei politici alla conoscenza scientifica e tecnologica, soprattutto quando questa è in evoluzione e presenta aspetti su cui non c’è consenso unanime fra gli esperti.

Proprio di questa necessità abbiamo discusso (Chiara Sabelli e Luca Carra) durante il dibattito ‘5G in Parlamento. Il ruolo della conoscenza scientifica’, organizzato all’interno del Festival della Scienza di Genova, quest’anno dedicato al tema ‘Onde’.

Il caso della tecnologia 5G è particolarmente ricco di spunti e ci ha permesso di confrontare l’esperienza del Parlamento italiano con quella del Parlamento britannico, grazie alla testimonianza di Lorna Christie, consulente presso il Parliamentary Office for Science and Technology (POST), l’ufficio di consulenza scientifica al servizio del Parlamento britannico da oltre 30 anni, e autrice del documento pubblicato dal POST sul 5G. Il dibattito ha inoltre beneficiato del contributo di tre scienziati, Alessandro Armando dell’Università di Genova, Angela Benedetti dello European Center for Medium-Range Weather Forecasts e Alessandro Vittorio Polichetti dell’Istituto Superiore di Sanità, che ci hanno permesso di capire la complessità di alcuni rischi posti dallo sviluppo della nuova generazione di comunicazioni mobili e dunque di apprezzare la portata della sfida normativa e politica che i Parlamenti di tutto il mondo stanno affrontando. Continua a leggere La consulenza scientifica al Parlamento: il caso del 5G

Diagnosi automatizzate: dalla COVID-19 al tumore al seno

[pubblicato originariamente su Scienza in rete il 23 ottobre 2020]

Due settimane fa un gruppo di ricercatori cinesi ha pubblicato sulla rivista Nature Communications uno studio in cui mostra le performance di un sistema di intelligenza artificiale nel diagnosticare la COVID-19 a partire dalle immagini di tomografia computerizzata dei polmoni, distinguendola da altre tre patologie: le polmoniti causate dall’influenza stagionale, le polmoniti non virali e altri tipi di lesioni diverse dalle polmoniti. Si tratta solo dell’ultimo di una serie di sistemi di intelligenza artificiale messi a punto negli ultimi mesi per diagnosticare la COVID-19, che potrebbero diventare utili se i sistemi sanitari sottoposti a pressione esagerata non fossero più in grado di effettuare tempestivamente i test molecolari (quelli che cercano tracce dell’RNA virale nei campioni prelevati tramite tampone naso-faringeo). Questi sistemi di lettura automatizzata potrebbero poi essere modificati per funzionare anche su radiografie polmonari, un metodo diagnostico facilmente disponibile anche nei Paesi meno sviluppati.

Non solo. Potrebbero servire anche a individuare con un po’ di anticipo i pazienti che andranno incontro a un decorso più severo e che necessiteranno di essere intubati, permettendo così agli ospedali di gestire meglio le loro risorse. A fine settembre uno di questi sistemi, sviluppato dalla società Dascena di San Francisco, ha ottenuto l’approvazione per uso in caso di emergenza da parte della Food and Drug Administration, l’agenzia del farmaco statunitense.

I sistemi di intelligenza artificiale per la diagnosi e il triage dei casi di COVID-19 sono solo gli ultimi esempi di una serie di algoritmi di machine learning che hanno trovato numerose applicazioni nelle attività di diagnostica per immagini, a cominciare dalla diagnosi dei tumori. Analizzare immagini mammografiche o biopsie di diversi tipi di tessuto alla ricerca di formazioni cellulari anomale o veri e propri tumori si è dimostrato un compito particolarmente facile per questo tipo di algoritmi, che spesso hanno superato in bravura radiologi e patologi con anni di esperienza. Il caso più studiato è sicuramente quello del tumore al seno, ma sono stati ottenuti risultati importanti anche per i tumori del polmone e della pelle.

L’obiettivo è classificare l’immagine diagnostica in un numero finito di categorie. Nei casi semplici sarà sufficiente discriminare fra solo due gruppi, sano o malato, in quelli più complessi bisognerà considerare diversi tipi di anomalie, da quelle benigne a quelle più aggressive. Il successo dell’intelligenza artificiale è arrivato proprio con lo sviluppo di algoritmi particolarmente capaci in questa attività di classificazione delle immagini.

Continua a leggere Diagnosi automatizzate: dalla COVID-19 al tumore al seno

La pandemia non basta, serve una vera transizione energetica

[originariamente pubblicato su Scienza in rete il 16 ottobre 2020]

Martedì l’Agenzia Internazionale dell’Energia (IEA) ha pubblicato il suo World Energy Outlook 2020, il rapporto annuale in cui riassume le previsioni a 20-30 anni per il settore dell’energia in diversi scenari politici ed economici, dedicando però un’attenzione particolare ai prossimi dieci anni e all’uscita dalla crisi causata dalla pandemia.

Ci sono molti aspetti inediti nel rapporto di quest’anno. Il primo è che manca lo scenario business as usual sostituito da quello denominato stated policies scenario (STEPS), in cui si assume che la pandemia termini nel 2021, l’economia ritorni ai livelli pre-crisi nello stesso anno, mentre la domanda di energia solo nel 2023 e si tengono in considerazione le politiche energetiche incluse negli interventi già pianificati dagli Stati per uscire dalla crisi.

Il secondo elemento di novità è che per la prima volta la IEA modellizza due scenari rilevanti per la lotta al cambiamento climatico. Il primo è lo scenario chiamato sustainable development scenario (SDS) in cui una serie di misure aggiuntive permettono di raggiungere il livello zero di emissioni nette di gas serra entro il 2070 e di contenere l’aumento della temperatura globale rispetto ai livelli preindustriali a 1,65°C con il 50% di probabilità. Il secondo è il net zero emissions by 2050 case (NZE2050), che individua una serie di interventi molto più incisivi nel settore dell’energia per raggiungere zero emissioni nette entro il 2050 e avere il 50% di probabilità di contenere l’aumento della temperatura a 1,5°C, l’obiettivo più ambizioso dell’accordo di Parigi.

L’ultimo aspetto inedito è il fatto che la IEA attribuisca un grande peso ai comportamenti individuali tra gli interventi nel settore energetico, considerando necessari cambiamenti radicali nei nostri stili di vita in particolare nello scenario NZE2050.

Oltre agli scenari che abbiamo già nominato, stated policiessustainable development e net zero emissions by 2050, la IEA ne considera un quarto, il delayed recovery scenario (DRS). In questo scenario la crisi dovuta alla pandemia si prolunga più al lungo del previsto, l’economia globale ritorna a livelli pre-crisi solo nel 2023 e la domanda di energia nel 2025, ma le politiche energetiche non cambiano rispetto a quanto dichiarato finora.

La crescita nella domanda di energia, che nel 2019 ci si aspettava sarebbe stata del 12% entro il 2030, si ferma al 9% nello scenario stated policies, con l’aumento dei Paesi emergenti a compensare il rallentamento dei Paesi ricchi. Tuttavia, questo non è sufficiente a garantire che il nostro pianeta si metta sulla traiettoria indicata dall’accordo di Parigi. “La recessione economica ha temporaneamente soppresso le emissioni, ma la bassa crescita economica non è una strategia a basse emissioni, è una strategia che servirebbe solo a impoverire ulteriormente le popolazioni più vulnerabili del mondo”, ha affermato Fatih Birol, direttore della IEA e ha aggiunto: “solo modifiche strutturali al modo in cui produciamo e consumiamo l’energia possono invertire stabilmente la crescita delle emissioni”.

Continua a leggere La pandemia non basta, serve una vera transizione energetica

Supercomputer contro la pandemia

[originariamente pubblicato su Scienza in rete il 9 ottobre 2020]

Lunedì i CDC hanno aggiornato le linee guida sulla pandemia includendo gli aerosol tra i possibili veicoli di trasmissione del virus. Gli aerosol sono le particelle più piccole emesse dal naso e dalla bocca di una persona quando starnutisce, tossisce o parla, e hanno un diametro tra qualche decimo di micrometro fino a dieci micrometri. Queste particelle sono più leggere dei cosiddetti droplet, che hanno diametri superiori fino a qualche centinaio di micrometri, e dunque non sono attirati immediatamente a terra dalla forza di gravità ma possono rimanere in movimento nell’aria per lunghi periodi. La loro dinamica è particolarmente importante per valutare il rischio di contagio in ambienti chiusi, in cui il ricambio dell’aria è limitato.

L’aggiornamento delle linee guida dei CDC arriva tre giorni dopo la notizia che Donald Trump è risultato positivo al SARS-CoV-2 e a quattro giorni dal primo confronto tra Trump e Biden in vista delle elezioni presidenziali del 3 novembre prossimo. Biden e Trump si sono scontrati in un dibattito trasmesso in diretta televisiva durato oltre un’ora e mezza in cui hanno parlato da podi distanziati di circa due metri. L’allestimento del dibattito televisivo ha spinto molti a chiedersi se Biden è stato esposto a un rischio di contagio concreto.

Tra i modi per capire come droplet e aerosol circolano nell’aria ci sono i modelli computazionali. Già ad aprile un gruppo di scienziati del Kyoto Institute of Technology aveva mostrato che la distanza di sicurezza dovrebbe essere maggiore di 1 metro (meglio 2 metri) per evitare di essere investiti dagli aerosol. Sempre la simulazione della dispersione di queste particelle nell’aria, aveva permesso al supercomputer giapponese Fugaku di concludere che le visiere sono sostanzialmente inutili a contenere la diffusione dei droplet (un risultato confermato di recente anche da un altro studio con un approccio diverso, ovvero la visualizzazione in laboratorio tramite laser del movimento di queste goccioline nell’aria dopo uno starnuto). A fine agosto, sempre Fugaku aveva stabilito che le mascherine in polipropilene sono più efficaci di quelle in tessuto.

Il supercomputer Fugaku è ospitato dal RIKEN Center for Computational Science a Kobe ed è stato sviluppato in collaborazione con Fujitsu. È oggi il computer più potente al mondo, capace di eseguire 415,5 milioni di miliardi di operazioni al secondo (si dice che la sua potenza di calcolo è di 415,5 petaflops), quasi trenta volte più veloce del secondo più potente supercomputer del mondo, il Summit di IBM. Per avere un’idea di cosa vogliano dire questi numeri, basti pensare che un processore presente in un personal computer può arrivare a qualche centinaio di gigaflops, ovvero un milione di volte meno potente di un supercomputer. L’inizio delle attività di Fugaku era previsto per il 2021, ma ad aprile di quest’anno il centro ha annunciato che avrebbe messo a disposizione parte della sua capacità computazionale per progetti di ricerca su SARS-CoV-2 e COVID-19. Sempre lunedì NVIDIA ha annunciato che sta costruendo nel Regno Unito il più potente supercomputer del mondo che aiuterà i ricercatori ad affrontare domande difficili in campo medico, in particolare riguardo COVID-19. Insomma, le piattaforme di high performance computing sono considerate uno strumento cruciale per contrastare con la ricerca scientifica l’avanzata di questa nuova malattia. I loro impieghi sono infatti molteplici. Continua a leggere Supercomputer contro la pandemia

A che punto siamo con il 5G?

[pubblicato originariamente su Scienza in rete il 5 ottobre 2020]

Mercoledì il segretario di stato americano Mike Pompeo è arrivato a Roma e ha incontrato il primo ministro Giuseppe Conte e il ministro degli esteri Luigi Di Maio. Al centro dei due colloqui la posizione italiana sull’impiego di componenti elettroniche del colosso cinese Huawei nella costruzione della rete di telecomunicazioni mobile di ultima generazione. Conte e Di Maio hanno rassicurato Pompeo: l’Italia si allineerà all’Unione Europea, mettendo al centro delle sue scelte la sicurezza nazionale e comunitaria.

A luglio la Commissione Europea aveva richiamato gli Stati membri a diversificare i fornitori della filiera 5G, pochi giorni dopo l’annuncio del governo inglese che ha imposto il divieto di utilizzo della tecnologia Huawei nella parte core della rete e un limite del 35% sul suo impiego nelle parti periferiche.

Intanto diversi Paesi europei stanno lanciando la rete 5G servendosi di componenti della svedese Ericcson che commercializza stazioni radio base già abilitate per la trasmissione 5G dal 2015. Tuttavia uno studio ha recentemente stimato che un bando alle componenti Huawei comporterebbe in Italia un aumento dei costi di costruzione della rete del 19%, ovvero quasi 300 milioni di euro in più ogni anno per dieci anni (lo studio, bisogna dirlo, è stato realizzato dalla società Oxford Economics su commissione di Huawei stessa).

Il bando a Huawei si inserisce in un dibattito più ampio sui rischi che la quinta generazione di comunicazioni mobili avrà in termini di sicurezza, sia personale che collettiva. Le Monde ha raccolto le voci che sembrano circolare maggiormente sul 5G classificandole in ‘vero’, ‘falso’ e ‘non si sa’. Molte di queste riguardano gli effetti sulla salute umana, l’argomento che senz’altro desta la maggiore preoccupazione tra i cittadini. I quesiti a cui Le Monde prova a dare una risposta possono essere raggruppati in tre categorie: rischi per la salute, rischi per la sicurezza e rischi per l’ambiente, tra cui spicca quello per l’accuratezza delle previsioni meteorologiche.

Continua a leggere A che punto siamo con il 5G?

Tutti vegetariani per il clima?

[pubblicato originariamente su Scienza in rete il 25 settembre 2020]

Per la prima volta nel 2020 e a un anno dall’ultimo sciopero globale per il clima, oggi i ragazzi di Fridays For Future scendono in piazza per chiedere ai governi di agire urgentemente contro il cambiamento climatico.

Il momento non potrebbe essere più opportuno. La scorsa settimana si è chiusa con i cieli di San Francisco tinti di arancione, a causa dagli incendi che hanno bruciato circa 1,2 milioni di ettari di foresta nella sola California. Questa settimana si è aperta con la notizia che il ghiaccio artico ha toccato il secondo più basso livello di estensione mai osservato.

Il Polo Nord è una specie di sentinella per il cambiamento climatico. Gli effetti del riscaldamento globale da quelle parti si vedono più velocemente che altrove. La notizia ha guadagnato la prima pagina del quotidiano Le Monde non più tardi di mercoledì insieme a un bilancio sull’offerta di pasti vegetariani nelle scuole pubbliche francesi.

La produzione e distribuzione di cibo è infatti al secondo posto tra le attività umane inquinanti, essendo responsabile di una quantità stimata tra un quarto e un terzo delle emissioni di gas a effetto serra ogni anno (13,7 miliardi di tonnellate). Di questa porzione, quasi il 60% è legato alla produzione di carne e latticini. Dopo il settore dell’energia, è l’industria alimentare che sta lentamente finendo del mirino degli attivisti per il clima. Ne è prova il fatto che alcuni tra i più grandi fondi comincino a incorporare gli impatti ambientali nel calcolo del valore a rischio degli investimenti nel settore alimentare.

A sottolineare l’importanza di una dieta vegetariana ci si è messo anche Sir David Attenbourough. Il naturalista e produttore cinematografico britannico ha lanciato questa settimana il suo nuovo film ‘A life on our planet’ dicendo che per salvare la biodiversità sulla Terra occorre ridurre, fino quasi a eliminarlo, il consumo di carne. A fine novembre anche la BBC aveva prodotto un documentario sul tema, intitolato ‘Meat: A Threat to Our Planet?’ (che si può vedere qui).

Infine, poche settimane fa un gruppo di ricercatori statunitensi ha pubblicato su Nature Sustainability uno studio che stima che l’adozione di una dieta che riduce del 70% il consumo di carne porterebbe a un risparmio di 332 miliardi di tonnellate di CO2, l’equivalente di quanto è stato globalmente emesso negli ultimi 9 anni.

Diminuire il consumo di carne è quindi una necessità se si vuole raggiungere, come ha deciso l’Unione Europea, il livello zero di emissioni nette entro il 2050 per rispettare gli obiettivi fissati dall’accordo di Parigi. Ma una simile transizione è fattibile? Come dovrebbero cambiare le nostre diete per essere più sostenibili per l’ambiente? Quali sono le politiche più efficaci per avviare questo cambiamento?

Continua a leggere Tutti vegetariani per il clima?

Sono un robot e vengo in pace

[pubblicato originariamente su Scienza in rete il 18 settembre 2020]

La scorsa settimana il Guardian ha pubblicato un editoriale scritto dal software per la generazione di linguaggio GPT-3, il più potente in circolazione. I redattori hanno fornito a GPT-3 alcune frasi di input, il cosiddetto prompt, che descrivevano il compito assegnato: comporre un saggio che convincesse i lettori che l’intelligenza artificiale non è una minaccia per l’umanità. Leggendo il testo, appare plausibile che sia stato scritto da un essere umano, anche se gli argomenti a sostegno della tesi si susseguono in maniera un po’ sconnessa (GPT-3 ha svolto il compito otto volte e i redattori hanno combinato e corretto queste otto versioni ottenendone una finale, un po’ come avrebbero fatto per un editoriale scritto da una persona).

La pubblicazione del Guardian ha riacceso il dibattito cominciato poco prima dell’estate, quando un gruppo di esperti ha avuto accesso a GPT-3, l’ultimo generatore di linguaggio della società OpenAI. Il dibattito ruota attorno a due domande. La prima è: quanto siamo vicini a sviluppare una intelligenza artificiale generale? Con l’espressione intelligenza artificiale generale (in inglese artificial general intelligence, AGI) ci si riferisce a una macchina con i poteri di apprendimento e di ragionamento della mente umana. La seconda domanda è: GPT-3 rappresenta un pericolo per l’umanità? Senza l’ambizione di voler rispondere a queste due domande – che francamente corrono il rischio di suonare mal poste, le prendiamo come pretesto per chiederci quali direzioni stia prendendo la ricerca nel campo dell’intelligenza artificiale e quale sia il nostro rapporto con l’automazione, sia come individui che come società. La prima ci permetterà infatti di capire quanta importanza stanno acquisendo i dati a discapito della teoria. La seconda invece ci spingerà ad analizzare gli aspetti politici e sociologici di questa area.

Continua a leggere Sono un robot e vengo in pace