IL Paleocene Eocene Thermal maximum
Uno dei più importanti episodi di riscaldamento globale del record geologico è il Paleocene Eocene Thermal maximum, PETM, verificatosi ~56 milioni di anni fa, durante il quale una forte immissione di gas serra, per probabile gigantesco rilascio di metano, ha portato ad un innalzamento delle temperature fino a 6-8°C in poche migliaia di anni. Il PETM è considerato un analogo geologico del riscaldamento antropogenico. Come conseguenza del continuo riscaldamento globale, gli oceani attuali mostrano una riduzione del tenore di ossigeno, con severe ripercussioni per gli ecosisitemi marini e per le attività umane collegate. Il PETM ha dato la possibilità di valutare questo importante carattere in un’ottica a lungo termine.
Isotopi stabili dell’azoto e foraminiferi planctonici
Gli isotopi stabili dell’azoto, preservati nei gusci dei foraminiferi planctonici (Foraminifera-bound d15N), consentono di stabilire il grado di ossigenazione degli oceani superficiali e della produttività biologica. Questo importante proxy, di recente applicazione, è basato sul grado di denitrificazione. Questo processo, durante il quale i nitrati sono convertiti in nitrogeno molecolare (N2) dai batteri, avviene solo nelle acque impoverite di ossigeno della cosiddetta oxygen-deficient zones (ODZ). Un calo dei valori di d15N indica scarsa denitrificazione quindi condizioni di buona ossigenazione delle acque.
Un gruppo di ricercatori e ricercatrici internazionali, coordinato dal prestigioso Max Planck Institute for Chemistry (Mainz; Germany) e Princeton University (USA), che vede tra I collaboratori ricercatori dell’Università di Ferrara (Professoressa V. Luciani, Dottoressa Roberta D’Onofrio) hanno applicato lo studio degli isotopi stabili dell’azoto su foraminfieri planctonici del PETM.
I foraminiferi planctonici analizzati derivano da diversi carotaggi delle spedizioni scientifiche Dep Sea Drilling Project e Ocean Drilling Program, attive dalla fine degli anni ’60, che forniscono un archivio imprescindibile per le conoscenze del clima del passato. I ricercatori italiani sono stati supportati anche dal progetto PRIN 2017RX9XXY “Biota resilience to global change: biomineralization of planktic and benthic calcifiers in the past, present and future” di cui V. Luciani ha coordinato l’Unità di Ferrara.
L’ossigenazione delle acque tropicali superficiali al PETM ha evitato un’estinzione di massa
I risultati, pubblicati sulla rivista Science, indicano un’inaspettata contrazione della fascia del minimo di ossigeno nell’Oceano Pacifico tropicale durante il PETM, connessa con un declino della produttività biologica, come dedotto dal calo dei valori di Foraminifera-bound d15N. “Il grado di ossigenazione può aver contribuito a preservare la diversità del biota marino di superficie nonostante l’elevato stress delle alte temperature”, commenta il Dott. Simone Moretti, autore principale dello studio, a differenza della più grande grande estinzione verificatasi nelle comunità viventi sui fondali oceanici al PETM.
Occorre però ricordare i cambiamenti negli ecosistemi attuali derivanti dal riscaldamento globale con il forte contributo delle attività antropiche, si stanno verificando ad una velocità estremamente più elevata di quella del PETM durante i quali gli ecosistemi hanno impiegato più di 100.000 anni per recuperare lo stato precedente l’evento. Gli elevati ritmi dei cambiamenti in corso non consentono di assicurare la resilienza del biota marino, come concludono Simone Moretti ed i coautori della ricerca.
Titolo originale dell'articolo: Oxygen rise in the tropical upper ocean during the Paleocene-Eocene Thermal Maximum, Moretti S., Auderset A., Deutsch C, Schmitz R., Gerber L., Thomas E., Luciani V., Petrizzo M.R., Schiebel R., Tripati A., Sexton P., Norris R., D’Onofrio R., Zachos J., Sigman D.M.,, Haug, G.H., Martínez-García A., Science, February 2024,
DOI: 10.1126/science.adh4893
]]>
Le cause di questa catastrofe senza precedenti sono state a lungo dibattute nel mondo scientifico, in particolare in riferimento a come e perché la Terra sia diventata inospitale per la vita così rapidamente.
Ora, una nuova ricerca pubblicata su Nature Geoscience e realizzata da un gruppo internazionale di scienziati italiani compresi anche ricercatori dell'Università di Ferrara e dell’Università Statale di Milano, fornisce per la prima volta un quadro unitario e convincente sui meccanismi che hanno portato a questa estinzione e sulle sue conseguenze.
Le ricercatrici e i ricercatori hanno utilizzato come archivio la conchiglia di brachiopodi fossili, invertebrati marini con due valve che sono comparsi circa 500 milioni di anni fa e hanno dominato le comunità marine nel Paleozoico.
L'area del Sass de Putia, una panoramica nella quale si vede l'affioramento studiato sul fianco sinistro della foto.
“Le Dolomiti ospitano affioramenti di rocce di età Permiano-Triassica riccamente fossilifere, caratterizzate, in particolare, dalla presenza di brachiopodi che testimoniano gli ultimi istanti della vita nel Paleozoico. Questi affioramenti sono unici al mondo per la risoluzione temporale e l’ottimo stato di conservazione dei fossili” spiega il Prof. Renato Posenato dell’Università di Ferrara, uno dei co-autori dello studio.
“Nello studio sono stati considerati anche esemplari provenienti dalla Cina Meridionale che hanno confermato il significato globale dei cambiamenti ambientali che causarono l’estinzione” aggiunge il Dott. Claudio Garbelli, un altro co-autore dell’Università di Ferrara.
Comelicania, un grande brachiopode fossile di circa 252 milioni di anni fa del Permiano superiore (Paleozoico finale) delle Dolomiti
(Museo di Paleontologia e Preistoria “Piero Leonardi”, Sistema Museale di Ateneo, Università di Ferrara, foto R. Posenato).
Il gruppo di ricercatori ha applicato un nuovo metodo di analisi degli isotopi del boro e del carbonio sulle conchiglie di fossili marini ed è riuscito a ricostruire il pH degli antichi oceani.
“Il pH delle acque marine è un ottimo indicatore delle condizioni ambientali. Non solo fornisce informazioni sull’acidità delle acque, che ha un forte impatto sugli organismi marini, ma, poiché dipende dalla quantità di CO2disciolta nelle acque, permette di ricostruire le variazioni di anidride carbonica nell’atmosfera nel tempo", commenta la Dott.ssa Hana Jurikova, autrice principale dello studio.
Con il nuovo approccio, il gruppo di ricerca ha potuto determinare il meccanismo che ha innescato l’estinzione alla fine del Paleozoico, legandolo direttamente al rilascio di immense quantità di CO2 durante eventi di vulcanismoparossistico in quella che è oggi la Siberia.
Un modello estremamente sofisticato realizzato ad hoc ha poi permesso di studiare gli effetti di questa importante emissione di gas serra, e di simulare i processi avvenuti sulla Terra in quell’intervallo di tempo.
I risultati ottenuti mostrano che le emissioni di CO2 causarono non solo l’acidificazione degli oceani e un riscaldamento globale a livelli letali per la maggior parte degli organismi. Esse portarono anche a cambiamenti drammatici nei processi di alterazione delle terre emerse e nel ciclo dei nutrienti negli oceani e, infine, a condizioni di anossia che decimarono gli ultimi organismi sopravvissuti.
“Questa caduta a domino dei processi e dei cicli biogeochimici che sostengono la vita sul nostro pianeta ha quindi portato all'estinzione catastrofica di fine Paleozoico” riassume la Dott.ssa Jurikova.
“Lo studio multidisciplinare delle conchiglie dei brachiopodi fossili ha un potenziale enorme per accrescere le nostre conoscenze sulla coevoluzione della vita, dell’ambiente e del clima sul nostro pianeta e questo è possibile in grandi progetti di collaborazione internazionale come BASE-LiNE Earth” conclude la Prof.ssa Lucia Angiolini, responsabile dell’unità di ricerca dell’Università degli Studi di Milano nel progetto ‘BASE-LiNE Earth’ e co-autrice dello studio.
Il professor Renato Posenato insieme alla professoressa Lucia Angiolini.
Il lavoro è stato coordinato dal GEOMAR Helmholtz Centre for Ocean Research Kiel e da Helmholtz Centre Potsdam GFZ German Research Centre for Geosciences in collaborazione con l’Università degli Studi di Ferrara, l’Università di Milano e la Brock University (Canada). Questo studio è stato condotto nell'ambito del consorzio ‘BASE-LiNE Earth’ Innovative Training Network finanziato dalla Comunità europea (Horizon 2020 Marie Sklodowska-Curie research). I ricercatori italiani sono stati supportati anche dal Progetto PRIN 2017RX9XXY“Biota resilience to global change: biomineralization of planktic and benthic calcifiers in the past, present and future”.
Titolo originale dell'articolo: Permian-Triassic mass extinction pulses driven by major marine carbon cycle perturbations.
Autori: Jurikova H., Gutjahr M., Wallmann K., Flögel S., Liebetrau V., Posenato R., Angiolini L., Garbelli C., Brand U., Wiedenbeck M., Eisenahuer A.
Il disegno in copertina è stato realizzato da Dawid Adam Iurino PaleoFactory, Sapienza University of Rome: I gas derivanti dal vulcanismo siberiano causarono le variazioni ambientali e climatiche letali, come il riscaldamento globale, l’acidificazione e l’ anossia degli oceani, che ebbero effetti catastrofici sulla biosfera.
Lo ha individuato un team di astrofisici cogliendo una discrepanza tra alcune osservazioni astronomiche e i modelli teorici elaborati fino ad oggi riguardo la distribuzione della materia oscura negli ammassi di galassie.
Si tratta di una differenza, mai considerata prima ma molto significativa, nel comportamento della materia oscura su piccola scala, cioè all’interno delle singole galassie rispetto a quanto accade su larga scala, negli ammassi di galassie che le ospitano.
La scoperta è valsa la pubblicazione sulla rivista scientifica Science ed è stata possibile grazie ai dati raccolti dal Telescopio Spaziale Hubble (HST) della NASA/ESA e dal Very Large Telescope (VLT) in Cile.
Il lavoro è nato dalla collaborazione tra l’Università di Ferrara, diversi istituti dell’Istituto Nazionale di Astrofisica (INAF) tra cui l’Osservatorio di Astrofisica e Scienza dello Spazio (OAS) di Bologna e l’Università di Yale (Stati Uniti).
Lo studio della materia oscura è possibile grazie a strumenti indiretti, dal momento che per sua natura la materia oscura non è rilevabile da nessun tipo di interazione elettro-magnetica.
“Uno degli strumenti più efficaci per lo studio della materia oscura è l’effetto lente gravitazionale teorizzato dalla Relatività Generale di Einstein: è il fenomeno per cui, in presenza di una grande massa, lo spazio-tempo si incurva e il percorso effettuato dai raggi luminosi non è più rettilineo, creando un effetto del tutto simile a quello di una lente” spiega Piero Rosati, professore del Dipartimento di Fisica e Scienze della Terra dell’Università di Ferrara, tra gli autori dell’articolo su Science.
“Il nostro studio ha dimostrato che l’effetto lente gravitazionale legato alla presenza di materia oscura su piccola scala, cioè intorno alle singole galassie, sembra avere un comportamento anomalo rispetto a quanto accade su grande scala, negli ammassi di galassie” continua il professor Rosati.
“Su piccola scala, infatti, l’effetto lente gravitazionale sembra essere 10 volte più efficace rispetto a quanto hanno previsto fino ad ora i modelli di materia oscura” chiarisce Rosati.
“Gli ammassi di galassie sono laboratori ideali per capire se le simulazioni al computer dell’Universo riproducono in modo affidabile ciò che possiamo dedurre sulla materia oscura e la sua interazione con la materia ordinaria” aggiunge il professor Massimo Meneghetti dell’OAS, primo autore dell’articolo.
Il video, che trovate a questo link, rappresenta una schematizzazione dell'effetto di lente gravitazionale. Un ammasso di galassie agisce come una potente lente gravitazionale che devia i raggi di luce provenienti da una galassia distante, creando immagini fittizie dello stesso oggetto in diverse zone di cielo. In condizioni geometriche favorevoli si possono anche creare i cosiddetti “anelli di Einstein” intorno a singole galassie. Queste osservazioni permettono di fare una sorta di radiografia della distribuzione di massa dell’ammasso, costituito in gran parte di materia oscura.
Le osservazioni combinate del Telescopio Spaziale Hubble (HST) e del Very Large Telescope (VLT) hanno permesso di individuare un gran numero di immagini deformate, spesso addirittura multiple, di galassie situate dietro ogni ammasso e generate dall’effetto di lente gravitazionale.
“Grazie ai dettagli senza precedenti ottenuti con questo studio, abbiamo potuto elaborare dellemappe ad alta risoluzione della distribuzione di massa della materia oscura in ammassi di galassie. Inaspettatamente, abbiamo scoperto che la materia oscura contenuta nelle singole galassie appare più concentrata di quanto predetto dalle più avanzate simulazioni cosmologiche” racconta Rosati.
Meneghetti aggiunge: “Abbiamo condotto moltissimi test per verificare la validità dei nostri risultati, e abbiamo concluso che la discrepanza trovata tra osservazioni e teoria può essere spiegata dalla mancanza di qualche ingrediente fisico nei modelli cosmologici che descrivono la formazione delle strutture nell’Universo.”
La professoressa Priyamvada Natarajan del Dipartimento di Astronomia e Fisica all’Università di Yale negli Stati Uniti commenta il risultato con entusiasmo: “La discrepanza che abbiamo individuato è stata e continuerà ad essere molto stimolante. Se si guarda all’evoluzione delle idee scientifiche, sono questi tipi di lacune e anomalie che hanno rivelato la mancanza di qualcosa nella teoria attuale o indicato la strada verso un modello totalmente nuovo con un maggior potere esplicativo.”
Simulazione cosmologica della formazione di strutture nell’Universo. Credits: "collaborazione Illustris”
Il ruolo di Unife è stato particolarmente importante grazie al lavoro del professor Piero Rosati, che ha coordinato la campagna spettroscopia condotta con il Very Large Telescope (VLT) in Cile.
“Le osservazioni spettroscopiche sono la chiave per misurare le distanze delle galassie” commenta Rosati. “Così come accade per le lenti ordinarie, anche per ricostruire le proprietà di una lente gravitazionale dalle immagini che produce è essenziale conoscere le distanze tra osservatore e lente e tra lente e sorgente”.
L’analisi degli spettri delle galassie dell’ammasso, condotta assieme a Pietro Bergamini dell’OAS e Amata Mercurio dell’Osservatorio di Capodimonte (Napoli), si è rivelata cruciale per il progetto:
“Le osservazioni spettroscopiche della luce emessa da centinaia di galassie ci hanno permesso di individuare le galassie appartenenti ad ogni ammasso, mentre la misura della velocità delle stelle all’interno delle galassie ha reso possibile stimare la massa di ogni singola galassia e quindi la quantità di materia oscura presente” commentano Bergamini e Mercurio.
L’analisi delle simulazioni numeriche e l’interpretazione dei risultati teorici e’ anche opera di Francesco Calura, Ricercatore ferrarese all’INAF di Bologna, che aggiunge: “Nelle simulazioni cosmologiche si e' arrivati a modellare dettagli inimmaginabili fino a poco tempo fa, come la formazione di piccoli ammassi di stelle. Il nostro risultato evidenzia che ci sono ancora problemi molto importanti da risolvere”.
Alcuni dei coautori dell’articolo, tra cui lo stesso Pietro Bergamini, il cui lavoro di tesi ha ispirato la pubblicazione, sono stati studenti a Unife. Altri, come il professor Massimo Meneghetti e Francesco Calura, sono spesso visitor del Dipartimento di Fisica e Scienze della Terra di Ferrara, che ha una convenzione che facilita collaborazioni con il personale INAF (nel collage le foto degli autori che hanno o avuto a che fare con Unife).
Inoltre, i modelli fisico-matematici di lente gravitazionale sono stati elaborati con le strutture di calcolo del gruppo di Astrofisica di Unife, con il prezioso lavoro di ex-assegnisti di ricerca presso Unife, come Gabriel B. Caminha ed il supporto tecnico degli informatici del Dipartimento.
Il lavoro è stato anche finanziato dal PRIN-MIUR (2017WSCC32) di cui Piero Rosati è Principal Investigator (PI) nazionale, che oltre ad Unife raccoglie l’INAF, l’Università di Bologna e di Milano.
In alto, da sinistra: Piero Rosati, Gabriel B. Caminha, Massimo Meneghetti. In basso, da sinistra: Carlo Giocoli, Francesco Calura, Pietro Bergamini.
Il titolo originale dell’articolo è: An excess of small-scale gravitational lenses observed in galaxy clusters.
Le autrici e gli autori dell’articolo sono: Massimo Meneghetti, Guido Davoli, Pietro Bergamini, Piero Rosati, Priyamvada Natarajan, Carlo Giocoli, Gabriel B. Caminha, R. Benton Metcalf, Elena Rasia, Stefano Borgani, Francesco Calura, Claudio Grillo, Amata Mercurio, Eros Vanzella.
Proprio per esser preparati a questi scenari, da più di dieci anni vengono organizzate periodicamente esercitazioni che coinvolgono gruppi dotati di sistemi per il monitoraggio della radioattività mediante velivoli, provenienti da diversi paesi europei. Si tratta degli “International Intercomparison Exercises of Airborne Gamma-Spectrometric Systems", che quest'anno si sono svolti a Orange in Francia dal 14 al 18 ottobre.
Per la prima volta partecipa un gruppo italiano, costituito da giovani ricercatori e ricercatrici del Dipartimento di Fisica e Scienze della Terra dell'Università di Ferrarae dell’Istituto Nazionale di Fisica Nucleare (INFN), assieme a due team francesi, uno tedesco e uno della Repubblica Ceca.
Gli equipaggi hanno gareggiato in cinque esercitazioni utilizzando diversi elicotteri e spettrometri gamma in una sorta di caccia alla radioattività. Sono stati effettuati voli per l'identificazione in tempo reale di sorgenti radioattive collocate per l'occasione in posizioni ignote e per la caratterizzazione di zone interessante dal fallout del cesio radioattivo di Chernobyl nelle Alpi Marittime francesi. Al termine di ogni giornata i gruppi hanno condiviso e confrontato i dati raccolti.
Grazie all'esperienza maturata nel progetto ITALRAD (ITALian RADioactivity Project) dell’INFN, finanziato dal Ministero dell’Università e della Ricerca e coordinato dal Prof. Fabio Mantovani del Dipartimento di Fisica e Scienze della Terra di Unife, il gruppo italiano si è presentato con un velivolo innovativo in grado di effettuare misure di radioattività, ma anche capace di realizzare rilievi fotogrammetrici con risoluzione a terra dell'ordine del centimetro.
Si tratta di una strumentazione completamente automatizzata, che non richiede personale a bordo del velivolo. Tutte le fasi di volo sono state seguite in tempo reale dal personale a terra, in grado di controllare la telemetria, il funzionamento degli strumenti nonché vedere le riprese delle zone sorvolate.
"Siamo particolarmente orgogliosi delle innovazioni tecnologiche con le quali il team italiano si presenta a queste esercitazioni europee - afferma il Prof. Mantovani - Abbiamo cercato di semplificare, miniaturizzare e automatizzare ogni sistema puntando su agilità, leggerezza e controllo remoto. Basti pensare che il velivolo da noi utilizzato consuma solo 25 litri di carburante all’ora contro gli 700 dell’elicottero MI-17 del team della Repubblica Ceca. Inoltre, il nostro è l'unico che trasmette in tempo reale dati e immagini alla stazione di terra. Per il nostro team questa esperienza è un banco di prova fondamentale per verificare l'affidabilità della strumentazione e confrontarci con squadre molto più esperte di noi.”
Grazie a una fruttuosa sinergia tra INFN, Università di Ferrara e numerose aziende private, il team italiano ha saputo valorizzare il know-how maturato nelle ricerche di base sui neutrini, aprendo le porte a numerose applicazioni che spaziano dall'homeland security all'agricoltura di precisione, con ricadute tecnologiche che si inseriscono nel frameworkdell'Industria 4.0.
]]>
l progetto viene svolto a Ferrara dal Consorzio Futuro in Ricerca sotto la responsabilità scientifica del Prof. Paolo Ciavola, Ordinario del Dipartimento di Fisica e Scienze della Terra di Unife e coinvolge oltre che alla Dott.ssa Clara Armaroli, vari assegnisti Unife tra cui il Dott. Tomas Momblant ed il Dott. Enrico Duo.
Dal 29 al 30 ottobre prossimo CFR ed Unife organizzano a Bruxelles (Belgio) la conferenza finale del progetto (http://anywhere-h2020.eu/final-conference/) che consiste nel 4° Workshop.
]]>
Lo European Research Council ha assegnato a Fiorini, ricercatore del Dipartimento di Fisica e Scienze della Terra di Unife e associato con incarico di ricerca dell’Istituto Nazionale di Fisica Nucleare (INFN), un grant di circa 2 milioni di euro. Il fisico ferrarese sarà il Principal Investigator di 4DPHOTON, progetto della durata di 5 anni e che metterà in campo scienziati dell'INFN, di Unife e del CERN di Ginevra.
4DPHOTON (Beyond Light Imaging: High-Rate Single-Photon Detection in Four Dimensions), prevede lo sviluppo di uno strumento innovativo in grado di rivelare fotoni singoli nel tempo e nello spazio (rivelazione in 4 dimensioni) con risoluzioni combinate mai ottenute in precedenza. Il rivelatore sarà in grado di localizzare fotoni con risoluzioni spaziali di alcuni micrometri e risoluzioni temporali di poche decine di picosecondi, con flussi fino a 1 miliardo di fotoni al secondo con un rumore di fondo trascurabile.
“In pratica – spiega Fiorini - sarà come realizzare una macchina fotografica digitale ad altissima risoluzione temporale: una fotocamera normale accumula i fotoni in ogni singolo pixel per un “lungo” intervallo di tempo, mentre il nuovo dispositivo sarà in grado di misurare ogni singolo fotone con precisione temporale di frazioni di miliardesimo di secondo!”
L’acquisizione e l’interpretazione delle immagini sono strumenti fondamentali per effettuare nuove scoperte in molte discipline scientifiche. La natura quantistica della luce impone l’esistenza di un limite ultimo di rivelazione: il singolo fotone. Se fossimo in grado di misurare ogni singolo fotone emesso con grandissima precisione temporale e spaziale allora sarebbe possibile determinare l’informazione completa su una sorgente luminosa. “I rivelatori attualmente disponibili tuttavia non sono in grado di farlo: o hanno risoluzioni spaziali eccellenti ma sono lenti, o sono veloci ma con scarsa risoluzione spaziale, o sono molto rumorosi”, spiega Massimiliano Fiorini. “L’obiettivo di 4DPHOTON è colmare il gap tecnologico esistente: questo rivelatore avrà un grande impatto in tutte quelle discipline in cui è necessario misurare con grande precisione posizione e tempo di singoli fotoni simultaneamente, come, ad esempio, in fisica delle alte energie e in biologia, ma non solo”.
Il cuore di questo strumento è rappresentato da un circuito integrato sviluppato in tecnologia CMOS a 65 nm, in grado di processare i segnali e di effettuare la misura della posizione e del tempo utilizzando centinaia di migliaia di canali elettronici che lavorano in modo indipendente, producendo un flusso di dati massimo in uscita pari a circa 80 Gbps (equivalente al trasferimento dei dati contenuti in circa 15 CD-ROM ogni secondo).
Nel progetto è prevista l’applicazione del nuovo rivelatore nei futuri esperimenti agli acceleratori di alta energia (ad esempio nella fase ad alta luminosità del Large Hadron Collider del CERN) e permetterà ad esempio di identificare gli adroni carichi se utilizzato in un rivelatore di tipo RICH (Ring Imaging Cherenkov). Con l’aumento di luminosità degli acceleratori e il conseguente aumento del numero di particelle che si accumulano nei rivelatori, l’aggiunta della coordinata temporale a livello di decine di picosecondi è di fondamentale importanza per poter associare le particelle che provengono dallo stesso evento (e che arrivano simultaneamente) e scartare quelle che appartengono a eventi diversi e quindi arrivano fuori tempo.
Inoltre, il rivelatore verrà utilizzato nel campo della microscopia di fluorescenza per esplorare nuove tecniche di imaging, grazie alla combinazione unica delle eccellenti risoluzioni temporale e spaziale in un unico strumento capace di rivelare fotoni singoli ad alto rate. Questo rivelatore verrà utilizzato, ad esempio, per misurare la vita media dei marcatori fluorescenti, e distinguere quindi tra diversi marcatori che abbiano spettri di fluorescenza simili ma diverse vite medie. Inoltre permetterà di studiare l’evoluzione temporale di processi biochimici su tempi scala di decine di picosecondi, aprendo possibili nuovi scenari di ricerca.
]]>
Questa release finale segue quella iniziale del 2013, annunciata dagli Headquarters di ESA a Parigi con il professor Nazareno Mandolesi e il professor Paolo Natoli a rappresentare l'Università degli Studi di Ferrara, e quella intermedia del 2014, annunciata in diretta mondiale proprio da Palazzo Ludovico il Moro a Ferrara.
“Il satellite Planck ha misurato la prima luce emessa nell'Universo dopo il Big Bang, cioè la radiazione di fondo cosmico” spiega il professor Paolo Natoli. “Questa missione ci lascia in eredità la misura più accurata dei parametri cosmologici che descrivono l'evoluzione del nostro Universo, ponendo limiti stringenti sulla possibilità che esistano teorie alternative al cosiddetto modello standard della Cosmologia basato sulla relatività generale di Einstein”.
"Da questo punto di vista” continua il professor Nazareno Mandolesi, “Planck ci lascia con una speranza: la sua misura della velocità di espansione dell'Universo, la cosiddetta costante di Hubble, è la più precisa mai realizzata, e risulta in forte tensione con le misure dirette basate sull'Universo locale".
"Questa discrepanza" conclude il professor Massimiliano Lattanzi "potrebbe celare un indizio di nuova fisica oltre il modello standard". Solo le osservazioni future, in particolare quelle di un satellite post Planck in fase di studio con forte partecipazione dei ricercatori Unife, potranno svelare l'arcano.
Il team Unife che ha lavorato ai dati del Planck è guidato dal professor Paolo Natoli del dipartimento di Fisica e Scienze della Terra, ed è composto da Nazareno Mandolesi, professore a contratto di Unife e Principal Investigator dello strumento LFI di Planck, il dottor Massimiliano Lattanzi della sezione INFN di Ferrara (e docente a contratto di Unife), i dottori Francesco Forastieri, Diego Molinari e la dottoressa Linda Polastri di Unife. A partire dal prossimo settembre, anche il dottor Luca Pagano, ricercatore Unife che ha lavorato a Planck fino ad oggi dall'institute d'Astrophysique Spatiale di Parigi, farà parte del gruppo.
Paolo Natoli e Nazareno Mandolesi sono tra i vincitori del Gruber Cosmology prize 2018, proprio per il loro contributo a Planck.
La press release dei dati legacy di Planck è annunciata in Italia anche dall'Istituto Nazionale di Astrofisica e dall'Agenzia Spaziale Italiana.
Il link per scaricare gli ultimi dati di Planck e gli articoli scientifici è: https://www.cosmos.esa.int/web/planck/publications.
]]>Il Gruber Prize viene assegnato annualmente a ricercatori il cui lavoro abbia determinato un progresso fondamentale nella conoscenza e nella cultura, ed è accompagnato da una dotazione di 500.000 dollari.
Il prof. Nazzareno Mandolesi, docente a contratto di Unife, è il Principal Investigator di uno dei due strumenti scientifici a bordo del satellite Planck, una missione dell'Agenzia Spaziale Europea (ESA) che ha osservato la radiazione cosmica di fondo, la luce residua del big bang da cui ha avuto inizio l'Universo.
Al team di Planck partecipa il gruppo di Cosmologia del Dipartimento di Fisica e Scienze della Terra di Unife, guidato dal prof. Paolo Natoli, assieme ai collaboratori Massimiliano Lattanzi, Diego Molinari e Francesco Forastieri, oltre che al prof. Nazzareno Mandolesi.
Gli ultimi risultati di Planck sono stati annunciati durante un convegno internazionale tenutosi proprio a Ferrara nel dicembre 2014.
]]>Rilevare un’area così distante da noi è stato possibile combinando la nitidezza delle immagini del telescopio spaziale Hubble con un particolare effetto lente di ingrandimento cosmologico”, spiega Rosati. “Abbiamo sfruttato un ammasso di galassie che si trova lungo la linea di vista tra noi e la stella e che, proprio per la sua posizione, ha agito come una potente lente gravitazionale naturale che ha amplificato la visione di quell’area dell’universo”.
Rilevare un’area così distante da noi è stato possibile combinando la nitidezza delle immagini del telescopio spaziale Hubble con un particolare effetto lente di ingrandimento cosmologico”, spiega Rosati. “Abbiamo sfruttato un ammasso di galassie che si trova lungo la linea di vista tra noi e la stella e che, proprio per la sua posizione, ha agito come una potente lente gravitazionale naturale che ha amplificato la visione di quell’area dell’universo”. L'ammasso di galassie che è servito da lente gravitazionale è denominato MACS J1149 +2223, mentre la stella risulta essere una supergigante blu molto più grande, massiccia e luminosa del Sole, del tutto simile alla stella Rigel nella costellazione di Orione.
"Lo studio delle cosiddette lenti gravitazionali, descritto accuratamente dalla relatività generale di Einstein, ci permette di studiare in dettaglio la distribuzione di questi “ammassi- lente”, composti per il 90% da materia di forma oscura" precisa l'astrofisico “Ciò è importante per la Fisica Fondamentale perché la materia oscura sfugge ancora alla nostra comprensione. Non emettendo radiazioni elettro-magnetiche, infatti, con certezza sappiamo solo che la sua natura è completamente diversa rispetto a quella familiare fatta di atomi e particelle note”.
L’effetto di ingrandimento gravitazionale, chiamato microlensing, era già stato sfruttato per scoprire nuove stelle e numerosi pianeti extrasolari nella nostra galassia, cioè a distanze di “solo” decine di migliaia di anni luce. L’effetto di lente gravitazionale combinato (ammasso + microlensing) ha amplificato la stella Icarus di circa 2000 volte, permettendo così la sua scoperta nonostante la sua luce sia stata emessa quando l’Universo aveva solo il 30% della sua età attuale (4,4 miliardi di anni dopo il Big Bang).
Conclude il professor Rosati: “L’imminente lancio del James Webb Space Telescope, successore di Hubble, darà un ulteriore impulso a questi studi, permettendoci probabilmente di rivelare le prime stelle dell’Universo, solo qualche centinaio di milioni di anni dopo il Big Bang”.
Il gruppo di ricerca coordinato dal professor Rosati, in collaborazione con Claudio Grillo dell’Università Statale di Milano e ricercatori dell’Istituto Nazionale di Astrofisica, ha studiato in dettaglio negli ultimi anni gli ammassi lenti gravitazionali oggetto dei recenti articoli su Nature Astronomy, avvalendosi anche di osservazioni spettroscopiche da terra del Very Large Telescope dell’ESO(European Southern Observatory).
Gli articoli sono consultabili ai seguenti link:
Press release NASA-ESA (comunicato stampa NASA-ESA)
https://www.nature.com/articles/s41550-018-0430-3 (stella più distante)
https://www.nature.com/articles/s41550-018-0416-1 (presentazione delle scoperte su Nature Astronomy).
]]>
Un team di ricercatori dell’Infn e del Dipartimento di Fisica e Scienze della Terra dell’Università di Ferrara ha analizzato con la tecnica della radiografia digitale il dipinto “Paolo e Francesca” di Gaetano Previati, tra le opere più famose dell’artista, attualmente esposto nella mostra “Stati d’animo - Arte e Psiche tra Previati e Boccioni” allestita al Palazzo dei Diamanti a Ferrara.
Il lavoro di analisi, che sarà presentato al Salone internazionale del Restauro dal 21 al 23 marzo, è stato eseguito con la tecnica della radiografia digitale con uno scanner per diagnostica radiografica in situ costruito e progettato grazie alla collaborazione tra Dipartimento di Fisica e Scienze della Terra dell’Università di Ferrara e la sezione INFN di Ferrara. Dalle radiografie digitali scattate, oltre mille, emerge la storia nascosta del dipinto.
Il prof. Ferruccio Petrucci e la dott.ssa Anna Impallaria, del Laboratorio di Archeometria della nostra Università, rispondono ad alcune domande sulla tecnica radiografica usata.
Ma perché radiografare un dipinto?
Si fanno radiografie di dipinti per scoprire altri dipinti nascosti, coperti da ridipinture successive, o più semplicemente per ricostruire la tecnica pittorica usata dall’artista. Nel caso del “Paolo e Francesca” volevamo proprio approfondire la struttura dello strato pittorico.
E siete stati sorpresi dai risultati dell’indagine radiografica?
Certo: non capita spesso di trovare un gran numero di cambiamenti nella impostazione di un grande dipinto. Il “Paolo e Francesca” misura 2.60 x 2.30 metri. I “pentimenti” dell’autore sono stati eseguiti in corso d’opera. Noi vediamo ancora i pigmenti usati nella prima redazione del dipinto perché sono più opachi alla radiazione X di quelli usati, successivamente, per modificare la posizione dei volti dei personaggi, per cambiare la disposizione delle figure di contorno, per coprire la “pioggia” che, per quanto descritta dal testo dantesco, Previati ha deciso di mascherare.
È stato necessario ricorrere ai raggi X per avere questa osservazione?
Sì, solo con la radiografia X abbiamo potuto osservare chiaramente questi pentimenti, anche se l’immagine in luce infrarossa, ottenuta con lo scanner dell’Istituto di Ottica Applicata del CNR di Firenze, ha pure suggerito diversi indizi. Il potere dei raggi X – quelli stessi che vengono usati in Radiologia Medica – di attraversare la materia, è ben noto: noi abbiamo sviluppato uno strumento utile per le applicazioni ai dipinti, anche grandi, come questo.
Le dimensioni del dipinto hanno posto particolari problemi?
Se non è un problema raccogliere immagini radiografiche per 6 giorni interi, no: nessun problema! In realtà, ogni “scatto” radiografico dura circa 20 secondi, ma raccoglie l’immagine di un pezzetto del dipinto di circa 10x10 centimetri. Per “coprire” tutta la superficie sono stati necessari più di 1100 scatti e il conseguente impegno di 5 persone, distribuite nei vari turni giornalieri. Il gruppo del laboratorio di archeometria, come spesso succede, ha coinvolto una ulteriore collaboratrice, oltre che una laureanda e una stagista.
È possibile avere una breve descrizione dello strumento?
Lo strumento che abbiamo progettato e costruito a Ferrara, in collaborazione tra Dipartimento di Fisica e Scienze della Terra, Sezione INFN e Laboratorio TekneHub, esegue varie operazioni: fa scattare il generatore di raggi X, attiva il rivelatore digitale, salva l’immagine su computer, sposta poi generatore e rivelatore per prepararsi all’immagine successiva. Tutte le operazioni sono controllate e temporizzate da computer e alla fine non resta che unire le immagini ottenute e memorizzate e ricostruire il mosaico dell’intera radiografia. Si tratta quindi di uno scanner, che necessariamente deve operare in automatico: gli operatori, per la loro stessa sicurezza, sono lontani e controllano lo svolgersi delle operazioni in remoto.
Perché serve il controllo da parte di operatori?
Anche se l’irraggiamento con raggi X avviene necessariamente senza nessun operatore nelle vicinanze, gli spostamenti di apparecchi come il generatore e il rivelatore, a pochi centimetri dal dipinto, deve essere comunque frequentemente controllato.
Perché costruire una attrezzatura del genere?
Per rispondere alle precise esigenze dei Beni Culturali. Anzitutto, perché non esiste una dimensione “standard” di un dipinto. Si va da pochi centimetri a decine di metri quadrati. Poi: le opere d’arte non si spostano con facilità, è più pratico spostare le attrezzature per eseguire le diagnostiche “in situ”, come è avvenuto anche in questo caso. Infine: serve una buona definizione dell’immagine: anche se il dipinto è grande occorre poter distinguere dettagli di un decimo di millimetro.
Ci sono anche altri vantaggi?
Sì. Uno per tutti: poter correggere le immagini sul computer in modo da attenuare l’effetto di parti aggiunte, come il telaio in una tela, la presenza dei traversi in un dipinto su tavola. Quando le radiografie erano esclusivamente su lastra fotografica queste possibilità non c’erano: è uno dei grandi vantaggi della radiografia digitale.
Il dipinto - Paolo e Francesca, di Gaetano Previati, 1909, Olio su tela, cm 230 x 260. L’opera ritrae il volo di Paolo e Francesca, i due amanti la cui tragica vicenda è narrata nel canto V dell’Inferno della Divina Commedia.
Lo strumento utilizzato per le analisi
]]>
Ora, una collaborazione nazionale comprendente un team di fisici dell’Università degli Studi di Ferrara, con responsabile locale il prof. Luca Tomassetti, sta sviluppando un rivelatore di particelle ad altissima sensibilità, che contribuirà a gettare ulteriore luce su questa misteriosa componente del nostro Universo.
Spiega il Prof. Roberto Calabrese, Direttore del Dipartimento di Fisica e Scienze della Terra di Unife: "Nella comunità scientifica internazionale vi è molto fermento per la realizzazione di nuovi esperimenti che permettano di fare luce sulla Dark Matter. Sono esperimenti che utilizzano tecnologie molto avanzate sviluppate in diversi ambiti della fisica, come gli apparati presenti nei laboratori sotterranei del Gran Sasso dell'Istituto Nazionale di Fisica Nucleare (INFN)”.
Il miglioramento di tali tecnologie rappresenta una sfida continua per gli scienziati di tutto il mondo.
“Una grossa difficoltà è data dalla piccolissima sezione d'urto che dovrebbe caratterizzare i processi di interazione della materia oscura con la materia ordinaria. Tale sezione richiede lo sviluppo di rivelatori ultra-sensibili”. illustra Calabrese “Il nuovo rilevatore che stiamo sviluppando è costituito da un nucleo di gas inerte solidificato a temperature particolarmente basse, sondato da speciali fasci laser che consentono di “interrogare” il materiale e di studiare eventuali interazioni con la Dark Matter”.
I primi risultati relativi alla tecnologia sviluppata sono stati pubblicati sulla rivista “Review of Scientific Instruments” e
sono il frutto del lavoro dei fisici Roberto Calabrese, Marco Guarise, Eleonora Luppi, Alen Khanbekyan e Luca Tomassetti dell'Università di Ferrara, in collaborazione con i colleghi delle Università di Padova, Siena e dei Laboratori Nazionali di Legnaro dell’INFN.
Questi risultati sono stati menzionati nell’ultimo numero di "Scilight", la prestigiosa rivista americana che mette in evidenza i risultati scientifici di maggior interesse per l'American Institute of Physics.
Highlight
http://aip.scitation.org/doi/10.1063/1.5013129
Articolo completo
]]>L'esistenza di questa particella della famiglia dei barioni (ossia composti da tre quark) era attesa dalle teorie attuali, ma i fisici sono stati alla ricerca di questi barioni con due quark pesanti per molti anni. La massa della particella recentemente identificata è di circa 3621 MeV, quasi quattro volte più pesante del barione più familiare, il protone, una proprietà derivante dal fatto che la nuova particella contiene due quark charm, che sono appunto quark pesanti.
È la prima volta che questa particella viene individuata con certezza. Trovare un barione con due quark pesanti è di grande interesse perché può fornire uno strumento unico per approfondire la cromodinamica quantistica, la teoria che descrive l'interazione forte, una delle quattro forze fondamentali. La sua osservazione inoltre apre la strada alla ricerca di tutta una famiglia di nuove particelle, contenenti più di un quark pesante nelle varie possibili combinazioni.
Questa scoperta è stata possibile grazie alla grande quantità di quark pesanti che viene prodotta dall'acceleratore LHC (Large Hadron Collider) e all'elevatissima precisione di ricostruzione e di identificazione delle particelle che caratterizza l'esperimento LHCb.
Alla collaborazione LHCb partecipa attivamente un gruppo di fisici dell'Università di Ferrara (Roberto Calabrese, Eleonora Luppi, Luca Tomassetti, Massimiliano Fiorini, Luciano Pappalardo) e della sezione di Ferrara dell'Istituto Nazionale di Fisica Nucleare (Wander Baldini, Concezio Bozzi, Stefania Vecchi). Completano il gruppo tecnologi, tecnici, giovani dottorandi e assegnisti. Il gruppo di Ferrara è fortemente coinvolto in numerose e importanti attività all'interno della collaborazione LHCb, riguardanti sia la gestione della attuale presa dati (che terminerà nel 2018) che le attività di miglioramento e ottimizzazione previste per la futura presa dati ad alta luminosità, che inizierà nel 2020.
]]>E' l'obiettivo di SAMCODE - acronimo di “Sustainable Approach to Managing Construction and Demolition Waste" - il progetto di ricerca coordinato dal Prof. Gianluca Bianchini insieme al Dr. Claudio Natali del Dipartimento di Fisica e Scienze della Terra dell'Università di Ferrara.
Svolto in collaborazione con due partner macedoni, l'ONG Gaya e l'Institute for Research in Environment, Civil Engineering and Energy (IECE) di Skopje, il progetto ha lo scopo di analizzare la composizione chimica dei rifiuti da demolizione, generalmente costituiti da un mix di elementi in laterizio e calcestruzzo, e verificarne la potenzialità come materie prime riciclate, per poterle quindi utilizzare al posto di materie prime naturali quali sabbia o ghiaia.
"La problematica è di attualità non solo per la Macedonia, ma anche per il nostro Paese. I rifiuti da demolizione, infatti, generalmente vengono conferiti con costi onerosi in discarica, ma potenzialmente possono essere riutilizzati al posto di inerti quali sabbia e ghiaia." spiega Gianluca Bianchini. "Il corretto riciclaggio di questi materiali potrebbe dunque diminuire problematiche ambientali, come l'escavazioni negli alvei dei fiumi o l'apertura di cave in aree montuose, collegate al reperimento di inerti naturali".
"Presso il Dipartimento di Fisica e Scienze della Terra eseguiremo una caratterizzazione chimica dei materiali raccolti e censiti dai partner macedoni in alcuni siti della Macedonia. Grazie all'utilizzo di molteplici strumenti analitici presenti nell’Ateneo, saranno analizzati gli elementi principali ed in traccia per verificare l’assenza di componenti potenzialmente tossici che possono precluderne il riutilizzo" conclude Claudio Natali.
Il progetto è finanziato nell'ambito del Know-how Exchange Programme (KEP) del Central European Initiative (CEI), il più esteso ente di cooperazione nell'Europa Centrale, Orientale e Balcanica con sede a Trieste, che supporta l'integrazione europea attraverso il finanziamento di progetti internazionali presentati da enti pubblici e privati di Austria, Bulgaria, Croazia, Repubblica Ceca, Ungheria, Italia, Polonia, Romania, Slovacchia, Slovenia, Albania, Bosnia Erzegovina, Moldavia, Montenegro, Serbia e Ucraina.
]]>Gli scienziati non sono ancora in grado di spiegare come ciò sia accaduto e il mistero viene affrontato sperimentalmente in vari modi, complementari tra loro.
Sulla stazione spaziale ISS, ad esempio, si stanno cercando nuclei di antimateria che possano provenire da regioni lontane dell’Universo, mentre all'LHC del CERN si accelerano particelle ad altissima energia per produrre antimateria in laboratorio e studiare minuscole asimmetrie di comportamento tra materia ed antimateria.
Ma esiste anche una terza via ed è quella perseguita dal lavoro di un gruppo di ricercatori del Dipartimento di Fisica e Scienze della Terra di Unife, coordinato da Paolo Lenisa.
Il progetto, svolto in collaborazione con l’Università di Aquisgrana e il Centro di Ricerca di Juelich, si è recentemente aggiudicato un finanziamento di 2.5 milioni di euro, un ERC-Advanced Grant che la Commissione Europea riserva a proposte scientifiche di eccellenza.
Specifica Lenisa: “La nostra via di investigazione, che richiede investimenti e personale decisamente inferiori ai metodi tradizionali, presenta un potenziale di scoperta egualmente straordinario. E’ la via delle misure di precisione di grandezze fisiche particolari, come il momento di dipolo elettrico del protone, che rappresenta una separazione tra centri di carica positiva e negativa nel volume della particella. La presenza di un momento di dipolo elettrico, anche minimo, in un protone indicherebbe una violazione di una delle simmetrie fondamentali della natura e potrebbe contribuire a spiegare l’asimmetria tra materia ed antimateria. Sono misure assai delicate, che richiedono una precisione che va ben oltre la nostra capacità sensoriale. Per farsene un’idea, si pensi di prendere un protone ed estenderlo fino a farlo diventare delle dimensioni della Terra: in questa situazione, un momento di dipolo elettrico come quello che si intende misurare corrisponderebbe ad una separazione di carica inferiore al diametro di un capello!”.
Conclude Lenisa: “ Un importante riconoscimento, che testimonia come sia possibile fare ricerca di eccellenza anche in atenei di non grandi dimensioni come il nostro. E’ un tipo di attività che si sviluppa solo in ambienti con ampia libertà intellettuale e mi fa piacere ricordare che sia già il secondo ERC-Advanced Grant ottenuto dalla nostra linea di ricerca. Un risultato forse unico a livello nazionale, che premia la qualità e le competenze dei ricercatori ferraresi anche in ambito internazionale”.
http://www.estense.com/?p=543179
http://www.ferraraitalia.it/da-unife-una-terza-via-per-indagare-il-big-bang-88398.html
]]>