accastampato
  • Chi siamo
  • Blog
  • Contatti
  • Scarica la rivista

accastampato

  • Chi siamo
  • Blog
  • Contatti
  • Scarica la rivista
Sulle ali di Dedalo
Il resto del neutrino

Sulle ali di Dedalo

written by Redazione
This entry is part 4 of 7 in the series numero 3

Laboratori su laboratori, relazioni su relazioni, al terzo anno di università ci siamo chiesti se fossimo finalmente pronti per un esperienza fuori dagli schemi, anzi, fuori dai laboratori: costruire un piccolo apparato sperimentale da mandare a 30 mila metri di quota con l’ausilio di un pallone aerostatico per effettuare misurazioni ed esperimenti. La tecnologia necessaria c’è, conoscenze sufficienti pure: il Progetto Dedalo ha potuto prendere così il volo lo scorso 20 Maggio 2010 grazie alla passione e all’impegno di Riccardo Marrocchio, Francesco D’Ambra, Alessandro Bernardini, Valerio Di Cicco e mio, cinque appassionati studenti di fisica al terzo anno del corso di laurea triennale.

I pionieri degli esperimenti ad alta quota

Nel 1782 i fratelli Montgolfier inventavano la mongolfiera e poco dopo iniziavano i primi viaggi scientifici per esplorare l’atmosfera. Il primo fu il bostoniano John Jeffries che il 30 Novembre del 1784 sorvolò con Jean Blanchard il canale inglese (a Boston) con una mongolfiera in un viaggio di 21 minuti circa, con il presidente Thomas Jefferson ad osservarli da terra. Sulla mongolfiera avevano un barometro e altri strumenti per misurare pressione e temperatura, oltre che un dispositivo per raccogliere campioni d’aria da analizzare in seguito. Nel 1804 i francesi Gay-Lussac e Jean-Baptiste Biot arrivarono, con la loro mongolfiera piena di idrogeno, fino a una altezza di 7000 metri, portando anch’essi campioni d’aria rarefatta. Quindi i primi veri e propri esperimenti si fecero con mongolfiere e uomini a bordo. Fu solamente dopo il tragico incidente del 1785, che portò alla morte gli scienziati Joseph Croce-Spinelli e Theodore Sivel, che si iniziarono a lanciare nell’atmosfera palloni senza equipaggio.

Un’idea che inizia a prendere forma

Al giorno d’oggi i nostri cieli sono perennemente occupati da questi palloni aerostatici. Basti pensare che in Italia ogni giorno vengono fatti volare decine di palloni sonda (così vengono chiamati) gestiti dal Centro Nazionale di Meteorologia e Climatologia Aeronautica, per raccogliere appunto dati meteorologici. Lo sviluppo tecnologico e industriale ha poi permesso negli ultimi anni la diffusione di strumentazione a basso costo che permette il lancio di semplici palloni sonda anche a livello amatoriale. Basta fare infatti una rapida ricerca su Internet per accorgersi di quante persone si siano già cimentate nell’impresa sempre più diffusa di spedire fino a 20000 metri di quota un pacco contenente una semplice fotocamera, per riprendere straordinarie immagini della stratosfera e della Terra vista dall’alto.

Nella seconda metà di maggio i miei colleghi ed io ci siamo chiesti se fosse possibile fare qualcosa di simile non solo per andare a caccia di immagini e video “stratosferici”, ma anche per effettuare piccoli esperimenti. È nato così il Progetto Dedalo, un progetto con il quale ci siamo prefissati lo scopo di costruire e programmare una piccola piattaforma in grado di ospitare esperimenti scientifici di vario tipo (meteorologia, fisica dell’atmosfera, astrofisica, ecc.).

La piattaforma vista da vicino

La piattaforma base sarà equipaggiata con dei sensori che permetteranno di registrare le condizioni ambientali (temperatura, pressione, umidità, altitudine) e con delle apparecchiature per la geolocalizzazione e la trasmissione di dati a terra. Il tutto sarà gestito da un microcontrollore open-source chiamato Arduino, visibile qui sopra, dalle dimensioni ridotte e dalle prestazioni sufficientemente elevate per gestire l’intero sistema (vedi Box).

Attualmente abbiamo assemblato i circuiti per i sensori, il modulo GSM per la comunicazione e tutta la relativa parte software. Inoltre abbiamo costruito un prototipo di contenitore in polistirolo e ne abbiamo verificato la tenuta ponendolo in un thermos contenente ghiaccio secco. Il risultato è stato rassicurante: i circuiti non avranno nulla da temere per il freddo che incontrerà la piattaforma a circa 15000 metri (circa -55°C)!

Finora la parte più difficile è stata la disperata ricerca di una qualche normativa che regolamentasse in maniera precisa il lancio di palloni sonda. Grazie al contributo dell’ENAC (Ente Nazionale Aviazione Civile) e dell’AeCI (Aero Club d’Italia) siamo riusciti a trovarla e attualmente siamo in possesso di tutta la documentazione che, una volta compilata, ci permetterà di effettuare il lancio. La documentazione include un modulo con la quale l’ENAC emetterà un bollettino (chiamato NOTAM, NOtice To AirMen) che avviserà tutti gli aeromobili del passaggio del nostro pallone. Inoltre, secondo le regole dell’aria, il peso ridotto della piattaforma (circa 500 g) ci esonera dall’installare un transponder (e quindi di fare ulteriori spese).

Le simulazioni di volo

Prototipo da testare a bordo di un pallone vincolato a terra da un filo di 500 m. L’involucro di polistirolo protegge la strumentazione dalle basse temperature. Alcuni circuiti sono ancora sulla basetta di prototipazione.

La domanda che ci viene posta più spesso è ma siete sicuri che non ricadrà in zone abitate? In effetti questo è stato il primo problema che ci siamo posti ed è proprio per questo che abbiamo scelto in maniera accurata il giusto paracadute e ci siamo informati approfonditamente riguardo tutti i lanci che sono stati effettuati in precedenza dai fotografi stratosferici. Uno di questi ci ha consigliato un software, chiamato Balloon Trajectory Forecast, creato da alcuni ricercatori dell’Università del Wyoming, il quale è in grado di effettuare una simulazione del volo di un pallone sonda una volta impostati i parametri necessari. Le simulazioni ci hanno permesso di scegliere un luogo sicuro per il lancio in Toscana, che oltretutto era già stato utilizzato da altri lanciatori amatoriali che hanno usato lo stesso software.

Pronti per il lancio!

La nostra prima piattaforma, che chiameremo DedaloOne, sarà lanciata nella primavera del 2011 ed effettuerà un volo di prova, senza alcun esperimento a bordo. Se tutto andrà secondo i piani i lanci successivi faranno da ascensore per i primi esperimenti. Non ci resta che darci da fare, completando la piattaforma, installandovi il modulo GPS e le ultime strumentazioni. Sul nostro blog è possibile seguire settimana dopo settimana tutte le fasi della costruzione e i risultati dei vari test. Per un aggiornamento più immediato siamo anche su Facebook e chiunque fosse interessato a chiedere un passaggio per il proprio esperimento non deve fare altro che contattarci all’indirizzo mail progettodedalo@aol.it per avviare una possibile collaborazione.

Il nostro motto? Duc In Altum! Punta in alto!

Aprile 2, 2018 0 comment
0 Facebook Twitter Google + Pinterest
Dai quark ai cristalli
Le Spalle dei Giganti

Dai quark ai cristalli

written by Redazione
This entry is part 3 of 7 in the series numero 3

Giuliano Preparata è a tutt’oggi un fisico poco conosciuto, benché fin dai suoi primi anni universitari in molti già scommettevano su una sua fiorente carriera scientifica. Nel suo periodo di formazione brucia infatti tutte le tappe: si laurea con un grande fisico teorico italiano, Raoul Gatto, e come racconta nel suo libro “Dai quark ai cristalli” [1] già dopo un mese e mezzo dal loro primo incontro risolve un problema degno di pubblicazione e praticamente finisce la tesi. Anche la sua carriera accademica successiva procede a tappe forzate: dopo la laurea pubblica più di quindici articoli scientifici l’anno e dopo due anni, all’età di venticinque, è chiamato a Princeton come research associate. Si butta con passione nella ricerca in quel campo della fisica che durante gli anni ’60 e ’70 attraversa un periodo d’oro, quello che tratta direttamente i costituenti ultimi della materia: la fisica delle particelle.

Figura 1 – Giuliano Preparata (in primo piano) con Emilio Del Giudice (sullo sfondo). Da membri.miglioriamo.it.

Già a trent’anni è uno scienziato molto stimato nel suo campo, ma gli scontri con molti colleghi fanno ben presto scendere le sue quotazioni nell’ambito della comunità scientifica. Propone teorie alternative a quelle che iniziano a prendere piede nella maggioranza della comunità scientifica e a queste ultime si oppone con forza, con veemenza, con la stessa passione, quasi ossessione come viene spesso ricordato, che guida tutta la sua ricerca scientifica. Nonostante abbia contribuito notevolmente alla costruzione del Modello Standard, la teoria comunemente accettata dalla comunità scientifica per descrivere le particelle e le interazioni fondamentali della natura, ne critica aspramente alcune incongruenze fino a considerarlo un approccio utile tutt’al più a salvare i fenomeni, più che ad avvicinarsi a una comprensione ultima della Natura, a quella che nella sua visione profondamente realista del mondo si può chiamare la verità.

A partire dal Modello Standard i suoi interessi cambiano con gli anni: una volta considerata conclusa la comprensione dei mattoncini della materia, inizia a lavorare per ricostruirla nella sua interezza. Anche in questo campo della fisica, che generalmente viene chiamato della Materia Condensata, apporta notevoli elementi di assoluta originalità, utilizzando gli strumenti acquisiti durante il suo studio delle interazioni e particelle fondamentali per descrivere il comportamento delle molte particelle che compongono la materia che osserviamo.

La fine della sua carriera scientifica è strettamente legata a una vicenda che negli anni ’80 ha avuto un forte impatto sulla ricerca scientifica internazionale: quella della fusione fredda, la promessa/illusione di un futuro dove la produzione di energia è di fatto infinita e a costo quasi nullo. Anche in questa controversa vicenda si butta con grande passione, provocando ancora una volta grandi attriti con molti colleghi a causa del suo carattere difficile e il suo definitivo isolamento dalla comunità scientifica.

Un personaggio “difficile”

Già da una così breve panoramica appare chiaro come non sia certo semplice riuscire a inquadrare oggettivamente quanto di quello che Giuliano Preparata racconta o che viene raccontato su Giuliano Preparata corrisponda al vero. Si va dalle posizioni più nette, quelle di chi lo considera un genio, l’unico depositario di una comprensione profonda della natura, a quelle di chi lo giudica solo un arrogante presuntuoso. Tra i due estremi rimane comunque un personaggio dal carattere difficile, ma con una sincera passione per la fisica, e rimangono molti lavori originali, soprattutto in fisica delle particelle e nella fisica dei laser, che sono unanimamente riconosciuti come importanti.

A dieci anni dalla morte di Giuliano Preparata, avvenuta il 24 Aprile del 2000, vogliamo quindi ricordare questa sua peculiare carriera scientifica attraverso le testimonianze di quanti hanno collaborato o si sono confrontati con lui, proponendo una serie di interviste che offrono uno spaccato completo dei suoi numerosi interessi scientifici. Lo scopo di questo lavoro è quello di fornire un quadro storico-cronologico degli interessi di Preparata, come ausilio necessario alla lettura e all’ascolto delle interviste integrali e degli altri materiali liberamente consultabili on-line . Sono state realizzate anche due videointerviste con Guido Altarelli, incentrata sui primi anni della vita di Giuliano e il suo lavoro in fisica delle particelle, e con Antonella De Ninno, collaboratrice di Preparata negli ultimi anni della sua vita riguardante la vicenda della fusione fredda. Nella pagine che seguono entreremo più in dettaglio nei meandri delle sue scoperte e teorie scientifiche, cercando di mantenere il più possibile un approccio non specialistico accessibile a tutti, anche se alcuni passaggi richiederanno un minimo di approfondimento per essere compresi appieno. In questi casi abbiamo inserito link utili per orientarsi, così da fornire a tutti la possibilità di farsi un’idea del significato generale delle teorie citate.

Il giovane studente

La formazione di Giuliano Preparata (Padova, 1942 – Frascati, 2000) inizia a Roma, dove nel 1960 si iscrive alla facoltà di fisica della Sapienza, stimolato dal fratello Franco, ingegnere, e da un compagno di studi d’eccezione, Nicola Cabibbo. Il lavoro di tesi lo svolge a Firenze con Raoul Gatto, che poco più che trentenne è già considerato un fisico teorico di punta. Per dare un’idea dell’impatto che la scuola di Gatto ha avuto sulla fisica teorica italiana basti ricordare i nomi di alcuni dei suoi allievi, contemporanei di Preparata: Guido Altarelli e Luciano Maiani (oggi direttore del CNR), già compagni di Giuliano alla Sapienza, e Gabriele Veneziano (tra i padri fondatori della teoria delle stringhe).

Il lavoro svolto a Firenze tra il 1965 e il 1967, prevalentemente in collaborazione con Maiani e Gatto, è intensissimo e porta alla pubblicazione di decine di articoli nell’ambito della fisica delle alte energie, quella in cui si studiano le interazioni e le particelle fondamentali. Il contesto storico in cui si sviluppano questi studi è fervido: da una parte vi è una grande mole di dati dai primi grandi esperimenti ad alte energie del CERN in Europa (con il protosincrotone) e del Brookhaven Laboratory negli Stati Uniti (con l’Alternating Gradient Synchrotron mostrato nella Figura 2); dall’altra vi è la necessità di collocare questi risultati in un ambito teorico fondamentale. In quei primi anni ’60 sta emergendo rapidamente un nuovo mondo di particelle e un quadro interpretativo coerente della realtà: il modello a quark di Murray Gell-Mann.

Il periodo americano

Figura 2 – Foto aerea dell’Alternating Gradient Synchrotron (1968). Dal ’60 al ’68 l’AGS è stato l’acceleratore di protoni più potente del mondo. Oggi è usato come iniettore per l’acceleratore di ioni pesanti relativistici di Brookhaven. Da flickr.com.

È del 1967 la partenza di Giuliano per Princeton, la prestigiosa università dove si trova in visita anche lo stesso Gell-Mann. Negli Stati Uniti esistono in questo momento due scuole principali nella fisica delle alte energie: quella della West Coast, di Geoffrey Chew, basata sull’utilizzo del formalismo della matrice S1, a cui tra gli italiani contribuirono in modo importante Tullio Regge e Veneziano, e quella della East Coast, basata sull’utilizzo della teoria quantistica dei campi. Giuliano si schiera fin dall’inizio con quest’ultima, che risulterà poi quella vincente. È di questo periodo la pubblicazione di un importante articolo con Weisberger sulle divergenze ultraviolette nelle correzioni radiative ai decadimenti deboli [3]. Questo risultato viene ricordato da Luciano Maiani in una lettera di opinione al Nuovo Saggiatore del 12 Febbraio 2009, parlando del contestato premio Nobel 2008, quello attribuito ai soli Kobayashi e Maskawa per un risultato a cui anche Nicola Cabibbo aveva contribuito in modo fondamentale: mancava infine il punto importante della non-rinormalizzazione, che nella Teoria di Cabibbo è garantita nel limite di esatta simmetria SU(3) e che, mi piace ricordare, sarebbe stato risolto nel caso generale diversi anni dopo, da G. Preparata e W. Weisberger. È usuale in letteratura parlare di matrice CKM in onore dei tre fisici che la introdussero: Cabibbo, Kobayashi e Maskawa, appunto.

Dopo Princeton, l’esperienza americana di Giuliano prosegue all’università di Harvard, dove ha modo di confrontarsi con il futuro premio Nobel Shaldon Glashow, e poi al fianco di Altarelli alla Rockefeller University diretta da Abraham Pais. Sono anni di intensa attività: pubblica numerosi articoli sul deep inelastic scattering e la fisica adronica. È possibile vedere la video-intervista a Guido Altarelli qui.

L’esperienza al CERN e la critica alla Cromodinamica Quantistica

Nel 1974, a soli trentadue anni, Giuliano Preparata viene invitato dal CERN di Ginevra a far parte della direzione teorica del Centro. È il momento in cui Giuliano inizia ad assumere posizioni apertamente critiche nei confronti dei suoi colleghi, in particolare riguardo le teorie che trovano maggiore consenso nella comunità, come la teoria quantistica delle interazioni forti2, la cromodinamica quantistica (QCD)3 e il modello detto a partoni, appena proposto da Richard Feynman. Giuliano critica con toni spesso aspramente polemici quello che definisce il convenzionalismo dei suoi colleghi, cioè l’adesione quasi acritica a un paradigma, secondo lui basato su ipotesi strumentali, in quanto capace solo di salvare i fenomeni e fornire una teoria meramente predittiva e non esplicativa. Per avere un’idea dei toni polemici e originali di Preparata si può leggere “Un’altra rivoluzione tradita: la fisica dei quanti”.

Memorabile in questo contesto è l’episodio dello scontro di Giuliano con Richard Feynman nell’estate del 1976 durante una conferenza in Alsazia. Per capire il clima di tensione tra i due è sufficiente leggere la poesia di Tomek Ferbelski pubblicata sugli atti ufficiali della conferenza [1]4.

Father Feynman

Figura 3 – Il fisico americano Richard Feynman in una foto di Christopher Sykes. Da caltech.edu.

‘You are old, Father Feynman’, Preparata declared,
‘and your hair has turned visibly grey;
and yet you keep tossing ideas around.
At your age, a disgraceful display!’
‘In my youth’, said the master, as he shook his long locks,
‘I took a great fancy to sketching;
I drew many diagrams, which most thought profound
while others thought just merely fetching.’
‘Yes, I know’, said the youth, interrupting the sage,
‘that you once were so awfully clever;
but now is the time for quark sausage with chrome
do you think you can last on forever?’
‘In your words, my young fellow’, the crone did retort,
as his face turned perceptibly redder;
‘in your words I detect an impatience, I’m sure,
which makes me decidedly madder’.
‘You are old’, quoth the youth,
in his accented speech,
while eyeing the throne of the Master;
‘let me help you relinquish your sceptre next day.
Or would you prefer that much faster?’
‘No, thanks, Giuliano’, the sage did rebuff,
‘enough of your own brand of sass:
Do you think I can listen all day to such stuff?
Be off. Or I’ll kick-in you ass!’
(Tomek Ferbelski, 1976)

È in questo periodo che Preparata inizia a elaborare i suoi modelli alternativi: dapprima la geometrodinamica dei quark (QGD) [4] e poi la cromodinamica anisotropa (ACD). Molti dettagli su quest’attività sono contenuti nella video-intervista a Guido Altarelli qui.

Il periodo barese

Conclusa secondo contratto l’esperienza al CERN, Giuliano viene chiamato a ricoprire la cattedra di fisica teorica dell’università di Bari nel 1976. Pur assolvendo compiti didattici e organizzativi a Bari, continua comunque a lavorare anche in Svizzera, dove collabora nel 1984 con Maurizio Consoli sull’applicazione di metodi variazionali in teoria quantistica dei campi. A proposito di questa collaborazione, Consoli ci racconta che il calcolo fatto con Preparata, i cui risultati essenziali sono pubblicati su Physics Letters, rappresenta di gran lunga il conto più complesso che io abbia mai fatto nella mia vita… e ne ho fatti alcuni realmente difficili!. Questo lavoro fornisce nuovi argomenti critici nei confronti della teoria perturbativa in voga allora: l’idea che la differenza di energia tra vuoto fisico e vuoto perturbativo potesse non scalare con la funzione beta perturbativa gli diede un argomento molto forte per dedurre l’inconsistenza dell’usuale interpretazione con il confinamento, visto come conseguenza dello stato di vuoto vero, ci racconta lo stesso Consoli5. È possibile leggere l’intervista completa qui.

Figura 4 – Un laser a elettroni liberi (FEL) produce luce laser accelerando elettroni attraverso dei crio-moduli e un wiggler, elemento che li costringe su una traiettoria a zig-zag e li porta a emettere fotoni. Nella foto il FEL installato presso i Jefferson Laboratory, in Virginia, USA. Da jlab.org.

A Bari Giuliano svolge un ruolo da vero e proprio catalizzatore, contribuendo all’apertura della scuola di dottorato in fisica. Uno dei suoi collaboratori, Leonardo Angelini, ci ricorda il ruolo di Preparata nella formazione della scuola teorica di Bari: la sua attività scientifica diventa rapidamente un attrattore irresistibile, in particolare per i più giovani. Essa infatti consentiva alla Fisica Teorica barese di entrare in contatto con le correnti internazionali principali della Fisica delle Particelle. Dei fisici teorici baresi, una decina (quasi tutti) collaborò direttamente con lui. Gli argomenti di ricerca sono sempre concentrati sullo sviluppo della QGD e dell’ACD, un indirizzo di ricerca che non ha poi trovato alcuno sviluppo dopo la morte di Preparata. È lo stesso Angelini che ci spiega le ragioni di questo insuccesso: la ACD non era una risposta del tipo che i fisici preferiscono. Essa infatti dava luogo a grandi difficoltà di calcolo e l’appeal di una teoria fisica sta anche nella capacità di calcolarne le conseguenze in maniera non estremamente complicata. È possibile leggere l’intervista completa qui.

Giuliano inizia anche a lavorare con il gruppo di bioinformatica e biologia molecolare di Cecilia Saccone, collaborazione che durerà fino alla fine della sua carriera. Uno dei membri del gruppo di Saccone, Graziano Pesole, ce ne racconta l’importanza: l’incontro con il professor Preparata fu particolarmente felice e portò all’ideazione del “modello markoviano reversibile” per lo studio dell’evoluzione molecolare. Questo modello, molto avanzato per i tempi, fu il primo a tenere conto della composizione in basi delle sequenze omologhe in esame (ovvero la “stazionarietà”), senza fare assunzioni “a priori” sulla dinamica evolutiva delle sostituzioni tra le basi, i nucleotidi del DNA. Ci dice inoltre che il modello sviluppato con Giuliano è stato il capostipite dei modelli stocastici per lo studio dell’evoluzione molecolare e ha costituito le basi dei modelli apparsi successivamente. È possibile leggere l’intervista completa qui.

Sono i segni della vastità di interessi e della versatilità di Preparata che si avvicina ad altre branche della fisica e della biologia5, spaziando dalle applicazioni dei processi markoviani per lo studio dell’evoluzione molecolare alla materia condensata.

Il periodo milanese e la coerenza elettrodinamica

Nel 1985, dopo dieci anni, finisce la permanenza all’università di Bari e Giuliano viene chiamato all’Università Statale di Milano per tenere il corso di Fisica Nucleare delle Alte Energie. È un momento di svolta per i suoi interessi di ricerca: dopo aver lavorato intensamente nel campo della fisica adronica è l’inizio di un nuovo, ambizioso programma di ricerca che comincia alla fine degli anni ’80 e continua ininterrottamente fino alla fine della sua carriera con l’insostituibile collaborazione di Emilio del Giudice: l’applicazione della coerenza elettrodinamica (CQED, Coherent Quantum Electrodynamics)6 ai problemi della fisica della materia condensata [5].

Quelli che Giuliano chiama i {prodigi della coerenza sono fenomeni dei più disparati che, secondo il suo programma, possono trovare un’interpretazione semplice e consistente nell’ambito della CQED. Con i suoi collaboratori pubblica decine di lavori in cui utilizza i risultati della CQED per la spiegazione di fenomeni legati alla superfluidità e alla superconduttività, alle caratteristiche dell’acqua e al laser ad elettroni liberi (FEL, free electron laser, vedi Figura 4).

Inizia in questi anni anche a collaborare con Renzo Alzetta e Giuseppe Liberti dell’Università di Calabria. È lo stesso Renzo Alzetta a raccontarci l’indirizzo di ricerca sviluppato con Preparata: dal 1990 la mia ricerca fu indirizzata allo studio delle dinamiche coerenti in materia condensata e in particolare all’applicazione della teoria del Nucleo Coerente di Giuliano Preparata allo studio dei nuclei atomici con alone, degli ipernuclei e delle collisioni fra ioni pesanti nonrelativistici e relativistici. È possibile leggere l’intervista completa qui.

È invece dalle parole di Liberti che emerge un’immagine del modo di lavorare intenso ed entusiasta di Giuliano: non era facile confrontarsi con lui, ma le ore passate a seguire lo sviluppo dei suoi modelli […] oppure seduti a guardarlo costruire universi di formule alla lavagna, senza risparmiarsi mai, senza risparmiarti nulla, sono le ore migliori che ho speso nella mia breve e insignificante vita di ricercatore. È possibile leggere l’intervista completa qui.

Gravità e coerenza

Figura 5 – Immagine di ciò che resta della supernova SN1987A nella Grande Nube di Magellano. Da link2universe.

Nel 1988 un suo vecchio compagno della Sapienza, Remo Ruffini, lo invita a partecipare al congresso di La Thuile dove Guido Pizzella annuncia i primi entusiasmanti risultati delle misure svolte a Roma dal gruppo di ricerca sulle onde gravitazionali di Edoardo Amaldi. Il clima è di stupore, sembrano essere le prime evidenze sperimentali delle onde gravitazionali, ma resta un problema teorico: secondo le teorie note la sensibilità delle antenne non è tale da consentire la rivelazione di un segnale come quello misurato dal gruppo di Roma, emesso dall’esplosione della supernova SN 1987A mostrata in Figura 5, una stella grande circa venti volte il sole. Lasciamo alle parole dello stesso Guido Pizzella, storico collaboratore di Edoardo Amaldi, il ricordo di questo importante episodio: ricordo che quando Edoardo Amaldi ed io informammo dei nostri risultati, prima della nostra presentazione, Masatoshi Koshiba, direttore dell’esperimento giapponese Kamiokande (e futuro premio Nobel), egli rimase colpito e un po’ stravolto. Sottolinea infatti che ancora oggi i nostri dati sperimentali non sono accettati da una gran parte della comunità scientifica, perché disturbano quella che è la teoria ufficiale delle supernovae (un’unica, grande esplosione) e per la difficoltà di accettare la teoria di Preparata sulla sezione d’urto. Infatti, anche se in un primo momento Giuliano critica la spiegazione proposta da Joe Weber, membro del gruppo di Pizzella, nel 1990 pubblica un articolo in cui giustifica il risultato del gruppo di Roma sulla scorta della coerenza elettrodinamica [6]. È possibile leggere l’intervista completa qui.

Gli interessi di Preparata non si esauriscono nella CQED, ma si rivolgono anche ad altri problemi fondamentali: dapprima con She-Sheng Xue e poi con i suoi laureandi di Milano, Stefano Rovelli e Sergio Cacciatori, scrive alcuni articoli sullo stato fondamentale in gravità quantistica. Inizia poi una collaborazione con Remo Ruffini per lo studio dei jet giganti di raggi gamma (gamma ray bursts) [7]. Sergio Cacciatori, uno dei suoi ultimi laureandi, oggi ricercatore in gravità quantistica all’università dell’Insubria, ci fornisce un affresco di Giuliano nella veste di professore alla Statale di Milano del corso di Fisica Subnucleare delle Alte Energie: aveva una notevole capacità di interessare gli studenti, a lezione si poteva parlare con lui di qualunque argomento di fisica. Mostrava una grandissima passione e mentre spiegava talvolta ci presentava uno dei problemi su cui stava lavorando e ci confidava quale idea gli fosse venuta per cercare di risolverlo. […] Penso che faccia bene ai giovani leggere buona parte dei suoi lavori, benché spesso vengano considerati eretici. È possibile leggere l’intervista completa qui.

Figura 6 – Copertina del Time dell’8 Maggio 1989, dedicata al sensazionale annuncio di Fleischmann e Pons.

Dalla metà dagli anni ’80 Preparata si allontana quindi dal campo in cui era specializzato, la fisica adronica, e si interessa a molti problemi diversi, visti sempre attraverso la lente della teoria dei campi. Ma non finisce qui. Nel 1989 viene annuciata la scoperta di un fenomeno rivoluzionario e privo di spiegazione teorica: si tratta della fusione fredda, che non può che catturare l’attenzione di Giuliano così come di tutta la comunità scientifica mondiale.

L’enigma della fusione fredda

È il 24 marzo del 1989. Due elettrochimici americani dell’università dello Utah, Martin Fleischmann e Stanley Pons, annunciano al mondo di essere riusciti a sviluppare un processo di fusione a freddo (cold fusion): sembra cioè possibile ottenere l’energia delle stelle senza condizioni estreme di pressione e temperatura [8], ma semplicemente in provetta. Date anche le conseguenze economiche di una simile scoperta, l’effetto dell’annuncio è esplosivo: molti laboratori cercano di riprodurre il fenomeno, si cerca di capire se si tratta di una bufala giornalistica, se i due stimati chimici americani abbiano imprudentemente affrettato delle conclusioni su osservazioni parziali o se si stia davvero aprendo un nuovo campo di ricerca, la cui fisica è tutt’altro che chiara.

Giuliano cerca subito di capire se è possibile dare una spiegazione teorica del fenomeno ed è convinto che gli strumenti per la comprensione di un processo simile vengano ancora una volta dalla CQED. Già nel 1989, insieme a Emilio Del Giudice e Tullio Bressani, pubblica un articolo in cui avanza alcune ipotesi interpretative nell’ambito dei fenomeni di coerenza [9]8.

Già pochi mesi dopo l’annuncio di Fleischmann e Pons, però, iniziano ad arrivare le smentite dai vari laboratori: il fenomeno non è riproducibile e incontra il netto scetticismo della comunità scientifica. Scetticismo che verrà poi interpretato da molti membri della comunità di ricerca sulla fusione fredda come vero e proprio ostracismo e censura. Dunque, da una parte l’annuncio affrettato e sensazionalistico alimenta una naturale diffidenza della comunità scientifica nei confronti del fenomeno, dall’altra la rapidità con cui viene liquidato l’intero indirizzo di ricerca insospettisce quanti credono necessario proseguire gli studi in un settore che, muovendo i primi passi, ha ancora bisogno di formarsi un minimo bagaglio di conoscenze per giungere a dare una spiegazione dei fenomeni osservati. Da una parte la maggioranza della comunità scientifica che definisce il lavoro di Fleischmann e Pons un abbaglio, dall’altra un gruppo di ricercatori eretici che continua a cercare di studiare il fenomeno nei laboratori.

Giuliano Preparata, di formazione fisico teorico, dapprima lavora per dare una spiegazione del processo con la coerenza elettrodinamica, ma poi non si tira indietro davanti alla sfida di svolgere un lavoro di natura sperimentale sulla fusione fredda. A Milano viene aperto con fondi privati un laboratorio di ricerca dedicato (cfr. Video), dove si mette al lavoro con l’ormai inseparabile collaboratore Del Giudice. Questa attività prosegue ai laboratori di Frascati, dove in collaborazione con Antonella De Ninno e Antonio Frattolillo sviluppa un programma di ricerca sulla fusione fredda approvato dall’allora presidente dell’ENEA Carlo Rubbia, premio Nobel per la fisica. L’accoglienza dei lavori sulla fusione fredda è sempre più glaciale e anche il laboratorio di Frascati è destinato a chiudere come quello di Milano. È possibile vedere la video-intervista ad Antonella De Ninno qui.

Giuliano, da infaticabile difensore del proprio lavoro e acceso polemista, condanna il peso della diffidenza e dell’emarginazione da quella stessa comunità che nei primi anni della sua carriera l’aveva stimato e riconosciuto. Con l’esperienza nella ricerca sulla fusione fredda il lungo percorso di Giuliano nella fisica si esaurisce, ancora una volta in una direzione originale e controcorrente.

Giuliano Preparata muore a Frascati il 24 aprile del 2000, a soli 58 anni, lasciando dietro di sé più di 400 articoli scientifici su almeno una decina di ambiti diversi della fisica, della biologia, della chimica e della medicina.

Aprile 2, 2018 0 comment
0 Facebook Twitter Google + Pinterest
Le particelle patchy
Il Ricercatore Romano

Le particelle patchy

written by Redazione
This entry is part 2 of 7 in the series numero 3

Probabilmente la prima lezione di fisica della materia che abbiamo ricevuto a scuola consisteva nella classificazione della materia in tre stati: solido, liquido e gassoso. Sul momento questa spiegazione ci sarà sembrata convincente ma, al suono della campanella e presa la merenda dallo zaino, ci siamo trovati di fronte al nostro primo problema di fisica: in quale categoria rientrano il burro e la marmellata che ricoprono il panino della ricreazione? A pensarci bene non sono volatili come i gas, non fluiscono come i liquidi e si spalmano un po’ troppo facilmente per essere dei solidi. Tornati a casa ci saranno venuti molti altri dubbi: la colla e la plastilina nella stanza dei giochi, la maionese e la gelatina in cucina. Tutti questi strani materiali, però, qualcosa in comune ce l’hanno: sono soffici e così non ci vuole molta forza per deformarli. Ragion per cui hanno trovato vasta diffusione nella nostra vita quotidiana, permettendoci di spalmare il nostro solido preferito sul pane senza dover accendere l’altoforno.

Figura 1 – Realizzazione sperimentale di un sistema di particelle patchy bifunzionali e trifunzionali. I siti funzionalizzati, le patch, sono visualizzate in rosa, mentre la superficie bianca non è attiva. Da [1].

Il settore della fisica della materia che si occupa di questi materiali soffici si chiama, senza molta originalità, Soft Matter. Anche se la definizione di materiali soffici può sembrare vaga, la Soft Matter ha confini ben delineati. Si occupa infatti di tre classi di materiali: colloidi, polimeri e molecole anfifiliche. Esaminare caratteristiche e proprietà di queste tre classi richiederebbe più tempo e competenze di quelle che posso offrire io al lettore. Ma c’è un tipo di particelle, chiamate particelle patchy, che da sole riassumono in sè tutte le caratteristiche principali dei materiali soffici. Nel mezzo del cammin del mio dottorato ho avuto la fortuna di ritrovarmi a studiarle e così useremo le particelle patchy come guida per incontrare, in una sorta di girone della Soft Matter, tutti i protagonisti di questo settore della fisica.

Siti funzionalizzati

Per particelle patchy si intendono tutte quelle particelle che interagiscono tra di loro mediante alcuni siti funzionalizzati sulla loro superficie, le cosiddette patch. Il numero di patch su ciascuna particella si chiama valenza. Quando la patch di una particella è sufficientemente vicina alla patch di una seconda particella, si attiva un legame di tipo attrattivo tra le due particelle. Cioè le patch si attraggono tra di loro e permettono alle particelle di formare una rete di legami. Poiché i legami sono sempre mediati dalle patch, queste interazioni si definiscono interazioni direzionali, cioè sono possibili solo nelle direzioni individuate dai siti attivi. È proprio la presenza delle interazioni direzionali a conferire alle particelle patchy le loro peculiari proprietà.

Data la generalità della definizione, molti sistemi possono considerarsi patchy: basti pensare alle macromolecole, come le proteine, che sono caratterizzate dalla presenza di diversi gruppi funzionali sulla loro superficie che ne determinano in modo quasi unico le caratteristiche chimiche. Nonostante la generalità del modello ci concentreremo, per semplicità, su particelle sferiche e con i siti attivi ordinati geometricamente sulla superficie, come mostrato in Figura 1 per particelle con valenza due e tre.

Colloidi

Le particelle patchy sono innanzitutto delle particelle colloidali. Per colloidi si intendono tutte quelle particelle mesoscopiche, cioè con dimensioni che vanno dal nm al μm, disperse in un solvente costituito da particelle di dimensioni minori. Sia le particelle colloidali che il solvente possono trovarsi in qualunque stato della materia. Esempi sono il fumo, dispersione di particelle solide (le ceneri) in gas (l’aria); il latte, una dispersione colloidale di particelle liquide (il grasso) all’interno di un altro liquido; il poliuretano, un gas intrappolato in un solido. Per le nostre particelle patchy ci riferiremo sempre a particelle solide disperse in un liquido (solitamente acqua). La fabbricazione di questi colloidi è tutt’ora oggetto di intensa ricerca e diventa sempre più sofisticata. Tra le tante tecniche, la più semplice consiste nel disperdere in acqua una miscela di particelle di silica e polistirene, che vengono intrappolate da speciali emulsioni che permettono l’aggregazione delle particelle in forme geometriche regolari e perfettamente riproducibili. Una volta realizzate le particelle, è possibile funzionalizzarne la superficie in modo tale da rendere le patch attrattive, ad esempio rivestendole di molecole chimicamente complementari, come brevi sequenze di DNA.

I colloidi sono sostanzialmente atomi di grosse dimensioni (da dieci a diecimila volte il diametro medio di un atomo) e questa differenza produce grandi vantaggi. Innanzitutto hanno dimensioni comparabili alla lunghezza d’onda della luce visibile e ciò li rende facilmente studiabili mediante apparecchiature ottiche. Inoltre, mentre le interazioni nei sistemi atomici sono fissate dalla struttura elettronica e non possono essere modificate dall’esterno, con i colloidi si ha la possibilità di cambiare in modo sensibile l’interazione, ad esempio cambiando la qualità del solvente, la quantità di sale disciolto o la temperatura. Le maggiori dimensioni dei colloidi sono proprio le responsabili della sofficità di questi materiali: immaginando di confrontare tra loro un solido atomico con uno colloidale, il volume della cella elementare è 109 – 1012 volte più grande nel secondo caso, il che porta a moduli elastici piccoli e quindi a una grande facilità nella deformazione. Ma i colloidi sono ancora sufficientemente piccoli da risentire delle fluttuazioni termiche, il che rende possibile l’applicazione di quella branca della fisica chiamata meccanica statistica, già applicata con successo ai sistemi atomici e molecolari.

Quindi, se i colloidi possono essere visti come delle controparti su larga scala dei sistemi atomici, le particelle patchy si possono considerare le controparti dei sistemi molecolari. Le loro interazioni direzionali permettono infatti di assemblare specifiche strutture a partire dalle informazioni codificate nel numero e tipo di patch. Vediamo qui di seguito due esempi notevoli.

Polimeri

La Figura 2 mostra cosa succede a una miscela di particelle patchy, come quelle rappresentate in Figura 1, quando viene abbassata la temperatura. Le particelle cominciano a legarsi tra di loro: le particelle bifunzionali formano catene e le particelle trifunzionali costituiscono le diramazioni che collegano tra loro le varie catene. Più è bassa la temperatura e più la lunghezza media delle catene aumenta, finché le particelle non arrivano ad appartenere tutte a un unica rete che pervade il sistema. In Figura 2 le diverse catene sono rappresentate con colori diversi e alla temperatura più bassa si può notare come quasi tutte le particelle facciano parte di un unico network.

Quello che abbiamo appena descritto è un processo di formazione di polimeri. Per polimeri si intendono infatti quei sistemi in cui le unità di base, i monomeri, sono uniti a catena mediante legami. Si tratta quindi di materiali le cui unità costitutive non sono particelle sferiche ma catene, come ad esempio per la plastica e la gomma. Questa particolare natura dei materiali polimerici ne determina le straordinarie proprietà fisiche, come l’elevata elasticità, che derivano dalla loro grande entropia configurazionale, cioè dal grande numero di stati che le catene possono assumere.

Man mano che la temperatura si abbassa, i legami tra le particelle patchy diventano sempre più forti fino a quando non è più possibile, nei tempi sperimentali, osservare alcuna apertura dei legami nel network. In questo caso si dice che il sistema subisce una transizione dinamica, in cui il moto delle particelle è vincolato a rispettare la topologia del network. In altre parole il sistema subisce un processo di gelazione fisica: lo stato di gel è caratterizzato da una struttura interconnessa (il network) di particelle patchy, che conferisce al sistema proprietà intermedie tra quelle di un solido e di un liquido. Il gel si comporta come un liquido perché è composto per la maggior parte da fluido che può fluire attraverso il network e come un solido perché può sostenere sforzi di taglio e reagire elasticamente alle deformazioni.

Figura 2 – Un sistema di particelle patchy al variare della temperatura. Raffreddandolo (verso destra) le particelle patchy iniziano a polimerizzare, finché non formano un unico network che pervade il sistema.

Le particelle patchy costituiscono quindi un modello ideale per studiare i processi di gelazione a basse densità e come banco di prova per molte teorie sviluppate nel contesto dei sistemi fuori dall’equilibrio.

Sistemi anfifilici

Consideriamo il caso di particelle patchy di valenza unitaria, con l’unica patch che riveste la metà della superficie della particella. Le particelle così ottenute si chiamano anche particelle Janus (da Giano, la divinità bicefala dei romani) perché hanno la superficie diversamente funzionalizzata nei due emisferi. Come si può vedere dalla Figura 3, queste particelle danno vita a strutture molto complesse. A bassa temperatura le particelle Janus si auto-assemblano in aggregati stabili di forma sferica: le micelle. Le micelle sono composte da un singolo strato di particelle Janus che orientano la loro parte attrattiva all’interno dell’aggregato (a), oppure da un doppio strato di particelle con la parte repulsiva sempre orientata all’esterno e all’interno della membrana (b).

Figura 3 – Micelle di particelle Janus: (a) singolo strato, (b) doppio strato. Da [2].

La fenomenologia che abbiamo appena descritto è quella delle molecole anfifiliche. Si tratta di molecole che hanno una regione polare (idrofilica) e una regione apolare (idrofobica). Queste molecole in ambiente acquoso formano aggregati, chiamati appunto micelle, in cui le parti polari si trovano sulla superficie dell’aggregato in contatto con l’acqua. Le micelle sono molto importanti in ambito industriale e farmacologico perché capaci di trasportare al loro interno molecole poco solubili in acqua, come ad esempio i farmaci.

Oltre la Soft Matter

Abbiamo visto che le particelle patchy costituiscono un modello ideale per lo studio dei fenomeni fisici che avvengono nei sistemi soffici. Ma la loro importanza e generalità si estende a tutti i sistemi in cui un ruolo predominante è giocato dalla direzionalità delle interazioni. È il caso ad esempio dei sistemi magnetici, come i fluidi dipolari, in cui le particelle tendono ad allineare i loro momenti magnetici. Le predizioni possibili con i sistemi patchy trovano anche riscontro nella fisica biologica, soprattutto per quanto riguarda le interazioni fra proteine. E sicuramente molti altri ambiti di applicazione aspettano di essere svelati.

Aprile 2, 2018 0 comment
0 Facebook Twitter Google + Pinterest
Editoriale

Passione per la scienza tra terremoti e particelle

written by Redazione
This entry is part 1 of 7 in the series numero 3

A tre mesi dalla fantastica esperienza di vedere su carta questa rivista, grazie all’associazione Frascati Scienza e alla Settimana della Scienza 2010, si torna alla purezza del bit con novità succulente, tra cui un inedito coinvolgimento di ben dieci tra ricercatori e docenti. Purtroppo l’entusiasmo non può che smorzarsi di fronte a una riforma dell’Università che ancora una volta taglia i finanziamenti a ricerca e istruzione, come ci spiega Francesco Vitucci analizzando il rapporto tra i giovani e il DDL Gelmini…

Al termine di ogni ciclo della scuola di dottorato presso la Sapienza di Roma tutti i dottorandi presentano il proprio lavoro di tesi in una serie di seminari, tra i quali la commissione dei docenti nomina due vincitori, uno per il dottorato in fisica e uno per quello in fisica e astrofisica. Grazie a una convenzione tra Accastampato e la Scuola Dottorale in Scienze Astronomiche, Chimiche, Fisiche, Matematiche e della Terra “Vito Volterra” e all’entusiastico supporto del suo coordinatore Enzo Marinari, dall’anno scorso tra i premi ai due vincitori vi è la pubblicazione di un loro articolo divulgativo su queste pagine. È quindi un piacere scoprire i segreti della Soft Matter, l’ambito della fisica che studia i materiali soffici come i gel, in compagnia delle particelle patchy e di John Russo, vincitore dello scorso anno.

Che l’avventura della ricerca scientifica non sia un percorso lineare e progressivo, ma piuttosto una strada tortuosa e in salita, non emerge sempre dalla quotidiana rappresentazione che televisione, libri e giornali ce ne offrono. Ripercorrere la vita di un fisico italiano tanto influente quando controverso, come è stata quella di Giuliano Preparata, può aiutare a cogliere gli infiniti modi in cui gli scienziati possono vivere il proprio lavoro. A dieci anni dalla sua morte nove suoi colleghi raccontano il personaggio e le sue ricerche dai quark ai cristalli, attraverso quarant’anni di fisica che hanno visto l’emersione del Modello Standard e l’affermazione delle teorie che oggi consideriamo fondamentali, ma anche l’esplosione di controverse vicende che hanno in parte minato la credibilità sociale della comunità scientifica, come quella della fusione fredda alla fine degli anni ’80.

In ogni caso la ricerca scientifica è sempre più importante e ha un ruolo sempre più centrale per affrontare le sfide di oggi e di domani. È passato un anno e mezzo dal disastroso terremoto abruzzese che il 6 Aprile del 2009 ha devastato L’Aquila e i comuni vicini e in questi mesi si sono rincorse emozioni, considerazioni e voci tra le più varie, di fronte a un fenomeno naturale che non si può piegare al volere dell’Uomo. Le stesse che emergono in situazioni di emergenza legate ai vulcani o alle inondazioni, tutti fenomeni connessi tra loro da un filo conduttore: la difficoltà di prevederli, l’impossibilità di contrastarli, ma la piena consapevolezza di poterne mitigare enormemente gli effetti distruttivi. La strategia vincente si chiama prevenzione sismica in Italia e ce ne parla con passione il sismologo Gaetano De Luca, coinvolto nella gestione della rete di rilevazione sismica abruzzese.

E la pura passione muove anche cinque studenti della triennale che in queste settimane sono al lavoro per realizzare un sogno ambizioso: progettare e costruire un pallone aerostatico che possa ospitare nei prossimi mesi esperimenti di fisica ad alta quota, il tutto con materiali e attrezzature amatoriali da pochi euro e un bagaglio di conoscenze fresche di lezione. È questo lo spirito più autentico della ricerca scientifica, quello che sulle ali di Dedalo spingerà Riccardo, Francesco, Alessandro, Valerio e Jacopo sempre più in alto.

Quest’anno dunque è stato il decimo anniversario della morte di Giuliano Preparata. Ma in questi mesi sono tristemente scomparsi altri grandi della scienza italiana e mondiale, a partire dal nostro stimato maestro Nicola Cabibbo, il 16 Agosto, passando per Vladimir Igorevic Arnol’d, il 3 Giugno, fino ad arrivare a Benoit Mandelbrot, il 14 Ottobre. Ed è doveroso ricordare un altro anniversario, il terzo della morte di Daniel Amit, indimenticabile uomo, scienziato e maestro. Il suo storico corso di Reti Neurali è oggi nelle esperte mani del nostro presidente della commissione scientifica Giorgio Parisi, a cui vanno mille complimenti per aver recentemente vinto la prestigiosa medaglia Max Planck per i suoi importanti contributi teorici in fisica delle particelle elementari, nell’ambito della teoria quantistica e della fisica statistica e in particolare dei sistemi disordinati come i vetri di spin.

Buona lettura!

Aprile 2, 2018 0 comment
0 Facebook Twitter Google + Pinterest
Recensioni

L’Istituto Nazionale di Fisica Nucleare

written by Redazione
This entry is part 7 of 7 in the series numero 2

L’8 agosto del 1951 nasce l’Istituto Nazionale di Fisica Nucleare (INFN) con il compito di coordinare l’attività scientifica dei centri preesistenti di Roma, Padova e Torino. È il punto d’arrivo di un percorso storico che ha visto come protagonisti la scuola romana di Fermi e Corbino, quella di Arcetri di Beppo Occhialini e quella dei raggi cosmici di Bruno Rossi a Padova. Un cammino lungo il quale gli italiani hanno dato importanti contributi a livello internazionale nello studio della fisica nucleare, un percorso tristemente rallentato e in parte interrotto dalla guerra e dalle leggi razziali che hanno obbligato all’esilio diversi membri della piccola ma prestigiosa comunità italiana. Solo per ricordarne alcuni: Fermi, Segrè, Rasetti, Rossi, … Grazie allo sforzo organizzativo di Edoardo Amaldi e all’interessamento dell’allora presidente del Consiglio Nazionale delle Ricerche (CNR) Gustavo Colonnetti, questa comunità dispersa viene riorganizzata con la creazione di un’unica istituzione: l’INFN.

Cinquant’anni dopo, nel Novembre del 2001, con un incontro della durata di tre giorni, l’INFN ha celebrato questa importante ricorrenza: questo libro a cura di Giovanni Battimelli, docente di Storia e Didattica della Fisica, e Vincenzo Patera, docente di Fisica Generale alla Facoltà di Ingegneria, entrambi alla Sapienza di Roma, raccoglie la maggior parte degli interventi di quel convegno opportunamente rielaborati. La sua pubblicazione è da inquadrare nell’interessante iniziativa della casa editrice Laterza di una collana dedicata alla storia delle istituzioni scientifiche in Italia e in Europa, in cui compaiono altri volumi sulla storia del CNR e dell’INFN.

L’Istituto Nazionale di Fisica Nucleare è un libro in cui si intrecciano la storia e l’attualità dell’Istituto: si va dalle testimonianze di quelli che contribuirono alla sua nascita come Giorgio Salvini, a quelle degli scienziati che hanno avuto un ruolo centrale nel suo sviluppo, come l’attuale presidente del CNR Luciano Maiani, il Premio Nobel Carlo Rubbia e il promotore del progetto di apertura del laboratorio del Gran Sasso Antonio Zichichi. Dai loro autorevoli contributi si compone il quadro variegato delle ricerche fondamentali sviluppate dall’INFN negli ultimi cinquant’anni, dalla fisica delle particelle elementari alle onde gravitazionali.

Il primo capitolo raccoglie tutti questi racconti, tutt’altro che noiosi, che dipingono una realtà, quella dell’Italia del dopoguerra, difficile, ma anche piena di speranze e di entusiasmi, in cui i mezzi tecnici a disposizione erano ben diversi da quelli di oggi (si pensi anche solo all’informatica). Una storia che è saldamente legata a quella dei Laboratori Nazionali di Frascati (LNF), il primo laboratorio nazionale dell’Istituto, in cui vennero da subito realizzati programmi di ricerca d’avanguardia, a partire dallo sviluppo dell’anello di accumulazione AdA negli anni ’60 da parte di Bruno Touschek e dei suoi collaboratori, fino ai suoi più recenti discendenti Adone e DAΦNE.

I tre capitoli successivi raccolgono i contributi relativi ai principali indirizzi di ricerca dell’istituto: il mondo subnucleare, la fisica delle astroparticelle e delle onde gravitazionali, il nucleo atomico. Questi capitoli offrono una rassegna dei risultati fondamentali e dei problemi aperti nelle diverse branche, seguendo sempre un approccio storico-concettuale ai vari argomenti. Il grado di difficoltà è variabile, ma solo in alcuni articoli l’utilizzo del linguaggio tecnico rende la lettura faticosa a un pubblico profano.

In conclusione si tratta di un libro di storia della scienza, utile agli studenti che abbiano seguito almeno un corso di fisica nucleare, ma adatto a un pubblico più vasto e indispensabile per ricostruire i progressi della Fisica Nucleare negli ultimi cinquant’anni e valutare il contributo italiano al suo sviluppo. Grazie a ciò è efficace nel dare un’idea dell’importanza e dell’utilità di un esperimento molto attuale, il Large Hadron Collider, l’acceleratore di particelle più grande e potente finora realizzato, costruito a Ginevra con il fondamentale contributo italiano fornito proprio dall’INFN.

Aprile 2, 2018 0 comment
0 Facebook Twitter Google + Pinterest
L’osservatorio geodinamico di Rocca di Papa
Il resto del neutrino

L’osservatorio geodinamico di Rocca di Papa

written by Redazione
This entry is part 6 of 7 in the series numero 2

L’Osservatorio Geodinamico sorge sulla parte più alta di Rocca di Papa, a ridosso dell’antica fortezza Colonna, da cui si gode di una panoramica unica sulla Capitale e su tutta l’area dei Colli Albani

L’Osservatorio Geodinamico di Rocca di Papa fu costruito nel 1886 su iniziativa di Michele Stefano De Rossi, quello che definiremmo oggi un amatore della sismologia. Già dal 1873 De Rossi era impegnato nell’organizzazione di una rete sismica nazionale, all’epoca ancora a carattere privato e basata sul lavoro di volontari sparsi per l’Italia. È però solo nel 1887, dopo il disastroso terremoto all’Isola d’Ischia, che la Reale Commissione geodinamica presieduta dal fisico Pietro Blaserna affidò all’Ufficio Centrale di Meteorologia (allora non esisteva ancora l’Istituto Nazionale di Geofisica) l’incarico di istituire una rete sismica nazionale. Fu allora accolta la proposta di De Rossi di costituire un Osservatorio permanente a Rocca di Papa. Tale localizzazione era legata alle caratteristiche sismologiche del territorio, che si trova all’interno di quello che era l’apparato vulcanico dei Colli Albani. Il nuovo Osservatorio, insieme a quelli di Catania e Casamicciola, era uno dei tre di prim’ordine istituiti dalla commissione Blaserna come cardini del nascente servizio sismico nazionale ed era quindi fornito dei migliori sismografi dell’epoca.

Con il tempo l’Osservatorio si affermò come uno dei poli mondiali della sismologia, con la direzione di Giovanni Agamennone e l’impiego di autorevoli personalità del settore, tra cui uno dei fondatori della moderna sismologia, Fusakichi Omori. Nel 1936 l’Osservatorio passò in gestione al neonato Istituto Nazionale di Geofisica, ma patì dei fatti drammatici del periodo: con l’inizio della guerra le attività dell’istituto subirono un forte rallentamento e nel 1944 la sede di Rocca di Papa venne occupata dalle truppe tedesche. Solo nel 1951 furono riprese le attività di monitoraggio che si svolgono tuttora, nell’ambito della moderna rete sismica nazionale.

Il 26 Febbraio del 2005 viene inaugurato un Museo Geofisico all’interno dei locali dell’Osservatorio: un viaggio all’interno della Terra, come titola il famoso libro di Jules Verne e come è opportunamente rievocato da una locandina cinematografica all’ingresso. Il Museo, ospitato in uno dei luoghi natali della sismologia italiana, è un affascinante connubio di divulgazione e storia di una disciplina che ha ancora un gran numero di misteri da svelare: la fisica della terra solida. È proprio su questo doppio filo tra storia e didattica che si sviluppa il percorso museale, tra supporti interattivi sul magnetismo terrestre e la composizione interna della Terra, l’esposizione di strumenti di misura antichi appartenenti all’osservatorio, e molto altro. Un vero e proprio invito alla scienza in generale, intesa come disciplina dinamica e creativa in continuo progredire, attraverso l’esposizione storica delle teorie sull’interno della Terra, dell’evoluzione degli strumenti per studiarla, del metodo d’indagine sperimentale attraverso giochi e laboratori didattici.

Da Osservatorio a Museo di Geofisic

Alcuni dettagli delle esposizioni museali: a sinistra il gioco “Cerca il Polo” sul magnetismo terrestre; a destra un carotaggio della crosta; al centro gli studi sulla composizione delle meteoriti, simile a quella degli strati della crosta terrestre (da museoroccadipapa.ingv.it).

Il Museo si estende su tre piani e in ogni sala c’è un coinvolgente intreccio di supporti ludico-interattivi, pannelli didattici e strumenti storici. Come in un viaggio all’interno del mondo della Scienza, nella prima sala ci sono diversi pannelli sul metodo scientifico, in cui la riflessione è concentrata sulle metodologie attraverso cui è possibile indagare la struttura interna della Terra. Sono presentate quelle dirette, basate sull’analisi di dati provenienti dalla superficie della Terra (cfr. Figura 2 a destra), e quelle indirette, che cercano di ricostruire i nessi di causalità tra i fenomeni osservabili e quelli profondi, inaccessibili all’uomo (cfr. Figura 2 al centro). Il percorso di conoscenza della Terra prosegue nel regno del magnetismo terrestre con un gioco chiamato “Cerca il Polo”, visibile a sinistra della Figura 2: in una semisfera nera è contenuto un magnete che può essere spostato da un giocatore, provocando la variazione del polo magnetico della seconda semisfera, dove è rappresentato un mappamondo. L’altro giocatore dovrà individuare la nuova posizione del polo magnetico tramite una bussola. La seconda sala è dedicata agli strumenti sismografici e vi si possono osservare in presa diretta le misure della stazione sismica, oltre che constatare l’evoluzione tecnica di questi strumenti, dagli esemplari storici di tipo Galitzin ai più moderni accelerometri. Al secondo piano ci si immerge nella storia delle teorie sulla composizione interna della Terra e del conflitto tra fluidisti e solidisti, un dibattito che vide comparire nomi autorevoli della fisica-matematica del XIX secolo, da Poisson a Leibnitz ad Ampère.

Dalla ricerca alla divulgazione: quattro chiacchiere con il direttore Calvino Gasparini

Calvino Gasparini, direttore del Museo Geofisico e ricercatore in forze all’Istituto Nazionale di Geofisica e Vulcanologia (INGV) (fonte: http://portale.ingv.it/).

Tra i promotori dell’istituzione del Museo Geofisico è stato l’attuale direttore Calvino Gasparini, ricercatore in forze all’Istituto Nazionale di Geofisica e Vulcanologia (INGV) e profondo conoscitore dell’attuale situazione della sismologia italiana.

Quando e perché avete pensato di aprire un Museo geofisico proprio nell’osservatorio storico di Rocca di Papa?

In verità i termini del problema erano invertiti: avevamo un edificio storico nel quale con l’avvento della telematica (trasmissione a distanza dei dati) non era più necessario che vi risiedessero delle persone. L’edificio era stato progressivamente abbandonato e popolato dai soli strumenti e dalle rare visite dei tecnici quando era rilevato qualche malfunzionamento. Gli alti costi di conservazione e manutenzione dell’immobile mi suggerirono di farlo tornare a vivere per le persone. Ma cosa farlo diventare? La cosa più semplice è stata quella di lasciargli raccontare la sua ricca storia di luogo di ricerca e studio. Quindi un museo sui generis dove non si esponessero collezioni o altro, ma si mostrassero le idee che tra le proprie mura si sono sviluppate in risposta alla domanda: che cosa c’è dentro la Terra?

Nel difficile lavoro di coniugare il rigore e lo specialismo con una buona divulgazione, cosa significa dirigere un museo scientifico?

Dirigere un museo di questo tipo significa un poco raccontare la propria storia di ricercatore così come quella dell’edificio: dalla formazione iniziale all’acquisizione delle ricerche passate, proseguendo con le ricerche intraprese nella propria carriera scientifica fino alla validazione dei modelli acquisiti internazionalmente. La buona divulgazione si raggiunge utilizzando lo stesso metodo scientifico: va sempre verificato ciò che si dice, ponendosi la domanda chi ci ascolta ha recepito esattamente quello che volevamo dire? Nel nostro caso la grande difficoltà sta nell’enorme varietà dell’uditorio, dai bambini agli adulti.

All’Osservatorio di Rocca di Papa si svolge anche il monitoraggio della concentrazione di Radon nelle falde. Alla luce dello stato attuale della ricerca sull’utilizzo di segnali precursori per la previsione dei terremoti, si può considerare l’osservazione dell’anomalia del Radon come un precursore sismico?

Il Radon è un gas nobile radioattivo, incolore, inodore, insapore, che si manifesta naturalmente come prodotto di decadimento del radio. La possibilità che l’emissione di Radon possa essere considerata come elemento precursore dei terremoti è stata indagata soprattutto negli anni ’70 e ’80, senza però risultati affidabili, e prosegue ancora oggi. L’ipotesi di fondo è che il Radon sia collegato ai terremoti a causa del comportamento che le rocce hanno quando sono sottoposte a tensione. Una teoria detta della dilatanza, sperimentata in laboratorio negli anni ’60, afferma che nelle rocce, prima della rottura, si formano numerose, piccolissime fratture e porosità, che causano un aumento di volume complessivo. Tale volume aggiuntivo si perde nell’ultimo stadio dell’accumulo di energia, poco prima dell’inizio dello scorrimento della frattura, richiedendo l’espulsione dalle porosità delle rocce di vari liquidi e gas, tra cui il Radon, che si liberano attraverso le fratture. Come tutti i fenomeni fisici, il terremoto dovrebbe, con un certo grado di probabilità, essere previsto, ma a tutt’oggi è ancora un mistero: le ragioni di tale situazione sono insite nella difficoltà di non poter studiare direttamente la sorgente sismica.

Aprile 2, 2018 0 comment
0 Facebook Twitter Google + Pinterest
Il Ricercatore Romano

Imbrigliare l’energia del Sole

written by Redazione
This entry is part 4 of 7 in the series numero 2

Come in Cielo così in Terra: il sogno di avvicinarsi alla volta celeste muove da sempre filosofi, teologi e scienziati. Un esempio è la Meccanica di Newton, che ha unificato Cielo e Terra affermando che le leggi della dinamica sono le stesse. Oggi abbiamo un sogno non meno ambizioso: produrre energia elettrica usando le stesse reazioni nucleari che permettono al Sole e a tutte le stelle di brillare in cielo. Costruire insomma una piccola Stella sulla Terra!

Le stelle brillano perché trasformano quattro nuclei di idrogeno, composti da un solo protone, in un nucleo di elio, composto da due protoni e due neutroni. Dato che protoni e neutroni hanno circa la stessa massa, mettendo i nuclei su una bilancia ci aspetteremmo che quello di elio pesi all’incirca come i quattro protoni di partenza. Scopriremmo invece che l’elio pesa meno. La massa apparentemente scomparsa si è trasformata in energia, secondo la famosa relazione di Einstein ΔE = Δm c2, in cui Δm è la quantità di massa mancante, ΔE è la quantità di energia prodotta e c è la velocità della luce nel vuoto. Dato il valore elevato di quest’ultima (300.000 Km/s), bruciando anche una piccola massa si produce un grandissimo quantitativo di energia.

Vista dall’alto del tokamak FTU, operativo dal 1989 presso i Laboratori Nazionali di Frascati (da www.fusione.enea.it).

Il quarto stato della materia

In una stella le reazioni termonucleari appena descritte vengono innescate dalla forza di gravità: la stella comincia a comprimersi sotto al proprio peso, fin quando la pressione nel nucleo è così grande da portare il nocciolo a superare i 15 milioni di gradi. Normalmente la materia che ci circonda è elettricamente neutra, perché nei nuclei degli atomi sono contenuti protoni carichi positivamente, circondati da un ugual numero di elettroni. A temperature molto elevate, come quelle che si raggiungono nel cuore delle stelle, gli elettroni hanno un’energia tale che l’attrazione dei nuclei non è sufficiente a tenerli legati: in tale situazione è come se coesistessero due gas, uno composto dai nuclei positivi, che nel caso delle stelle sono principalmente di idrogeno e quindi protoni singoli, e l’altro composto da elettroni. Questo stato della materia è considerato il quarto dopo quelli comuni cui siamo abituati (gassoso, liquido e solido) ed è chiamato plasma.

Normalmente due ioni positivi, nel nostro caso due protoni, si respingono per via dell’uguale carica elettrica. Per permettere una reazione fra loro bisogna farli urtare così violentemente da superare la repulsione elettrostatica, è necessario quindi che la temperatura e la densità del plasma siano mantenute abbastanza elevate: la prima per far sì che l’energia cinetica media dei protoni sia elevata e la seconda affinché ci sia un numero di reazioni per unità di tempo abbastanza grande da avere un guadagno di energia. Sulla Terra non si possono raggiungere le densità dei nuclei interni delle stelle e per compensare è necessario raggiungere temperature ancora più elevate di quelle che raggiunge il plasma stellare: circa 100 milioni di gradi! Se un gas così caldo sfiorasse un qualunque recipiente lo fonderebbe, raffreddandosi. Per questo motivo il problema principale della progettazione e costruzione di un reattore a fusione è il confinamento del plasma.

La sala del reattore FTU: il toroide che contiene il plasma è all’interno del criostato visibile sulla destra (foto di Silvia Mancini: www.diaporama.it).

Tokamak, calde ciambelle al plasma

Uno dei modi con cui si può risolvere il problema è utilizzare campi magnetici. Una particella carica in moto all’interno di un campo magnetico subisce una forza che la costringe su una traiettoria curva. Visto che il plasma è costituito da un gas di protoni positivi e di elettroni negativi, si possono costruire dei tori (detto in parole povere, delle ciambelle) di campo magnetico in cui intrappolare un plasma in movimento, esattamente come avviene in uno degli esperimenti in cui l’ENEA di Frascati è impegnato: il “Frascati Tokamak Upgrade” (FTU).

Ne parliamo con Giuseppe Mazzitelli, responsabile del Laboratorio – Gestione Grandi Impianti Sperimentali dell’ “Unità Tecnica Fusione” di Frascati, che di FTU è direttore dal 1999. Macchine di questo tipo si chiamano tokamak, acronimo russo che deriva dalle iniziali delle parole della frase camera toroidale con bobine magnetiche. La tecnologia dei tokamak è quella più promettente per realizzare una fusione nucleare controllata e stabile, ed è una delle più studiate da quando i ricercatori russi stupirono il mondo annunciando durante una conferenza svoltasi a Novosibirsk nel ’68 di aver raggiunto la ragguardevole temperatura di 10 milioni di gradi.

Mazzitelli ci accoglie nella sala controllo del tokamak, all’interno dei laboratori dell’ENEA di via Enrico Fermi a Frascati. Davanti a un modellino dell’esperimento ci spiega che in realtà un futuro reattore non funzionerà con l’idrogeno, ma con due suoi isotopi (un isotopo di un elemento è un atomo con lo stesso numero di protoni, ma con un diverso numero di neutroni): il deuterio e il trizio. Il deuterio e il trizio allo stato gassoso sono iniettati all’interno della ciambella e successivamente ionizzati e per dar luogo al plasma. Una volta raggiunto lo stato di plasma diventa fondamentale il campo magnetico che lo confina. Su FTU il campo è generato con delle bobine di rame tenute a -196 °C e raggiunge un’intensità di 8 Tesla: per dare un’idea il campo magnetico della Terra è inferiore a un millesimo di Tesla. Quando si innescano le reazioni di fusione fra trizio e deuterio vengono liberati molti neutroni con grande energia, che, essendo neutri, non risentono del campo magnetico, che sono fermati in una zona chiamata mantello dove interagendo con il litio danno luogo alla produzione del trizio e contemporaneamente ne provocano un innalzamento della temperatura. L’energia è estratta dal tokamak proprio raffreddando questo mantello. Sul JET (il tokamak europeo in funzione in Inghilterra ) in un esperimento deuterio-trizio con una potenza in ingresso di circa 20 MW ne sono stati prodotti circa 16MW dalle reazioni di fusione.

Giuseppe Mazzitelli, direttore di FTU, ci spiega il funzionamento del reattore di fronte a una foto dell’interno del toroide (foto di Silvia Mancini: www.diaporama.it).

Le centrali nucleari del futuro

Il primo tokamak in grado di produrre più energia di quella che consuma per funzionare è però già stato progettato: si chiama ITER, International Thermonuclear Experimental Reactor, in costruzione Provenza e dovrebbe produrre 10 volte l’energia che consuma. Sarà costruito con l’esperienza fatta sui tokamak oggi esistenti dai paesi dell’Unione Europea più la Svizzera insieme con Giappone, Cina, Russia, Stati Uniti, India e Corea del Sud.

ITER ha come obiettivo principale quello di dimostrare che questo tipo di centrali è commercialmente realizzabile. Non sappiamo quanto ci vorrà, ma siamo abbastanza sicuri che questo sarà uno dei modi con cui verrà prodotta energia in grande quantità in futuro. Il nucleare a fusione potrà infatti produrre grandi quantità di energia in modo continuo come le centrali nucleari a fissione già oggi esistenti, pur essendo pulito e sicuro. Pulito perché, anche se si tratta di energia ottenuta grazie a una reazione nucleare, non produce scorie radioattive: il risultato del processo è l’elio, quello che si usa per gonfiare i palloncini. Al contrario le centrali nucleari di qualsivoglia generazione funzionano spaccando atomi di uranio, che decade in stati instabili anch’essi radioattivi. Sicuro perché per i tokamak non ci sono nemmeno rischi legati alla sicurezza, un’eventuale centrale nucleare a fusione non potrà mai trasformarsi in una nuova Chernobyl: anche se se ne perdesse il controllo, è sufficiente spegnere il campo magnetico che il plasma non è più confinato e le reazioni nucleari si interrompono immediatamente. Non si deve poi dimenticare che l’uranio, come il petrolio, è disponibile sulla terra in quantità limitate, mentre il deuterio può essere estratto dall’acqua: da cinquecento litri di acqua si estrae abbastanza deuterio per coprire il consumo di energia elettrica di un cittadino europeo per tutta la sua vita!

Tokamak, calde ciambelle al plasma

ITER ha come obiettivo principale quello di dimostrare che questo tipo di centrali è commercialmente realizzabile. Non sappiamo quanto ci vorrà ma siamo abbastanza sicuri che questo sarà uno dei modi con cui verrà prodotta energia in grande quantità in futuro. Il nucleare a fusione potrà infatti produrre grandi quantità di energia in modo continuo come le centrali nucleari a fissione già oggi esistenti, pur essendo pulito e sicuro. Pulita perché, anche se si tratta di energia ottenuta grazie a una reazione nucleare, non produce scorie radioattive: il risultato del processo è l’elio, quello che si usa per gonfiare i palloncini, e non il plutonio o altre scorie come nel caso delle centrali nucleari già esistenti. Infatti le centrali nucleari di qualsivoglia generazione, comprese quelle della ancora fantascientifica quarta generazione, funzionano spaccando atomi di uranio, il quale decade in stati instabili molti dei quali decadono in plutonio, anch’esso radioattivo.

Per i tokamak non ci sono nemmeno rischi legati alla sicurezza, perché un’eventuale centrale nucleare a fusione non potrà mai trasformarsi in una nuova Chernobyl: anche se se ne perdesse il controllo, la quantità di plasma che si trova al suo interno è sufficiente appena per fondere parte del rivestimento interno della ciambella di contenimento.

Inoltre l’uranio, come il petrolio, è disponibile sulla terra in quantità limitate mentre l’idrogeno può essere estratto dall’acqua, che è costituita da una parte di ossigeno e due di idrogeno (H2O).

Snapshot dal video del reattore in funzione.

Il futuro è a Frascati

Dopo che Mazzitelli ci ha parlato di ITER ci è venuto spontaneo chiedergli quale sarà il futuro del tokamak di Frascati. A quel punto gli si sono illuminati gli occhi e ci ha detto che ha proposto la costruzione di un nuovo tokamak, FAST, che dovrebbe essere pronto per il 2013, con il quale verrà studiato un nuovo rivestimento interno in litio liquido. Il vantaggio è che un liquido, anche se sottoposto ad uno stress grande, è in grado di ritornare nella posizione di equilibrio nel momento in cui la forza che lo deforma cessa. Inoltre il nuovo rivestimento dovrebbe migliorare l’efficienza di estrazione del calore dai neutroni che la reazione produce. Insomma per usare le parole di Mazzitelli: il futuro è qui a Frascati!

Marzo 29, 2018 0 comment
0 Facebook Twitter Google + Pinterest
Bruno Touschek tra moto ciclette e anti  particelle
Nanos Gigantum

Bruno Touschek tra moto ciclette e anti particelle

written by Redazione
This entry is part 3 of 7 in the series numero 2

Chi è un fisico? Cosa fa un fisico? Queste sono classiche domande che anche noi, oggi studenti di fisica e giovani ricercatori, ci siamo fatti all’inizio della nostra formazione e che spesso ci sentiamo rivolgere da amici, conoscenti e parenti. Vi assicuriamo che tutti i giorni i fisici devono – anche implicitamente – rispondere a queste due domande e in fondo il motivo è molto semplice: la Scienza è per tutti, negli intenti, negli scopi e anche nel suo sviluppo. Se noi scienziati non siamo in grado di spiegare a chiunque quello che facciamo, con le giuste parole, allora è possibile che quello che stiamo facendo non abbia poi molto senso. Piuttosto che rispondere a questa provocazione con delle definizioni e con delle discussioni che riguardano il cosa fare o il come farlo, potremmo cercare le risposte nella vita concreta di un fisico.

Bruno Touschek è un giovane austriaco appassionato di moto, di velocità e di emozioni. Gli piace disegnare, ha notevoli doti artistiche, ama costruire apparecchiature elettroniche e curiosare ovunque. Ha visitato più volte l’Italia e Roma, città in cui vive sua zia Adele, e a trentuno anni decide di trasferirsi per proseguire le sue attività nella Capitale. Già sembra incredibile che qualcuno avverta il desiderio di venire a vivere nel nostro paese, luogo dal quale si dice che tutti i cervelli siano soliti fuggire. In effetti abbiamo un po’ barato: siamo negli anni ’50.

Composizione realizzata da Beatrice e Dario Congiu del Lic. Sc. Bruno Touschek, Grottaferrata (RM), in occasione della tavola rotonda “Bruno Touschek: l’uomo e lo scienziato” del 28-01-2009 (fonte: LNF/INFN).

Tra febbre e pallottole

Bruno nasce il 3 febbraio del 1921 a Vienna. In questa città inizia i suoi studi e all’età di sedici anni viene costretto ad abbandonare la sua scuola a causa della discendenza ebraica della madre, deceduta qualche anno prima, nel 1931. Bruno riesce a sostenere gli esami di maturità privatamente, presso un’altra scuola, e a iscriversi all’università di Vienna al corso di laurea in Fisica e Matematica. Non molto tempo dopo, però, deve lasciare di nuovo gli studi e la sua amata città, sempre a causa delle persecuzioni razziali. Si trasferisce in Germania dove, con l’aiuto di alcuni amici, trova lavoro ad Amburgo in una ditta affiliata alla Philips. In questo ambiente inizia ad apprendere molti dettagli sulla costruzione di impianti di potenza a radiofrequenza: la ditta per la quale lavora produce infatti gli antesignani dei moderni tubi klystron, tubi a vuoto che convogliano elettroni liberi o riuniti in fasci per impieghi nella trasmissione di segnali radar, di segnali televisivi e anche di segnali da introdurre negli acceleratori di particelle. In questo ambiente Bruno lavora direttamente a contatto con il materiale e con i mezzi che, in un futuro non lontano, costituiranno un’importante fonte di ispirazione per le sue ricerche. Proprio nella sua azienda ha la possibilità di studiare alcuni progetti su una macchina che accelera cariche elettriche, il Betatrone di Wideroe. Questo ingegnere stava costruendo ad Amburgo un acceleratore e Bruno lo contatta per suggerirgli alcune correzioni ai suoi calcoli: nasce così una collaborazione che entusiasma moltissimo entrambi. Nel 1945, tuttavia, Bruno viene arrestato dalla Gestapo e, dopo qualche mese di prigionia, trasferito in un campo di concentramento a Kiel. La sorte sembra voltargli le spalle ma, curiosamente, la febbre lo salva dai tedeschi: durante il trasferimento, stremato dalla malattia e sotto il peso dei libri che porta con sé, crolla a terra, faccia in giù nella neve. Un soldato tedesco gli spara un colpo in testa e lo lascia in una pozza di sangue, ma la pallottola lo prende di striscio sull’orecchio. Qualche ora dopo il giovane fisico riesce a riprendersi e si ritrova inaspettatamente libero…

Come finisce la storia? Non è il caso di continuare a raccontare di quanto Bruno fosse un ragazzo vivace e pieno di curiosità, uno che si tuffava nudo nei laghi della Scozia, che aveva costruito una piscina sopra il suo garage a Via Pola a Roma, che dopo essere caduto due volte dalla sua nuova motocicletta aveva passato la notte a fare calcoli per dimostrare un difetto di progettazione (provocandone il ritiro dal commercio!), uno che sosteneva che il Superego è solubile nel vino. È più interessante, invece, raccontare quanto sia cambiata la Fisica grazie ai suoi contributi.

Carta e penna vs. Viti e bulloni

Touschek si divertiva spesso a fare caricature. Qui è ritratta una tipica scena da laboratorio: una discussione sul campo magnetico in base alla regola delle tre dita. Bruno la disegnò su una pagina del registro delle misure fatte con AdA ad Orsay durante il Simposio sugli anelli di accumulazione tenutosi in quel laboratorio dal 26 al 30 settembre 1966. Fu poi stampato negli atti del simposio come pagina iniziale della sessione Magnetic Detectors – Radiative Corrections.

Tra i fisici esiste un linguaggio in codice che in genere distingue i precisini dagli smanettoni, quelli che preferiscono giocare con carta, penna e lavagne da quelli che preferiscono smontare e sbullonare: generalmente i primi si definiscono fisici teorici, i secondi fisici sperimentali. Chiaramente si tratta di poco più che folklore, ma vi assicuriamo che c’è più di qualche differenza tra queste due specie. Sono pochi i fisici che appartengono ad entrambi i gruppi: per esempio Einstein è stato un famoso teorico, come lo sono stati Dirac, Bohr e moltissimi altri. Invece Fermi, Touschek e Feynman fanno parte di quella categoria di scienziati sempre pronti a tutto. Molti dei professori che popolano i nostri dipartimenti, pur definendosi teorici, adorano realizzare esperimenti di ogni sorta nella propria casa! Questa tradizione si può far risalire ai tempi di Fermi e passa senza dubbio anche per Touschek.

Tornando a Bruno, possiamo affermare che prima di lui la fisica delle particelle adorava investigare la materia sparando particelle contro un bersaglio. Non solo. All’epoca si utilizzavano sempre particelle della stessa carica, per esempio un fascio di elettroni contro un bersaglio di elettroni. Proprio Touschek e Wideroe furono i primi a usare particelle di carica opposta, ovvero particelle e antiparticelle dello stesso tipo (elettroni contro positroni, nel loro caso), e a farle scontrare in moto. È facile capire la differenza: provate a immaginare due macchine che, a piena velocità, si scontrano frontalmente, rispetto a una macchina che piomba su un’altra parcheggiata. Anche se questa idea, espressa così, sembra banale, fino a un certo periodo nella storia della fisica nessuno ebbe il coraggio di provarci: fu Touschek il primo!

Da AdA a LHC

Nel 1960, in un solo anno, Bruno riuscì a proporre l’idea, a scrivere il progetto, a farlo approvare, a costruire la macchina e a metterla in funzione! Ovviamente molte persone parteciparono all’impresa e Carlo Bernardini, Giorgio Salvini, Luisa Pancheri e altri vi possono tutt’oggi raccontare molto in proposito. Il primo Anello di Accumulazione, come si chiama questo tipo di macchine acceleratrici di particelle, era talmente piccolo da poter entrare comodamente nella vostra camera da letto: fu battezzato AdA, nome datogli da Touschek in onore della zia. Subito dopo fu il turno di Adone, il suo successore più grande. Oggi tutti conosciamo l’LHC di Ginevra, che altro non è che l’ultima versione degli strumenti immaginati e prodotti da Touschek mezzo secolo fa.

Negli anni a venire furono costruiti anelli di accumulazione in tutto il mondo: negli USA, nell’ex URSS, in Germania, in Inghilterra, in Giappone, in Svizzera, … Tutto a partire da Frascati, per diffondersi a Brookhaven, Chicago, Cambridge, Novosibirsk, Ginevra, con la nascita del Tevatron, del LEP, del VEPP e tanti altri. Negli anni ’80, un allievo di Touschek, Carlo Rubbia, insieme a Simon van der Meer, propose la modifica di un acceleratore di protoni (l’SPS del CERN, a Ginevra) per far scontrare protoni e antiprotoni. Nel 1984, le loro idee e le loro scoperte furono premiate con il Nobel. Da dove credete che sia partito tutto questo? Da Bruno Touschek presso i Laboratori Nazionali di Frascati!

Marzo 29, 2018 0 comment
0 Facebook Twitter Google + Pinterest
Eventi

Notte Europea dei Ricercatori

written by Carlo Mancini
This entry is part 2 of 7 in the series numero 2

Dagli anni ’50 l’area scientifica di Frascati è protagonista ed epicentro di importanti attività di ricerca di livello internazionale.
Lo spirito anche di questa edizione della Settimana della Scienza è proprio quello di valorizzare e far conoscere questa importante e unica realtà.
Esperimenti e ricercatori in piazza, giochi per i più piccoli, visite ai più importanti laboratori di ricerca italiani ed europei, spettacoli e caffè scientifici permetteranno a tutti di dialogare con i ricercatori e scoprire la Scienza in modo semplice e divertente.

Anche quest’anno saranno tanti gli argomenti trattati.
Tra i principali: energia, genetica, ambiente, astrofisica, nanotecnologie, biodiversità, mentre i partner CERN ed Erasmus Medical Center mostreranno il mondo delle particelle elementari e della medicina del futuro.
Il tutto unito a presentazioni di libri e attività d’intrattenimento musicali e teatrali.

Frascati, crocevia internazionale di ricercatori

Il progetto 2010, denominato BEST (Being European Scientist Today), è la 5° edizione organizzata da Frascati Scienza, insieme agli istituti di ricerca e agli enti collaboratori che la compongono, ed è la prima ad avere una reale e completa dimensione europea.
Il progetto vede il coinvolgimento di due importanti strutture di ricerca europee come partner:
il CERN di Ginevra e l’Erasmus Medical Center di Rotterdam. Fra le attività previste, il collegamento europeo con tali centri sarà una delle iniziative che conferiranno maggiore valore aggiunto alla manifestazione.

Frascati ha un ruolo centrale nell’Europa della ricerca scientifica

L’evento 2010 è focalizzato sulla dimensione europea della ricerca italiana e sulla valenza europea del territorio del polo di ricerca Tuscolano e Romano. Frascati è luogo di scienza a livello europeo da moltissimi anni e, grazie alle sue molteplici strutture di ricerca e ai suoi ricercatori, riveste da anni un ruolo centrale nel panorama continentale.
Molte delle grandi ricerche scientifiche europee hanno visto i loro albori a Frascati e tutt’oggi questo polo di ricerca rappresenta un crocevia per tutti i ricercatori europei.
Per la Settimana e la Notte della Scienza del 2010 la città diventerà quindi la piazza centrale di una manifestazione che coinvolgerà tutta Europa.

Attraverso le numerose attività in programma e moderne tecnologie multimediali, le piazze delle città ospiti
dei centri di ricerca partner del progetto verranno raggiunte da Frascati e vivranno localmente le stesse attività: studenti, cittadini, turisti, curiosi o semplici passanti di tutta Europa sperimenteranno per una notte le stesse esperienze con i ricercatori europei.

L’evento è focalizzato sulla dimensione europea della ricerca italiana

Attraverso attività ludico-­didattiche quali la Science Fair e lo Star Party e con esperimenti e ricercatori in piazza, visitatori di tutte le età potranno interagire con i protagonisti dell’avventura della Scienza e avvicinarsi alle sue leggi fondamentali, imparando, giocando e dando sfogo alla propria curiosità. In questi spazi verranno inoltre realizzati dei luoghi di condivisione e dialogo dove i ricercatori racconteranno le tematiche più delicate e interessanti della ricerca moderna. Non verrà sottovalutato l’approccio diretto alla scienza e ai ricercatori, con un fitto calendario di incontri tematici e dedicati a un pubblico di età e preparazione differenti.

Momento clou della manifestazione sarà lo spettacolo in piazza, con collegamenti internazionali e attività delle varie sedi trasmesse in diretta audio/video. Per una notte le piazze delle città coinvolte diventeranno un’unica sola grande piazza per sottolineare ancora di più quanto la ricerca italiana e i ricercatori siano fautori e costruttori ogni giorno di una cultura europea e aiutino con il loro lavoro ad abbattere ogni barriera tra le nazioni. Gli studenti delle sedi coinvolte potranno collaborare con i loro colleghi e realizzare assieme un grande esperimento a cielo aperto che sarà condiviso in tempo reale grazie alle telecamere sul posto.

In un evento che vuole essere una festa oltre che un momento di approfondimento e sperimentazione scientifica, non potrà mancare la parte dedicata al divertimento.
Durante tutta la notte gruppi musicali, performance artistiche e teatrali accompagneranno i visitatori grazie alla collaborazione dei ricercatori più dotati. Molte delle attività verranno videoregistrate allo scopo di creare un cortometraggio, la cui unicità sarà nel raccogliere i contributi dei ricercatori e le eccellenze dei maggiori Centri di Ricerca.

Marzo 8, 2018 0 comment
0 Facebook Twitter Google + Pinterest
AMADEUS, la sinfonia delle forze
Il Ricercatore Romano

AMADEUS, la sinfonia delle forze

written by Carlo Mancini
This entry is part 5 of 7 in the series numero 2

Di tutte le proprietà che associamo alla materia, quella con la quale ognuno ha certamente più dimestichezza è la massa. Sin da bambini la nostra massa e la sua interazione con quella della Terra attraverso la forza di gravità ci rendono difficile gattonare e poi – lentamente – alzarci in piedi. In qualche modo questa è la prima esperienza di fisica di ogni essere umano. Spesso il senso comune porta addirittura a identificare la massa di un oggetto con l’oggetto stesso, ciò che lo rende consistente e tangibile, sebbene sia soltanto una delle proprietà quantistiche delle particelle che lo compongono. Ma vi è mai capitato di domandarvi da dove viene la massa, qual è la massa dei costituenti elementari della materia, e in che modo è legata a quella delle più familiari particelle delle quali siamo fatti?

Interno della Sala DAFNE, situata nei Laboratori Nazionali di Frascati (da http://www.lnf.infn.it).

La materia cosiddetta ordinaria, della quale è costituito ciò che ci circonda e che, per essere prodotta, non necessita di un esperimento di alte energie né di un evento astrofisico, è composta da elettroni, protoni e neutroni. I primi vengono oggi considerati particelle elementari, ossia non vi è alcuna evidenza che essi abbiano una struttura interna più complessa. Al contrario, protoni e neutroni ospitano al loro interno una fisica vivace: ciascun protone o neutrone è costituito da tre quark (di tipo u e d) che interagiscono fra loro scambiando gluoni (dall’inglese glue, ossia colla).

L’enigma del salto di massa

La massa dei protoni differisce di poco da quella dei neutroni, indice del fatto che i due sapori (ovvero, i due tipi di quark) di cui sono costituiti sono molto simili. Tuttavia la massa di ciascuno dei tre quark costituenti un protone è un centinaio di volte più piccola della massa del protone stesso! Quale è dunque il meccanismo responsabile di questo salto di massa? Come spesso avviene in fisica, la risposta a questo interrogativo è celata in una simmetria del modello matematico adottato. Nel 1960 Nambu e Jona-Lasinio ipotizzarono che la teoria dell’interazione forte dei quark (nota come cromodinamica quantistica) dovesse possedere una tale simmetria, proprio in virtù del fatto che la massa di u e d è tanto più piccola di quella delle particelle da essi composte, così da poter essere considerata nulla relativamente a questa. La teoria che ha avuto origine da questa straordinaria scoperta, la teoria della perturbazione chirale, ha fornito negli anni una gran quantità di predizioni sull’interazione adronica a bassa energia, la cui verifica sperimentale è il banco di prova delle teorie stesse. In questo contesto i Laboratori Nazionali di Frascati dell’INFN e l’acceleratore DAΦNE costituiscono un’occasione unica di verifica sperimentale, della quale gli esperimenti DEAR e SIDDHARTA sono la dimostrazione, ed AMADEUS il prossimo futuro.

DAΦNE e l’esperimento AMADEUS

AMADEUS studierà l’interazione di kaoni con protoni e nuclei leggeri, per verificare la possibilità che la forte interazione attrattiva dei kaoni negativi con i protoni, possa dare origine a stati quasi legati kaone-nucleo. I kaoni sono particelle strane che non si incontrano nella materia ordinaria, poiché la loro vita media è troppo breve. Essi decadono appena un istante dopo essere stati prodotti, in un tempo dell’ordine del miliardesimo di secondo. In virtù della loro massa, circa la metà di quella del protone, i kaoni giocano un ruolo molto particolare nella teoria della perturbazione chirale. Questo è il motivo per cui lo studio delle loro interazioni riveste così grande importanza. DAΦNE è una sorgente eccezionale di kaoni di bassa energia: l’acceleratore è costituito da due anelli lunghi circa cento metri, nei quali circolano, in versi opposti, elettroni e positroni (le antiparticelle degli elettroni). Elettroni e positroni, mantenuti in orbita da un complesso sistema di magneti, vengono fatti collidere in un punto detto di interazione, dando luogo alla formazione di circa duemila particelle φ al secondo. Queste sfuggevoli particelle hanno vita media brevissima (molto minore di quella dei kaoni) e decadono a loro volta in una coppia di kaoni. Ottenuta una sorgente di kaoni, c’è da affrontare il problema della scelta del bersaglio. Nel caso di AMADEUS, la scelta verte su bersagli costituiti da nuclei leggeri, nello specifico protoni (nuclei di idrogeno), nuclei di elio e del suo isotopo elio-3 (costituito da due protoni e un neutrone).

Prototipo del sistema di trigger di AMADEUS: avrà lo scopo di identificare i kaoni provenienti da DAFNE dalle altre particelle prodotte (cortesia personale dell’autore).

La scelta del bersaglio è dettata da necessità pratiche. Nello specifico, l’utilizzo di atomi più complessi introdurrebbe complicazioni nell’interpretazione dei dati. Il nucleo di carbonio contiene, ad esempio, sei protoni e sei neutroni. Trattare l’interazione a molti corpi kaone-nucleo necessiterebbe dell’introduzione di parametri e ipotesi aggiuntivi, rendendo proibitiva l’analisi delle particelle prodotte. I kaoni negativi provenienti dal punto di interazione penetreranno il bersaglio e, rallentati dagli urti con le molecole del gas, verranno catturati in un’orbita atomica spodestando un elettrone. Cadranno, poi, su orbite via via meno eccitate emettendo fotoni fin quando, eventualmente, l’interazione forte kaone-nucleo darà luogo alla formazione di un nucleo kaonico. L’eventuale stato kaone-nucleo è destinato a una vita brevissima e decade rapidamente in una serie di particelle figlie. Bisogna identificare proprio questi prodotti di decadimento e misurare le loro proprietà. Il punto di partenza in questo senso sarà fornito da un complesso rivelatore di nome KLOE, che sarà centrato sul punto di interazione e permetterà di ricostruire traiettoria, velocità, energia, massa e così via, delle particelle prodotte, indipendentemente dalla loro direzione.

Dalla teoria all’esperimento alla teoria

La teoria dell’interazione forte a bassa energia trarrà dall’esperimento AMADEUS evidenze essenziali per il suo sviluppo. La scoperta o meno della formazione di stati legati kaone-nucleo dirimerà un dibattito annoso, aprendo nuovi scenari in ambiti inaspettati, come, ad esempio, la stabilità delle stelle compatte. Dalle particelle elementari agli astri, il percorso della ricerca può sembrare tortuoso e accidentato, ma ad ogni passo l’orizzonte appare più chiaro e un pochino più ampio.

Alcuni dei componenti della collaborazione AMADEUS, davanti agli schermi della sala controllo del BTF, Beam Test Facility (cortesia personale dell’autore).

Settembre 2, 2010 0 comment
0 Facebook Twitter Google + Pinterest
Newer Posts
Older Posts

Iscriviti al blog tramite email

Inserisci il tuo indirizzo e-mail per iscriverti a questo blog, e ricevere via e-mail le notifiche di nuovi post.

Unisciti a 22 altri iscritti

Informazioni su questo sito

Questo può essere un buon posto per presentare te stesso ed il tuo sito o per includere alcuni crediti.

  • Facebook
  • Twitter

@2017 - PenciDesign. All Right Reserved. Designed and Developed by PenciDesign


Back To Top

[ Placeholder content for popup link ] WordPress Download Manager - Best Download Management Plugin