accastampato
  • Chi siamo
  • Blog
  • Contatti
  • Scarica la rivista

accastampato

  • Chi siamo
  • Blog
  • Contatti
  • Scarica la rivista
Recensioni

Il fascino sottile del laser

written by Redazione
This entry is part 7 of 7 in the series numero 4

“A oltre quarant’anni di distanza dalla sua invenzione, il laser continua a creare intorno a sé un’atmosfera mista di curiosità e meraviglia. La curiosità è essenzialmente alimentata dal fatto che nuovi tipi di laser vengono ancora oggi inventati e nuove, affascinanti, persino impensabili applicazioni vengono continuamente introdotte. Il senso di meraviglia, cui non si sottrae anche il lettore meno informato, deriva soprattutto dal carattere pervasivo del laser: non esiste infatti campo della scienza e della tecnica che non sia stato influenzato, a volte in maniera rivoluzionaria, da questa invenzione”.

Il giudizio di Orazio Svelto sul laser è molto semplice, ma contiene tutto ciò che rende speciale questa tecnologia. L’autore di Il fascino sottile del laser e del precedente Principles of laser del 1970, punto di riferimento internazionale per la didattica in questo campo, è un ingegnere italiano, laureato al Politecnico di Milano e attualmente ordinario di fisica della materia. È socio dell’Accademia dei Lincei e dell’Accademia Nazionale delle Scienze e il suo lavoro si è concentrato sullo sviluppo di nuovi laser a stato solido, sulla generazione di impulsi ultra-brevi di luce laser e sulle applicazioni del laser in medicina e biologia e ha prodotto tre brevetti nel settore. Nel 2000 il Comitato del Premio Nobel per la fisica, su segnalazione di numerosi proponenti, ha deciso di assegnare il nuovo Premio Nobel nell’ambito dei laser, nominando il prof. Svelto come consulente ed esperto, riconoscendogli esperienza internazionale nel settore. Nel maggio del 2006 ha ottenuto l’importante Premio “Charles Townes” della Optical Society of America, istituito in onore del padre del laser e assegnato annualmente a quello scienziato autore di lavori di eccellenza, scoperte o invenzioni nel settore dei laser e dell’elettronica quantistica.

“Il fascino sottile del laser” non è propriamente un libro sui laser, ma l’autobiografia di un uomo che ha speso l’intera vita professionale al loro studio. Un breve testo, nemmeno cento pagine, in cui trovano posto numerose riflessioni sulla situazione attuale italiana, sia nell’ambito della ricerca, che in quello formativo e politico. Un esempio è la seguente considerazione sulla riforma universitaria in atto che, benché del 2007, accompagna perfettamente la recente nomina dei membri dell’ANVUR (Agenzia Nazionale per la Valutazione del Sistema Universitario e della Ricerca): “tre sono le cose da non fare: non rassegnarsi, non negare la gravità della crisi, non addossarsi vicendevolmente le colpe, di contro ridare valore al merito, valutare periodicamente i risultati conseguiti da docenti e ricercatori, mettendo in preventivo che molte sono e saranno le resistenze al cambiamento”.

Quella dell’autobiografia scientifica è una formula editoriale già testata con successo su luminari dello spessore di Edoardo Bancinelli e Margherita Hack: l’intreccio tra il vissuto umano e quello professionale, tra percorsi culturali, sociali, meritati riconoscimenti, dedizione, impegno, sacrificio e tanta, tanta passione per la conoscenza. Sono gli studenti, la generazione più giovane che si sta formando per prendere in mano e affrontare le sfide del futuro, ad essere al centro della riflessione di Orazio Svelto: il suo suggerimento per loro è di “non lasciarsi mai fuorviare nella scelta della propria carriera da argomentazioni di carattere venale o da pressioni familiari”, facendosi invece guidare dalla passione per “la ricerca, perché in essa è racchiuso il futuro non solo della nostra nazione, ma di tutta l’umanità”.

Aprile 3, 2018 0 comment
0 Facebook Twitter Google + Pinterest
Luce sull’atmosfera: il LiDAR
Il Ricercatore Romano

Luce sull’atmosfera: il LiDAR

written by Redazione
This entry is part 6 of 7 in the series numero 4

La comprensione e lo studio dei processi fondamentali che hanno luogo nell’atmosfera terrestre sono legati a doppio filo con lo sviluppo degli strumenti per il sondaggio delle grandezze fisiche che li caratterizzano: concentrazione dei vari costituenti, densità, velocità e direzione dei venti, ecc. Alcuni di questi strumenti, chiamati di telerilevamento attivo, sono basati sullo studio della risposta del sistema fisico a un’emissione di onde elettromagnetiche o acustiche. In questo campo uno degli strumenti più utilizzati e con una consolidata storia alle spalle è il LiDAR, Light Detection And Ranging, uno strumento di monitoraggio a sorgente laser.

L’idea di analizzare la luce retrodiffusa dalle particelle alle diverse quote per misurare il profilo di densità dell’alta atmosfera precede addirittura l’invenzione del laser1. Infatti dagli studi di Rayleigh (1842–1919) e Mie (1869–1957) sull’interazione tra luce e materia era chiaro che, attraverso lo studio della luce retrodiffusa dai diversi strati dell’atmosfera, sarebbe stato possibile dedurre la composizione della stessa con la conoscenza dei coefficienti di assorbimento e diffusione dei diversi costituenti.

Dal laser al LiDAR

Parallelamente all’invenzione del laser nel 1960 iniziarono i primi sviluppi della moderna tecnologia LiDAR. Storicamente il primo a utilizzare il laser per il telerilevamento attivo in atmosfera è stato Giorgio Fiocco2 [3], docente di Fisica Terrestre all’Università Sapienza di Roma e membro del G24, il gruppo di ricerca che usa quotidianamente sistemi LiDAR montati al quinto piano del Nuovo Edificio di Fisica (cfr. Figura 1) per lo studio di diversi parametri atmosferici [4].

Figura 1 – Foto di uno dei sistemi LiDAR con emissione a 532 nm (colore verde) installato sul tetto del Nuovo Edificio di Fisica all’Università Sapienza di Roma. Dal sito del G24.

La storia degli sviluppi delle tecniche LiDAR si muove parallelamente agli sviluppi tecnologici dei laser e dell’elettronica moderna, verso prestazioni sempre più alte nella risoluzione spaziale e temporale delle misure per il sondaggio atmosferico e non solo. Nel tempo sono stati costruiti, a seconda delle esigenze di ricerca, diversi modelli di LiDAR atti allo studio di vari processi, da quelli turbolenti della bassa atmosfera a quelli legati a bassissime concentrazioni di gas o alla distribuzione degli aerosol, particelle micrometriche o nanometriche che svolgono un ruolo importante nei processi radiativi in atmosfera. Questi ultimi possono avere origine naturale o antropogenica e il problema della loro incidenza diretta e indiretta sul cambiamento climatico globale è una questione aperta e molto studiata. Si può vedere ad esempio il report dell’IPCC del 2007 su questo problema, mentre sui possibili effetti indiretti si veda anche [5].

È impossibile in questa breve nota dar conto dei numerosi sviluppi nella ricerca legata al LiDAR [6], pertanto tenteremo di fornire un’idea del principio di funzionamento di questo strumento descrivendone una tipologia particolare, che sfrutta i processi di retrodiffusione elastica in atmosfera.

Uno sguardo dentro il LiDAR

Focalizziamo la nostra attenzione sull’apparato rappresentato schematicamente in Figura 2. Il sistema è composto da una sorgente laser che emette verticalmente radiazione di una certa lunghezza d’onda (nel caso della Figura 1 a circa 532 nm, corrispondente al verde) e da un ricevitore che, attraverso un opportuno sistema ottico, raccoglie la luce retrodiffusa da ogni strato di spessore Δz del mezzo sovrastante e la incanala verso un rilevatore di radiazione.

Il fotomoltiplicatore è un rilevatore di radiazione che converte il segnale luminoso in una corrente di elettroni e quindi in un segnale analogico. I fotoni colpiscono una superficie fotosensibile chiamata fotocatodo, da cui vengono emessi per effetto fotoelettrico degli elettroni, che vengono poi accelerati con una serie di elettrodi (chiamati dinodi) disposti all’interno di un tubo da vuoto. Gli stessi elettroni, colpendo i dinodi, stimolano l’emissione di altri elettroni, da cui una moltiplicazione a cascata che arriva all’altra estremità del tubo chiamata fotoanodo. Il segnale viene infine elaborato e analizzato tramite un computer. Questa schematizzazione semplificata descrive una particolare configurazione, detta monostatica, dell’apparato LiDAR, utilizzata spesso per lo studio dei processi di retrodiffusione (backscattering) elastica della radiazione3.

Figura 2 – Schema dell’apparato LiDAR in configurazione monostatica: un fascio laser viene sparato verso l’alto e diffuso dallo strato di spessore Δz a quota Z. La luce diffusa viene poi raccolta da un telescopio e indirizzata a un rilevatore che consente di analizzare il segnale.

Ma cosa possiamo imparare dallo studio del segnale registrato? Per capirlo è necessario riflettere sui processi di interazione nell’atmosfera tra la radiazione e la materia presente alle diverse quote. Nella configurazione appena descritta la sorgente luminosa è quasi monocromatica, cioè a lunghezza d’onda fissata, ad esempio nel visibile, e proveniente da un laser impulsato. Le caratteristiche della sorgente laser sono fondamentali nel determinare la risoluzione spaziale e temporale della misura: la durata degli impulsi permette di determinare la quota alla quale la radiazione raccolta a un certo istante è stata diffusa. La luce emessa dal laser interagisce con le particelle presenti nei vari strati dell’atmosfera e in generale può essere assorbita o diffusa in modo diverso al variare dalle caratteristiche fisiche e geometriche delle particelle, che possono essere molecole o aerosol. Il segnale registrato è il risultato di una serie di interazioni della luce con la materia, descritte da una legge di estinzione4.

Aerosol in atmosfera

Lo studio del ruolo degli aerosol atmosferici è molto importante nella ricerca attuale in fisica dell’atmosfera, specialmente per la comprensione dei processi di trasferimento radiativo. A differenza delle proprietà ottiche delle molecole, descritte in modo completo dalla teoria di Mie, l’indagine sulle proprietà ottiche dei diversi tipi di aerosol presenti in atmosfera e sull’effetto della loro presenza è un argomento tuttora molto studiato e il LiDAR è uno degli strumenti più utilizzati a questo scopo.

Per chiarire questo punto è sufficiente guardare la Figura 3, in cui si presenta il rapporto di retrodiffusione5 giornaliero alle diverse quote, in un sondaggio effettuato alla Sapienza il 19 luglio 2010. Questo grafico mostra l’effetto della presenza degli aerosol alle diverse quote e al variare delle ore rispetto alla diffusione che si avrebbe in un’atmosfera puramente molecolare. Tramite sondaggi di questo tipo è possibile indagare la distribuzione degli aerosol al variare della quota.

Oltre l’atmosfera

Figura 3 – Esempio di un sondaggio giornaliero sul rapporto di retrodiffusione effettuato con il LiDAR alla stazione della Sapienza il 19 luglio 2010. Dal sito del G24.

Fin qui abbiamo accennato ad alcune applicazioni del LiDAR nella fisica dell’atmosfera, riguardanti lo studio dei processi di trasferimento radiativo e degli aerosol e il sondaggio delle grandezze fisiche e meccaniche (densità, temperatura, velocità e direzione del vento). Ma il LiDAR è uno strumento ormai utilizzato in un gran numero di applicazioni, dal monitoraggio ambientale all’oceanografia. In particolare sono diversi gli utilizzi dei sistemi LiDAR montati sugli aerei, detti Airborne Lidar, che consentono di fare sondaggi atmosferici da quota, ma anche di effettuare misure sulla profondità dei fondali marini [7]. Da questo punto di vista il LiDAR ha anche diverse applicazioni nella gestione delle regioni costiere, consentendo di avere un quadro estremamente preciso della geomorfologia dei bacini dei fiumi e dei bacini marini anche nelle zone meno profonde.

Similmente il LiDAR consente di effettuare una fotografia della topografia terrestre anche in zone boscose. Questa potenzialità è stata recentemente esplorata per lo studio delle faglie attive in regioni a rischio sismico in cui la copertura boscosa non consentirebbe di identificarle in altri modi [8]. Esiste infatti un algoritmo che consente di disboscare virtualmente la regione interessata e di studiare in modo diretto la topografia della superficie. L’individuazione con questo metodo delle faglie attive può avere un ruolo importante per l’identificazione delle zone a maggiore rischio sismico su un territorio.

Una menzione particolare va poi data al progetto della NASA, realizzato nel 1994, basato sul montaggio della tecnologia LiDAR a bordo di una stazione spaziale. Il progetto Lidar In-space Technology Experiment (LITE) ha portato a diversi studi sull’atmosfera terrestre, dai processi radiativi, allo studio dell’effetto degli aerosol sull’albedo, all’evoluzione dello strato limite planetario (PBL) [9].

Si può insomma ben dire che il LiDAR sia uno di quegli strumenti che ci stanno aiutando, non solo metaforicamente, a portare un po’ di luce nella nostra comprensione della natura.

Aprile 3, 2018 0 comment
0 Facebook Twitter Google + Pinterest
Laser ad elettroni liberi
Il Ricercatore Romano

Laser ad elettroni liberi

written by Redazione
This entry is part 5 of 7 in the series numero 4

Figura 1 – Un modulo dell’ondulatore di SPARC.

Una particella carica in moto su un’orbita curvilinea emette spontaneamente radiazione elettromagnetica detta luce di sincrotrone [1]. La prima osservazione diretta di questo fenomeno fu effettuata nel 1947 osservando l’intensa luce uscente da una finestra installata su un piccolo acceleratore circolare di particelle, un sincrotrone appunto, ed è stata considerata per molto tempo un effetto di disturbo per la dinamica delle particelle accelerate, che perdono parte della loro energia proprio sotto forma di energia irraggiata. Uno studio più accurato del fenomeno [2] rivelò che la luce di sincrotrone è la sovrapposizione di un ampio spettro di radiazioni con lunghezze d’onda che si estendono dal lontano infrarosso fino ai raggi X e che può essere utilizzata come potente sorgente di radiazione per effettuare indagini sulla natura microscopica dei materiali, delle cellule, delle proteine e per ottenere immagini ad altissima risoluzione di tessuti biologici.

Dalla luce di sincrotrone al laser

Figura 2 – Moto degli elettroni all’interno dell’ondulatore e corrispondente curva di crescita di intensità della radiazione emessa. Il fascio di elettroni (ellisse arancione) è rappresentato nelle tre fasi principali: letargia, crescita esponenziale, saturazione.

Il Laser ad Elettroni Liberi [3], spesso chiamato FEL dall’acronimo inglese Free Electron Laser, è una sorgente di luce di sincrotrone in grado di produrre radiazione elettromagnetica monocromatica anche a lunghezza d’onda inferiore a un milionesimo di millimetro (raggi X). Questo dispositivo consiste essenzialmente in un lungo magnete, detto ondulatore e visibile in Figura 1, caratterizzato da un campo magnetico sinusoidale prodotto da una serie di piccoli dipoli magnetici con polarità alternata, in cui viene iniettato un fascio di elettroni di alta densità di carica prodotto da un acceleratore lineare (Linac). All’interno di questa struttura magnetica gli elettroni emettono radiazione di lunghezza d’onda λr, detta di risonanza, direttamente proporzionale al periodo del campo magnetico dell’ondulatore λu e inversamente proporzionale al quadrato dell’energia degli elettroni γ2: λr ~ λu / γ2 [4].

In una prima fase, detta di letargia, l’interazione tra il fascio di elettroni e la radiazione emessa dal fascio stesso mentre viaggia all’interno dell’ondulatore produce una ridistribuzione spaziale degli elettroni in tanti piccoli pacchetti, distanziati esattamente una lunghezza d’onda di risonanza, come mostrato in Figura 2.

In questo modo miliardi di elettroni si auto-organizzano per partecipare all’emissione di radiazione in fase tra loro (coerenza) e alla stessa lunghezza d’onda (monocromaticità) con una crescita esponenziale della potenza emessa. Il processo si arresta quando gli elettroni hanno convertito in energia elettromagnetica una frazione tale della loro energia cinetica iniziale (~5%) da non soddisfare più la condizione di risonanza: si è nella fase di saturazione. Inoltre, poiché la lunghezza d’onda emessa dipende dall’energia degli elettroni, è possibile modificare la lunghezza d’onda cambiando l’energia del fascio iniettato nell’ondulatore, cosa impossibile con i laser convenzionali.

Figura 3 – Schema del progetto SPARC.

Il FEL consentirà di aumentare di parecchi ordini di grandezza la potenza di picco (flusso di fotoni) rispetto alle migliori sorgenti attuali di luce di sincrotrone, con notevoli vantaggi per la ricerca e per la tecnologia industriale. Si potranno utilizzare ad esempio tecniche innovative basate sulla formazione d’immagini a raggi X, sia nella scienza dei materiali (nanotecnologie) che in biologia o medicina, aprendo nuove prospettive nella microscopia a raggi X e rendendo possibili nuove metodologie nel campo della cristallografia delle proteine.

Il progetto SPARC

Nato da una collaborazione tra l’INFN, l’ENEA e il CNR, il primo FEL italiano in grado di produrre radiazione monocromatica a 500 nm (nella regione dello spettro corrispondente al verde) è entrato in funzione nel Gennaio 2009 a Frascati.

Lo schema di Figura 3 illustra le componenti principali di SPARC. Un fascio di elettroni viene generato per effetto fotoelettrico da un catodo in rame posto all’interno di una struttura accelerante (Gun) che cattura il fascio e lo accelera fino all’energia di 5 MeV. Il fascio viene ulteriormente accelerato fino all’energia di 150 MeV da tre strutture acceleranti e trasportato fino all’ingresso dell’ondulatore, composto da sei moduli di circa due metri di lunghezza ciascuno con un campo magnetico massimo di circa 1 T e periodo di 2.8 cm. Per cambiare l’energia del fascio e di conseguenza il colore della radiazione emessa è sufficiente variare il campo accelerante nel Linac. Un’immagine recente del Linac di SPARC è riportata in Figura 4

Figura 4 – Vista del Linac di SPARC.

SPARC è un esperimento pilota in cui vengono studiati nuovi schemi di generazione di fasci di elettroni e soluzioni innovative per migliorare la qualità e la durata temporale della radiazione emessa, in vista di possibili sviluppi nell’area romana di macchine di maggiore energia (1-2 GeV) in grado di generare radiazione X. La produzione di impulsi di radiazione ultra-corti, della durata inferiore a decine di femtosecondi, aprirebbe nuove prospettive per lo studio di fenomeni veloci caratteristici delle reazioni chimiche di interesse biologico, quali ad esempio le reazioni fotosintetiche.

Il panorama internazionale e il futuro

I notevoli risultati ottenuti nell’ultimo decennio con gli esperimenti pilota negli Stati Uniti (UCLA, VISA e LEUTL), dove la fisica del FEL è stata studiata in dettaglio fino al regime di saturazione, e la prima macchina aperta anche agli utenti, FLASH a DESY (Amburgo), in grado di offrire radiazione coerente fino a 5 nm, hanno stimolato il proliferare di nuovi progetti in tutto il mondo, come illustrato nella Figura 5.

La frontiera dei raggi X (1 A) è stata raggiunta nel 2009 con il progetto LCLS a SLAC (Stanford) con un fascio di elettroni da 15 GeV, offrendo un nuovo strumento rivoluzionario a una vasta comunità scientifica.

Figura 5 – Distribuzione dei progetti FEL nel mondo. I cerchi bianchi indicano gli esperimenti pilota non più in funzione. I cerchi colorati indicano i progetti in via di sviluppo basati su tecnologie superconduttive (blu) e normal conduttive (rossi).

In Italia oltre al progetto dimostrativo SPARC sta per entrare in funzione un altro FEL a Trieste in grado di offrire radiazione di lunghezza d’onda fino a 10 nm. La comunità scientifica si sta ora organizzando per un ulteriore passo significativo: la realizzazione di un FEL a raggi X ultracompatto. La via maestra a questo scopo sembra passare attraverso lo sviluppo di acceleratori di particelle a plasma [5], in grado di produrre campi acceleranti fino al TV/m, riducendo così le dimensioni di un FEL a raggi X da alcuni chilometri a pochi centimetri.

Aprile 3, 2018 0 comment
0 Facebook Twitter Google + Pinterest
Luce e computer quantistici
Il Ricercatore Romano

Luce e computer quantistici

written by Redazione
This entry is part 4 of 7 in the series numero 4

L’uso delle leggi della meccanica quantistica per l’immagazzinamento, la manipolazione e la trasmissione dell’informazione potrebbe portare a un notevole avanzamento nella risoluzione di vari problemi, altrimenti impossibili da affrontare con la tecnologia attuale. In questo contesto l’ottica quantistica rappresenta un ottimo approccio sperimentale per la verifica di diversi concetti introdotti nell’ambito dell’informazione quantistica, in quanto i fotoni sono praticamente immuni alla decoerenza e possono essere trasmessi con grande facilità su grandi distanze, sia nello spazio libero che in fibra ottica.

Diverse sono le applicazioni di queste metodologie nel campo della comunicazione e della computazione: il teletrasporto, la crittografia quantistica [1], la simulazione quantistica di fenomeni fisici, la computazione quantistica [2].

Informazione quantistica

Figura 1 – Sorgente di stati di fotoni multipath entangled. Da [5].

Il campo dell’Informazione Quantistica (d’ora in poi IQ) nasce come unione fra la teoria dell’Informazione e la Meccanica Quantistica. Le sue origini possono essere ricondotte a una proposta di Richard Feynman che risale alla prima metà degli anni Ottanta del secolo scorso. Secondo Feynman il computer quantistico, ovvero un dispositivo nel quale le basi degli algoritmi della teoria dell’informazione vengono riformulate nel contesto matematico della meccanica quantistica, diventerebbe uno strumento necessario per simulare e analizzare correttamente i processi naturali quantistici. L’IQ, in virtù delle sue caratteristiche predittive e della sua intrinseca natura interdisciplinare, ha richiamato l’attenzione di diverse aree sia della fisica teorica e sperimentale, come ad esempio la fisica atomica, l’ottica quantistica, la fisica dei laser, la materia condensata, ecc., sia di altre discipline, come la computer science, la complessità matematica, le scienze dei materiali, le discipline ingegneristiche [3].

Negli ultimi due decenni l’IQ ha compiuto enormi progressi, sia da un punto di vista teorico che sperimentale, e ci si aspetta che possa dare un contributo a diverse aree scientifiche e tecnologiche nel prossimo futuro [4]. Nell’ambito dell’IQ, se da un lato la computazione quantistica è volta a fornire le basi per ottenere capacità computazionali che vadano oltre le possibilità dei computer classici, dall’altro la crittografia quantistica mira a garantire, almeno in via di principio, la capacità di effettuare comunicazioni assolutamente sicure.

L’ottica quantistica è un eccellente banco di prova sperimentale per i concetti dell’informazione quantistica

Da un punto di vista più fondamentale, uno degli scopi principali dell’IQ è approfondire e comprendere gli aspetti sottili della meccanica quantistica al fine di formulare, manipolare, processare e comunicare l’informazione nel modo più efficiente possibile utilizzando sistemi fisici basati sui suoi principi. Questo obiettivo richiede necessariamente un’interfaccia priva di fenomeni di decoerenza tra il mondo microscopico delle singole particelle quantistiche (fotoni, atomi, ecc.) e i sistemi di misura macroscopici che rendono l’informazione accessibile all’uomo.

Un groviglio di qubit

L’IQ si basa sul concetto di quantum bit o qubit, ovvero un sistema quantistico bidimensionale che in generale non possiede i valori definiti di un bit classico $0$ e $1$, ma che si trova in quello che viene chiamato uno stato di sovrapposizione coerente dei due stati di base |0- e |1-. Questo stato presenta proprietà non usuali, in particolare quando si realizza in sistemi composti. Infatti la caratteristica peculiare che identifica la meccanica quantistica è la possibilità di rendere entangled1 qubit differenti. Riconosciuto per primo da Erwin Schrodinger come “il tratto caratteristico della meccanica quantistica”, l’entanglement rappresenta la risorsa chiave per la manipolazione e l’analisi dell’informazione quantistica. Essa deriva dalle correlazioni non-locali tra le diverse parti di un sistema quantistico e racchiude i tre elementi strutturali di base della teoria quantistica, ossia il principio di sovrapposizione, la non-separabilità e la possibilità di accrescere in modo esponenziale lo spazio degli stati con il numero delle sue partizioni. L’entanglement non ha nessun analogo classico. Questa risorsa, associata alle correlazioni non-classiche tra sistemi quantistici separati, può essere sfruttata per scopi crittografici e computazionali che sono impossibili da perseguire con sistemi puramente classici. Uno stato entangled condiviso da due o più partecipanti distinti è una importante risorsa per protocolli di comunicazione quantistica, come ad esempio la crittografia e il teletrasporto.

Ottica Quantistica

Negli ultimi anni, l’Ottica Quantistica (d’ora in poi OQ) si è rivelata un eccellente banco di prova per realizzare sperimentalmente i concetti introdotti nel contesto dell’IQ: gli stati fotonici possono essere facilmente e accuratamente manipolati usando dispositivi ottici lineari e non lineari e possono essere efficientemente misurati per mezzo di rilevatori a singolo fotone [6,7].

Figura 2 – Dispositivo ottico integrato per la manipolazione di stati di fotoni entangled in polarizzazione. Da [15].

Il qubit può essere fisicamente realizzato considerando gli stati di polarizzazione di un singolo fotone come stati di base. Da un punto di vista pratico, singoli fotoni o coppie di fotoni sono portatori ideali di informazione per la comunicazione quantistica potendo essere distribuiti su lunghe distanze nello spazio libero o mediante fibre ottiche con basse perdite.

Il processo ottico non lineare chiamato spontaneous parametric down conversion (SPDC) costituisce un approccio molto efficace per generare coppie di fotoni entangled. Esso consiste in un effetto attraverso il quale è possibile generare in modo probabilistico coppie di fotoni dall’eccitazione di un cristallo da parte di un fascio laser. Lo stato quantistico di questa coppia di fotoni è uno stato entangled nei gradi di libertà della frequenza e del momento del fotone, ma a seconda dell’interazione non lineare i fotoni possono essere entangled anche in polarizzazione.

Coppie di fotoni entangled hanno costituito lo strumento centrale per diversi esperimenti fondamentali e applicazioni. Una spettacolare e paradigmatica applicazione dell’entanglement è rappresentata dal teletrasporto di uno stato quantistico (QST), proposta dal gruppo di Bennett in [8] e realizzata per la prima volta nel 1997 in due esperimenti differenti a Roma e a Innsbruck [9,10]. Attualmente la crescente proliferazione di applicazioni dell’entanglement quantistico, dalla crittografia quantistica [11] ai campi della metrologia e della litografia quantistica, richiamano la necessità di tecniche innovative che siano anche flessibili e affidabili per generare stati entangled di dimensioni crescenti e per realizzare protocolli ancora più avanzati. Allo stesso tempo l’abilità di generare e manipolare sistemi quantistici di complessità crescente richiede lo sviluppo di tecniche e strumenti finalizzati alla caratterizzazione sia delle sorgenti che dei processi fisici adottati. Un notevole sviluppo è rappresentato dall’implementazione della tecnica di tomografia degli stati quantistici di sistemi a molti qubit e dei processi quantistici a uno e due qubit.

Un approccio fotonico che può essere adottato per elaborare la IQ si basa esclusivamente su componenti ottici lineari come beam-splitter2, beam-splitter polarizzatori e rilevatori di singoli fotoni. In un lavoro fondamentale E. Knill, R. Laflamme e G. J. Milburn hanno mostrato che è possibile realizzare un computer quantistico scalabile con sorgenti e rilevatori di singoli fotoni e con l’uso dell’ottica lineare [6]. Questo lavoro ha rivelato tutta la potenza dell’ottica lineare stimolando una grande quantità di ricerche teoriche e sperimentali che hanno conseguito notevoli risultati tra cui varie realizzazioni sperimentali di una porta logica a due qubit, la cosiddetta Gate Control-NOT (C-NOT) [7].

La sfida tecnologia delle guide d’onda

Figura 3 – Possibile architettura di un processore quantistico realizzato con l’ottica integrata.

La possibiltà di manipolare l’informazione quantistica attraverso i fotoni rappresenta una grande sfida tecnologica poiché richiede la capacità di controllare ciascun sistema quantistico con elevata precisione. Lo sviluppo continuo di sistemi ottici di crescente complessità formati da vari interferometri3, elementi base della tecnologia ottica, richiede l’uso di sistemi miniaturizzati integrati in guida d’onda. Il vantaggio di lavorare con le guide risiede essenzialmente nella loro elevata stabilità di fase e nelle loro ridotte dimensioni, confrontate con quelle di interferometri tradizionali costruiti su sistemi costituiti da specchi e beam-splitter convenzionali.

È stata di recente dimostrata la possibilità di utilizzare guide d’onda in silicio per applicazioni quantistiche [12,13,14]. Tali guide sono infatti state usate per creare un interferometro di alta stabilità e precisione, che realizza una porta logica a due qubit in grado di generare l’entanglement. Più precisamente tali circuiti sono stati utilizzati per realizzare la prima porta logica C-NOT integrata con caratteristiche del tutto confrontabili con il valore teorico aspettato [14].

Più recentemente è stata anche dimostrata la possibilità di utilizzare guide d’onda scritte su vetro attraverso l’uso di laser a femtosecondi di elevata intensità, per la realizzazione di alcuni esperimenti di interferometria quantistica. In particolare il gruppo di Ottica Quantistica del Dipartimento di Fisica dell’Università Sapienza di Roma, in collaborazione con l’Istituto di Fotonica e Nanotecnologie del CNR e il Politecnico di Milano, ha realizzato un dispositivo integrato che preserva il grado di polarizzazione dei fotoni guidati [15]. Queste peculiarità permetteranno in futuro il suo possibile utilizzo in protocolli di informazione quantistica, come la crittografia e la computazione quantistica.

Aprile 3, 2018 0 comment
0 Facebook Twitter Google + Pinterest
Accelerazione laser-plasma
Il Ricercatore Romano

Accelerazione laser-plasma

written by Redazione
This entry is part 3 of 7 in the series numero 4

Gli acceleratori di particelle rappresentano da anni lo strumento di indagine più potente della fisica nucleare e subnucleare. Questo ramo della fisica si occupa dello studio dei costituenti primi della materia, le cosiddette particelle elementari, come ad esempio gli elettroni e i quark che compongono i protoni, e delle leggi che governano le loro interazioni. A partire dalla comprensione di queste leggi possiamo scoprire come la materia che si è generata al momento del Big Bang ha interagito fino a formare l’Universo a noi conosciuto.

Figura 1 – Tracciato della circonferenza di 27 km dell’acceleratore LHC, costruito sotto terra in territorio svizzero al CERN di Ginevra.

Il compito degli acceleratori è quello di creare fasci di particelle di altissima energia cinetica. Facendoli collidere tra loro si possono efficacemente indagare le proprietà della materia: maggiore è l’energia dei fasci, più dettagliate sono le informazioni che si possono ricavare. L’attuale limite al raggiungimento di energie sempre più elevate è dato dal fatto che le tecnologie fino ad oggi utilizzate impongono agli acceleratori enormi costi e dimensioni.

Recentemente è però in studio una nuova tecnica che accelera particelle cariche utilizzando i campi elettrici che si generano all’interno di plasmi eccitati da impulsi laser. Si tratta di campi elettrici elevatissimi, fino a dieci volte maggiori di quelli realizzabili negli acceleratori tradizionali. Questo metodo, una volta perfezionato, permetterà di accelerare particelle a energie elevatissime in spazi molto piccoli.

Gli acceleratori di oggi

Per accelerare le particelle cariche si utilizzano i campi elettrici, ma vi è una soglia di surriscaldamento e rottura dei materiali che ne limita la massima intensità raggiungibile ad alcune decine di MV/m, milioni di volt per metro. Per raggiungere energie elevate occorre quindi che l’azione del campo elettrico sia prolungata nel tempo e per questo sono necessari acceleratori molto lunghi. Il motivo per cui spesso se ne costruiscono di forma circolare è la possibilità di far girare le particelle al loro interno più e più volte. Per curvare la traiettoria delle particelle si sfrutta la forza di Lorentz fornita da campi magnetici, ma anche in questo caso, poiché vi è un limite alla massima intensità di questi ultimi, la circonferenza degli acceleratori deve essere molto grande.

L’acceleratore di particelle più potente mai costruito è l’LHC che si trova ai laboratori del CERN di Ginevra (cfr. Figura 1). Si tratta dell’acceleratore più grande del mondo: ha una circonferenza di 27 km e utilizza campi magnetici maggiori di 8 T (Tesla), realizzati con magneti superconduttori. Sviluppare un acceleratore più potente dello stesso tipo di LHC avrebbe costi e dimensioni difficilmente sostenibili. L’unico modo per superarne i limiti sarebbe quello di pensare a una tecnica in grado di realizzare campi elettrici molto più elevati in spazi molto più piccoli.

Campi elettrici nei plasmi

Figura 2 – Per essere accelerata dall’onda di plasma una particella deve avere la giusta velocità iniziale, come un surfista che si prepara a prendere l’onda dell’oceano.

All’interno di un plasma si possono creare campi elettrici elevatissimi poiché non c’è pericolo di rottura, essendo un gas ionizzato (cfr. Box 1). Si può trattare anche di campi elettrici dell’ordine di centinaia di GV/m (miliardi di volt per metro), ossia cento volte maggiori di quelli presenti nelle più tecnologiche cavità degli attuali acceleratori. Per generare simili campi è necessario però perturbare il plasma in modo intenso e mirato e questo viene fatto utilizzando degli impulsi laser opportuni.

Il moto delle particelle cariche che compongono un plasma non è governato dalle collisioni, che trasmettono le forze applicate al sistema solo localmente, ma dai campi elettrici e magnetici generati da concentrazioni delle cariche stesse, che sono forze che agiscono a lunga distanza. Questo significa che introducendo nel plasma una perturbazione localizzata (come può esserlo il passaggio di un impulso laser), tutte le particelle di cui è composto rispondono istantaneamente.

Nella condizione di equilibrio, ossia di plasma imperturbato, elettroni negativi e ioni positivi sono disposti in modo da mantenere, globalmente, la neutralità. Se il plasma viene perturbato dal passaggio di un impulso laser, gli elettroni, più leggeri degli ioni, si allontanano dalla loro posizione di equilibrio e a questo spostamento segue la formazione di campi elettrici di richiamo che tendono a riportarli nella posizione di partenza. Tuttavia a causa dell’inerzia, una volta messi in moto, gli elettroni che ritornano verso la posizione di equilibrio la superano, dando così il via a delle oscillazioni attorno ad essa come se si trovassero al capo di una molla. Queste oscillazioni avvengono a una frequenza caratteristica che dipende dalla densità elettronica e che si chiama frequenza di plasma. È il campo elettrico generato dagli elettroni che oscillano all’interno di questa cosiddetta onda di plasma a essere sfruttato per accelerare particelle.

Questo campo risponde a due requisiti fondamentali per l’accelerazione di particelle a energie elevate: è un campo elettrico longitudinale, cioè nella stessa direzione di propagazione dell’onda, ed è caratterizzato da una velocità di fase, quella cioè con cui oscilla, che può avvicinarsi quanto si vuole alla velocità della luce.

Figura 3 – Come la barca lascia sull’acqua onde di scia al suo passaggio, allo stesso modo l’impulso laser crea un’onda nel plasma che attraversa.

Quello che succede quando un impulso laser attraversa il plasma, eccitando delle oscillazioni elettroniche al suo passaggio, è lo stesso fenomeno che si verifica quando una barca, attraversando il mare piatto, genera dietro di sé delle onde di scia, con l’unica differenza che nel plasma, che è un mezzo risonante, queste onde hanno una frequenza caratteristica dipendente dal mezzo. È per questo che si parla di accelerazione sul campo di scia del laser.

Per essere accelerata da questo campo elettrico una particella deve trovarsi sulla cresta dell’onda, in fase con essa e deve avere una velocità opportuna. Allo stesso modo con cui un surfista deve acquisire una velocità iniziale per prendere l’onda dell’oceano. L’idea di eccitare onde di plasma longitudinali utilizzando fasci laser focalizzati per accelerare elettroni è venuta nel 1979 a Tajima e Dawson, due fisici californiani (surfisti?). I primi risultati sperimentali sono stati raggiunti solo recentemente, poiché questa tecnica è strettamente legata alla tecnologia dei laser. Per eccitare onde di plasma di grande ampiezza occorre avere un impulso laser super intenso e ultra corto, caratterizzato da una lunghezza d’onda pari a metà della lunghezza d’onda di plasma: solo in questo modo il sistema entra in risonanza.

Particelle sulla cresta dell’onda

Un possibile modo con cui sfruttare il campo elettrico associato alle onde di plasma per accelerare particelle è quello di accelerare le particelle del plasma stesso. Ciò può essere fatto utilizzando un impulso laser sufficientemente elevato da rompere l’onda elettronica. In questo modo gli elettroni che seguono l’oscillazione acquistano sufficiente energia da staccarsi dalla cresta dell’onda e vengono accelerati in avanti fino a fuoriuscire dal plasma (cfr. Figura qui accanto).

Più interessante per le applicazioni future è la possibilità di accelerare nel plasma particelle iniettate dall’esterno. Se si immette all’interno del plasma eccitato da laser un pacchetto di particelle sufficientemente stretto (metà della lunghezza d’onda di plasma) e con la giusta fase rispetto alla cresta dell’onda, le particelle iniettate possono essere spinte in avanti e accelerate dall’onda stessa. Per fare questo è sufficiente utilizzare plasmi con lunghezze dell’ordine di qualche centimetro, da confrontare con i metri di lunghezza degli acceleratori canonici.

Attualmente ai Laboratori Nazionali di Frascati è in via di realizzazione proprio l’esperimento PlasmonX, il primo in assoluto che prevede di accelerare tramite plasma un pacchetto di particelle iniettate dall’esterno come appena descritto.

Aprile 3, 2018 1 comment
0 Facebook Twitter Google + Pinterest
Tutt’altro che un perdente
Le Spalle dei Giganti

Tutt’altro che un perdente

written by Redazione
This entry is part 2 of 7 in the series numero 4

Figura 1 – Charles Townes e James Gordon con il loro secondo dispositivo maser del 1955. Da aip.org.

Se Se Gordon Gould avesse seguito il suggerimento linguistico di Arthur Schawlow, avremmo appena celebrato il cinquantennale del loser. Ma il laser è tutt’altro che un perdente: nato come soluzione in cerca di un problema, il laser rappresenta ormai una delle applicazioni tecnologiche più diffuse e di successo della teoria quantistica di luce e materia.

Loser?

Nel 1951 Arthur Schawlow, un valente fisico statunitense di origini lettoni-canadesi, lasciò i laboratori Bell per iniziare a lavorare all’Università di Stanford. Charles Townes, amico e cognato di Schawlow, racconta di come quest’ultimo, nel nuovo contesto accademico, si rivelò un insegnante brillante e un arguto umorista. Tra i molti aneddoti raccontati su Schawlow, uno riguarda una conferenza tenutasi nel 1955. Schawlow presiedeva una sessione durante la quale Gordon Gould presentava un lavoro dal titolo “The L.A.S.E.R., Light Amplification by Stimulated Emission of Radiation”1, quello con il quale fu introdotto, a opera dello stesso Gould, l’acronimo che avrebbe presto universalmente sostituito ciò che fino a quel momento era noto come maser ottico. Il laser, Schawlow obiettò, è più un oscillatore che un amplificatore: l’amplificazione avviene infatti facendo letteralmente rimbalzare avanti e indietro le particelle di luce, i fotoni, all’interno di una cosiddetta cavità risonante. Il nuovo dispositivo proposto da Gould, suggerì Schawlow, avrebbe dovuto quindi più appropriatamente essere chiamato L.O.S.E.R. (che in inglese, incidentalmente, vuol dire perdente), da Light Oscillation by Stimulated Emission of Radiation. Ma il laser, nei decenni successivi alla sua ideazione e alla realizzazione del primo prototipo funzionante, si è dimostrato tutt’altro che un perdente: ha rivoluzionato la fisica moderna, molte tecniche di indagine scientifica e, attraverso innumerevoli applicazioni tecnologiche, la nostra vita quotidiana.

Dal maser al laser

Fu Albert Einstein nel 1917 a introdurre l’idea secondo la quale è possibile stimolare sistemi di atomi o molecole eccitati attraverso un’opportuna interazione con la radiazione elettromagnetica, in modo tale che questi producano altra radiazione, amplificando in tal modo quella originariamente inviata al sistema. Il concetto di emissione stimolata rimase di interesse prevalentemente teorico fino all’inizio degli anni Cinquanta, quando furono ideati e realizzati i primi maser. Il maser è un dispositivo che amplifica attraverso emissione stimolata le vibrazioni di un sistema di molecole per rilasciare energia in forma di luce e calore. In generale un atomo che si trova in uno stato eccitato e che interagisce con un’onda elettromagnetica a una certa frequenza può, con una probabilità ben determinata, decadere a un livello energetico inferiore, trasferendo l’energia così rilasciata al campo elettromagnetico circostante. Si produce così radiazione con la stessa frequenza e direzione di quella originariamente incidente. I primi maser, descritti e sviluppati tra il 1952 e il 1960, erano in grado di emettere radiazione in forma di microonde, da cui le due prime lettere dell’acronimo (Microwave Amplifier). Nikolaj Basov e Aleksandr Prokhorov, che nel 1964 vinsero insieme a Townes il premio Nobel per la fisica, svilupparono nel 1955 un maser capace di produrre radiazione continua, utilizzando la transizione delle molecole tra due diversi livelli energetici superiori a quello fondamentale, di riposo, del sistema2.

Figura 2 – La pagina di quaderno in cui Gordon Gould coniò il termine laser nel 1957. Da Wikipedia.

Proprio in quegli anni, nel 1957 ai laboratori Bell, Charles Townes e Leonard Schawlow tentarono di estendere i principi di funzionamento del maser dalle microonde alla radiazione infrarossa. I progetti per lo studio di un maser infrarosso furono però presto abbandonati in favore di un amplificatore di luce visibile, o maser ottico. I risultati teorici di Townes e Schawlow furono pubblicati nel 1958, nello stesso anno in cui i Bell Labs inoltravano la richiesta di brevetto per la proposta del maser ottico.

Evoluzioni parallele e convergenze tecnologiche

In realtà già negli anni Trenta le tecniche e le conoscenze teoriche necessarie a realizzare un laser erano disponibili: solo un quarto di secolo più tardi, però, gli eventi avrebbero fatto sì che tecniche precedentemente disconnesse convergessero in un’unica direzione di ricerca. La nascita del laser costituisce un ottimo esempio di evoluzione parallela di un’idea scientifica e degli attriti che possono nascere quando una tale idea è tanto figlia dei tempi quanto di un affollato pantheon di menti brillanti. Contemporaneamente a Townes e Schawlow e dopo una conversazione con il primo, infatti, Gordon Gould, all’epoca studente di dottorato alla Columbia University, annotò durante il lavoro per la propria tesi l’idea di usare un risonatore, cioè uno spazio cavo all’interno del quale il campo elettromagnetico oscilla naturalmente a ben precise frequenze, per realizzare un laser. Fu però Prokhorov, sempre nel 1958, a pubblicare per la prima volta nell’Unione Sovietica una proposta sperimentale basata su un risonatore ottico. Tale proposta fu formulata poco prima che Schawlow e Townes, apparentemente all’oscuro della pubblicazione di Prokhorov e del lavoro inedito di Gould, iniziassero a lavorare a uno schema sperimentale basato proprio sul tipo di risonatore ideato da Gould e Prokhorov.

Gould inviò all’inizio del 1959 una propria richiesta di brevetto per la sua idea di maser per luce visibile basato su un risonatore. Il rifiuto della richiesta di Gould da parte dell’ufficio brevetti statunitense, che assegnò infine l’anno successivo l’ambito brevetto ai Bell Labs, dove lavoravano Schawlow e Townes, fu l’inizio di una battaglia legale che si sarebbe protratta per ventotto anni. Fu infatti solo nel 1987 che un Gould quasi settantenne si vide riconosciuta dall’ufficio brevetti la paternità intellettuale dei principi del moderno laser.

Sorprendentemente, però, la corsa al laser tra la fine degli anni Cinquanta e l’inizio dei Sessanta tra Columbia University, Gould e la TRG Corporation, i Westinghouse Research Laboratories, l’IBM e i Bell Labs non fu vinta da nessuno dei maggiori contendenti. Messo ormai da parte il termine maser ottico, o maser a luce visibile, quello che a pieno diritto può essere considerato il primo laser funzionante fu infatti realizzato nel 1960 da Theodore H. Maiman agli Hughes Research Laboratories in California. Usando un rubino sintetico stimolato da brevi ma intensi impulsi luminosi e racchiuso tra due specchi paralleli, Maiman fu in grado di produrre un fascio di luce laser con una lunghezza d’onda di 694 nm, tale cioè da apparire rosso all’occhio umano.

Figura 3 – Theodore Maiman, accanto a una lampada e un cilindro di rubino simili a quelli usati nel primo laser (1960): i giornalisti intervenuti alla conferenza stampa degli Hughes Laboratories insistettero perché Maiman posasse con dei componenti fittizi molto più grandi degli originali, viste le piccole dimensioni (e le evidentemente non apprezzate compattezza ed eleganza) del primo laser. Da aip.org.

Il laser di Maiman era basato sull’eccitazione e diseccitazione degli atomi del mezzo attivo, in questo caso il rubino, tra tre diversi livelli energetici. Tale principio di funzionamento consentiva al primo laser di produrre solo brevissimi impulsi luminosi, piuttosto che un fascio continuo. Ma fu solo poco tempo dopo, nello stesso anno, che Ali Javan, William R. Bennett e Donald Herriot costruirono il primo laser a gas, basato su una miscela di elio e neon, capace di operare in regime continuo.

La fisica del laser

Nel laser di Maiman un cilindro di rubino, costituito da una struttura cristallina di ossido di alluminio (Al2O3) con inclusioni di cromo, è posto in una cavità risonante costituita da due specchi paralleli, di cui uno parzialmente riflettente, in modo da permettere alla radiazione laser prodotta di uscire dalla cavità. Una lampada a spirale in grado di inviare impulsi luminosi ad alta intensità, scovata da Maiman nei cataloghi dei produttori, è ciò che gli permise di battere Schawlow e i suoi collaboratori ai laboratori Bell, che tentavano invece di ottenere la produzione di luce laser stimolando il mezzo attivo con luce continua.

In questa configurazione gli impulsi luminosi eccitano gli elettroni degli atomi di cromo, portandoli in quello che viene denominato un livello energetico superiore, o eccitato. L’energia così assorbita viene poi spontaneamente rilasciata dagli elettroni, in forma di luce dal caratteristico colore rosso rubino, quando questi tornano al loro livello energetico di partenza. Parte della luce così prodotta viene riflessa avanti e indietro tra i due specchi, stimolando così altre transizioni alla stessa energia, fino a produrre un fascio luminoso intenso, altamente direzionale e quasi perfettamente monocromatico.

Tutta la luce prodotta da un laser è infatti generata alla stessa frequenza, legata al mezzo attivo utilizzato e alle caratteristiche del dispositivo: tale frequenza è pura come quella del suono prodotto da un diapason. La luce laser si propaga prevalentemente in una direzione ben definita con una divergenza estremamente ridotta, tanto che è possibile osservare chiaramente, inviando dalla Terra un segnale laser agli specchi posti sulla Luna dall’Apollo 11, quanto rimane del riflesso proveniente dal nostro satellite. Il campo elettromagnetico associato alla luce prodotta da un laser, inoltre, oscilla in posizioni spaziali diverse con precise relazioni di fase, contrariamente alla luce ordinaria o alla radiazione prodotta da una sorgente termica come una lampadina. È proprio per questa ragione che un fascio laser è in grado di propagarsi senza allargarsi e, al tempo stesso, può essere focalizzato in punti molto piccoli.

Figura 4 – Schema di un laser a rubino. Da Wikipedia.

Oltre al laser a rubino e a quelli a gas già citati, che sfruttano l’eccitazione e la diseccitazione rispettivamente di atomi di cristalli e di miscele di gas, negli anni sono stati introdotti anche i diodi laser, basati sull’eccitazione elettrica di diodi a semiconduttore, dispositivi elettronici che conducono la corrente in una sola direzione. Proposto da Basov e Javan, realizzato per la prima volta da Robert N. Hall nel 1962 in regimi impulsati a quasi -200°C, e finalmente reso funzionante a temperature ordinarie e con emissione continua nel 1970 da Zhores Alferov nell’Unione Sovietica e Izuo Hayashi e Morton Panish ai Bell Labs, il diodo laser e le sue evoluzioni hanno avuto un grande successo tecnologico, rendendo possibile la larghissima diffusione commerciale dei laser: dai lettori CD e DVD fino alle prospettive di interfacce tra i circuiti integrati tradizionali e quelli fotonici, elemento centrale del futuro campo della computazione ottica.

Una soluzione in cerca di un problema

Theodore Maiman e Irnee D’Haenens, uno degli assistenti di Maiman, definirono il laser “una soluzione in cerca di un problema”. Ma se le innumerevoli applicazioni del laser erano in principio ignorate o poco apprezzate, in seguito al successo di Maiman divennero presto evidenti. I laser possono produrre in maniera continua radiazione a una singola frequenza con grandissima precisione. La luce laser costituisce quindi, per esempio, un ottimo standard di riferimento per lunghezze e misure temporali. È infatti così pura da poter essere calibrata perfettamente sulla base delle frequenze di risonanza di atomi e molecole, permettendo la manipolazione delle loro proprietà energetiche fino al punto da fermarne il moto termico a temperature di poco superiori allo zero assoluto. Il perfetto controllo delle caratteristiche della luce laser si estende anche alla sua durata temporale: brevissimi impulsi laser consentono per esempio di analizzare reazioni chimiche e altri processi estremamente rapidi mentre questi avvengono.

Cinquanta anni e più di laser

Maiman caratterizzò ironicamente la potenza del primo laser trovandola dell’ordine di un gillette, unità di misura di sua invenzione, dato che il fascio di luce si rivelò in grado di forare e attraversare una lama da rasoio Gillette. Anche per questa ragione, immediatamente dopo la sua invenzione, il laser entrò attraverso la fantascienza a far parte della cultura popolare. Perfetta incarnazione delle armi a raggi dei racconti pulp e del raggio della morte favoleggiato sin dagli anni Venti, ingenue armi laser comparvero nella serie televisiva Lost in Space(1965-1968) e nel primo episodio di Star Trek (1964). Le armi laser furono però presto abbandonate da quest’ultima in favore della ben più vaga e futuristica tecnologia dei phaser. Gli autori del telefilm previdero, e la storia diede loro ragione, che l’uso dei laser nella serie avrebbe causato problemi in futuro, quando fossero stati più chiari i limiti della recente invenzione. Limiti quasi comicamente ignorati, invece, in Guerre stellari (ma con risultati di grande effetto). Pur se fisicamente e tecnicamente poco plausibile, però, quella che nella versione italiana è universalmente nota come spada laser resta una delle armi più memorabili della storia del cinema o, per citare Obi-Wan Kenobi, “un’arma elegante, per tempi più civilizzati”.

I laser del mondo reale possono essere abbastanza potenti da indurre la fusione nucleare, tanto precisi da sostituire i bisturi nella chirurgia o perfino manipolare oggetti estremamente piccoli come batteri e molecole; così versatili e flessibili da trovare applicazioni nelle tecnologie delle comunicazioni, nella diagnostica per immagini, nel controllo delle reazioni chimiche, nell’industria e, capillarmente, in innumerevoli dispositivi di uso quotidiano. Ma l’ambito in cui il laser ha forse dato e continuerà nel lungo termine a fornire i suoi frutti più importanti è quello della stessa fisica e delle scienze naturali in generale. Il laser, come elemento di base di nuove applicazioni e strumento per ulteriori scoperte scientifiche, ha infatti interessato ogni settore della fisica degli ultimi decenni e rappresenterà certamente la chiave di volta di futuri, interessantissimi sviluppi.

Nel corso dei decenni successivi all’evoluzione da maser a laser, quello che avrebbe potuto essere un perdente – almeno all’anagrafe – si è rivelato, non del tutto inaspettatamente, uno degli sviluppi scientifici e tecnologici dotati delle più ricche e varie applicazioni e ramificazioni in ogni ambito scientifico e non. Quando nel 2005 Gordon Gould morì, con quattro brevetti statunitensi all’attivo, ottantacinquenne e milionario, il termine laser da lui coniato nei suoi taccuini era divenuto ormai da decenni di uso comune. Il L.A.S.E.R., da acronimo modellato su quello dell’ormai assai meno noto maser, nei cinquanta anni successivi alla realizzazione del primo laser a rubino ad opera di Theodore Maiman si è trasformato in una parola di uso comune, segno evidente del vastissimo impatto che ha avuto la sua invenzione nella nostra società.

Aprile 3, 2018 0 comment
0 Facebook Twitter Google + Pinterest
Editoriale

Le mille facce di una rivoluzione tecnologica

written by Redazione
This entry is part 1 of 7 in the series numero 4

È passato poco più di mezzo secolo da quando Theodore Maiman “accese” nel 1960 il suo rubino sintetico producendo la prima luce laser della storia, basandosi sulle intuizioni di Albert Einstein di quarantatre anni prima. Cinquant’anni in cui un’invenzione predestinata ad avere un successo straordinario ha mantenuto tutte le sue promesse e continua a stupire per le sue infinite applicazioni.

Daniele Giovannini ci tratteggia così in Tutt’altro che un perdente una lunga storia fatta di competizione tra istituzioni scientifiche, di battaglie per i brevetti, di idee presenti nell’aria che aspettavano solo le condizioni giuste per concretizzarsi, a partire da un gioco di parole di Arthur Schawlow che non avrebbe fatto giustizia a un’invenzione di così grande successo.

Tanto successo che nell’era di LHC, l’acceleratore di particelle più grande di sempre, l’inedita accoppiata di laser e plasma fa intravedere un futuro di acceleratori molto più potenti degli attuali, ma decisamente più piccoli, quasi da scrivania. Silvia Martellotti in Accelerazione laser-plasma ci apre le porte di PlasmonX, esperimento unico al mondo di accelerazione di particelle tramite plasma, che nei Laboratori Nazionali di Frascati tenta di concretizzare l’idea di due fisici americani appassionati di surf.

Il laser non è solo uno dei concetti più usati nella fantascienza, ma entra a pieno titolo anche nelle linee di ricerca più avanzate della fisica moderna, come quelle attorno al computer quantistico e al teletrasporto. In Luce e computer quantistici Fabio Sciarrino e Paolo Mataloni ci offrono un rigoroso spaccato di questo mondo entangled, aggrovigliato, in cui i protagonisti indiscussi sono i qubit e le applicazioni possono avere un impatto ancora difficilmente immaginabile, ma che ha tutte le carte in regola per segnare il secolo in cui viviamo.

Laser a rubino, a gas, a diodi… vien da chiedersi quanti laser esistano. Massimo Ferrario ce ne propone un tipo con un carattere da fuoriclasse: il laser ad elettroni liberi, FEL (da free electron laser per gli amici, che aprirà la strada a tecniche di microscopia di altissimo livello, con applicazioni nelle nanotecnologie, in biologia, in medicina. Il tutto a partire da un prodotto di scarto degli acceleratori di particelle ad anello, la luce di sincrotrone, che negli anni ’40 era visto con fastidio e che oggi, invece, è uno degli strumenti più potenti di indagine della struttura della materia.

Un laser, si sa, può essere puntato in qualsiasi direzione. Perché non in cielo? Ecco che in Luce sull’atmosfera, il LiDAR, Roberto Garra e Giampietro Casasanta ci presentano con dovizia di particolari questo versatile strumento di misura delle caratteristiche atmosferiche, a partire da quello realmente montato sul tetto dell’Edificio Fermi di Fisica presso l’Università Sapienza di Roma. Nulla evita però di puntare lo stesso strumento verso il mare o direttamente in terra. Sempre il LiDAR rimane protagonista, con le sue innumerevoli applicazioni di telerilevamento dei fondali oceanici e dei profili costieri e di mappatura del suolo.

Davvero poche innovazioni tecnologiche come quella del laser possono insomma vantare un successo così trasversale. Dalla ricerca di base a quella applicata, dai processi di produzione industriale all’intrattenimento e alla vita quotidiana, i laser sono ormai presenti un po’ ovunque e sempre più fanno impallidire la fantasia degli autori di fantascienza che se ne avvalgono nelle loro opere. Ecco una preziosa occasione per dare un’occhiata più da vicino a questo straordinario strumento e per scoprire la ricerca di altissima qualità che si avvale delle sue caratteristiche uniche, a pochi chilometri dalle nostre case.

Buona lettura!

Aprile 3, 2018 0 comment
0 Facebook Twitter Google + Pinterest
Recensioni

Gli oggetti frattali

written by Redazione
This entry is part 7 of 7 in the series numero 3

Ai frattali si associano spesso immagini suggestive, come vortici, rilievi montuosi, modelli della superficie terrestre, tutte caratterizzate da un’elegante simmetria interna, che ritraggono al meglio l’idea puramente geometrica e intuitiva che si cela dietro questi oggetti con dimensione non intera. Sono poi ormai riconosciute le notevoli applicazioni fisiche della geometria frattale allo studio delle turbolenze e ai sistemi complessi.

Gli oggetti frattali – Forma caso e dimensione introduce alla geometria dei frattali e giustifica organicamente le ragioni che oggi rendono tanto vivo l’interesse per questo mondo. Il testo è stato scritto nel 1975 dal padre della geometria frattale, Benoit Mandelbrot, tristemente scomparso lo scorso 14 Ottobre, ed è stato ristampato in italiano (con alcuni cambiamenti e precisazioni dell’autore) recentemente dall’Einaudi, proprio per rendere merito all’interesse verso le tesi rivoluzionarie qui introdotte e sostenute. Lo stesso Mandelbrot nell’introduzione al testo dichiara che il libro costituisce una sintesi matematica e filosofica della sua geometria frattale, rivelando esplicitamente il carattere introduttivo dell’opera, l’aspetto qualitativo e intuitivo, ma non per questo meno rigoroso, delle sue osservazioni e argomentazioni.

In effetti è immediato accorgersi che non si tratta di un manuale rivolto agli specialisti e che c’è dietro uno sforzo notevole per rendere meno pesante possibile la matematica del testo, puntando molto sull’aspetto geometrico e intuitivo delle scoperte e riducendo il più possibile il formalismo. È lo stesso autore a dichiarare che il suo obiettivo non è scrivere un trattato matematico, ma un’opera rivolta agli amatori e agli specialisti di varie discipline che possano trarre ispirazione dalle sue argomentazioni per lo sviluppo di una ricerca scientifica, evidenziando l’utilità pratica della geometria frattale per la soluzione di problemi in vari settori differenti (astronomia, economia, idrodinamica, ecc.).

La tesi principale che viene portata avanti nel libro è che lo studio di oggetti geometricamente complessi e irregolari è tutt’altro che inutile e non solo può rinnovare l’approccio filosofico del rapporto tra matematica e realtà, ma ha applicazioni fondamentali, lì dove la geometria tradizionale si è dimostrata inefficace. All’uscita del libro nel 1975 questa tesi era avversata dal mondo accademico e dalle scuole matematiche tradizionali: ogni modellizzazione matematica doveva essere basata su un principio di semplicità e regolarità, quindi sarebbe stato del tutto inutile approfondire lo studio di quelli che venivano definiti mostri geometrici, oggetti fortemente irregolari la cui dimensione è, apparentemente contro l’intuizione, non intera.

Mandelbrot fa una rassegna di questi oggetti (la curva di Koch, la polvere di Cantor) evidenziando l’importanza storica di dare forma a una teoria organica che a partire dallo studio di questi mostri possa sviluppare una serie di idee applicabili a insiemi irregolari, caratterizzati da autosimilarità. Si può dire che l’intera opera stessa ha un certo grado di autosimilarità: ogni capitolo ripropone lo sviluppo storico di un problema, per poi definire il contributo originale della geometria frattale. In ogni capitolo sono presenti delle figure esplicative (con didascalie descrittive approfondite) che sono molto utili a visualizzare graficamente i modelli geometrici utilizzati per affrontare i singoli problemi. I primi capitoli sono i più efficaci e chiari nello spiegare anche a un pubblico non specialista l’idea di dimensione frattale e autosimilarità, attraverso lo studio della curva di Koch (curva continua ma non differenziabile in nessun punto) e della polvere di Cantor.

In conclusione questo libro non può essere considerato come un libro di divulgazione, bensì come un manifesto introduttivo a una matematica nuova e rivoluzionaria nel suo rapporto con alcune forme della realtà fisica, sistematicamente caotiche e di dimensione frattale.

Aprile 2, 2018 0 comment
0 Facebook Twitter Google + Pinterest
I giovani e il DDL Gelmini
Onda Lunga

I giovani e il DDL Gelmini

written by Redazione
This entry is part 6 of 7 in the series numero 3

Il DDL Gelmini tenta di riformare l’università italiana in modo profondo e tutt’altro che graduale. Propone una rivoluzione dell’apparato pubblico come forse poche volte si è visto fare prima. Qui vorrei concentrarmi su come concretamente questa riforma si propone di modificare la vita dei giovani che vivono l’Università Italiana, anche per chiarire le motivazioni di un movimento di protesta che vede come protagonisti proprio i giovani, ovvero studenti, dottorandi e ricercatori precari.

Un’immagine della protesta di fine novembre a Roma.

Una considerazione di carattere generale è comunque d’obbligo: appare evidente che questa riforma, nonostante tutta la sua potenza innovatrice, non è accompagnata da un capitolo di spesa: è l’ennesima riforma a costo zero. Anzi sottozero, perché non dobbiamo dimenticare che i tremendi tagli ai fondi universitari della Legge 133 stanno ancora, e sempre più pesantemente, vessando i nostri atenei. Quindi anche solo a un’analisi superficiale è evidente l’inopportunità di stravolgere un sistema in questo modo: il tanto abusato concetto di valorizzazione del merito, ripetuto infinite volte nel DDL, non può davvero venir applicato senza uno stanziamento di risorse.

Diritto allo studio e dottorati di ricerca

Tornando ai giovani studenti, lo stravolgimento più grande riguarda il concetto di diritto allo studio. In sostanza l’idea è di sostituire le attuali borse di studio con i prestiti d’onore, ovvero dei prestiti erogati dall’università da restituire una volta terminati gli studi. In pratica il concetto costituzionale per cui è lo Stato che provvede all’istruzione dei suoi giovani meritevoli ma non abbienti viene scardinato. Gli studenti costretti ad accedere ai prestiti d’onore avrebbero quindi un debito di partenza all’ingresso nel mondo del lavoro. In più andrebbe anche considerato che, come l’America ci ha insegnato, affidarsi troppo al sistema del debito può portare a conseguenza disastrose.

Del dottorato di ricerca, il DDL si occupa solo in un punto, con un cambiamento peggiorativo rispetto alle condizioni attuali. Ricordiamo che oggi solo la metà dei dottorandi delle università italiane percepisce una borsa di studio, mentre i restanti lavorano a titolo gratuito. La soglia dei dottorandi senza borsa è stabilita per legge. Il DDL elimina proprio questa soglia, lasciando alle università la libertà di bandire un numero qualsiasi di posti di dottorato senza borsa. Ribadendo la contrarietà a tutte le prestazioni lavorative a titolo gratuito, non si vede come questo provvedimento possa promuovere il merito, soprattutto se parliamo del più alto grado di formazione che lo Stato Italiano fornisce ai suoi studenti.

Per chi vorrà inserirsi nel mondo della ricerca una volta conseguito il dottorato, il futuro sarà caratterizzato da
un massimo di 4 anni di assegni di ricerca o contratti precari in genere;
3 + 3 anni di contratti da ricercatore a tempo determinato.
Alla fine di questo periodo, che può dunque durare fino a 10 anni, il ricercatore potrà raggiungere una posizione strutturata all’interno dell’università a due condizioni:
che il suo lavoro durante il contratto da ricercatore a tempo determinato sia stato valutato positivamente;
che ci siano dei finanziamenti disponibili.
Il grande problema sorge proprio nel caso in cui i fondi non siano a disposizione. A questo punto il ricercatore non avrà più diritto ad alcun contratto, neanche di tipo precario, all’interno dell’Università Italiana e si dovrà accontentare di qualche punto di curriculum in più da spendere magari nei concorsi scolastici, che come sappiamo non sono certo all’ordine del giorno.

Questa è la norma più aberrante del DDL: davvero non si capisce come un ricercatore precario, dopo aver conseguito laurea, dottorato e anche quattro anni di contratti post-doc, all’età di circa 32-33 anni (stima media), possa decidere di accettare un contratto come ricercatore a tempo determinato di ben sei anni, con la consapevolezza che, se anche il suo lavoro fosse valutato positivamente, dovrebbe sperare in una legge finanziaria clemente.

In questi giorni si è parlato tanto di ricercatori (con contratti a tempo indeterminato) che hanno protestato non facendo più lezione e di rettori che hanno minacciato di non far partire l’anno accademico per mancanza di fondi. Probabilmente, però, i danni più gravi derivanti da questa riforma si ripercuoteranno su studenti e precari. Un ritornello che da un po’ di anni si ascolta davvero troppo spesso.

Aprile 2, 2018 0 comment
0 Facebook Twitter Google + Pinterest
Prevenzione sismica in Italia
Onda Lunga

Prevenzione sismica in Italia

written by Redazione
This entry is part 5 of 7 in the series numero 3

Il 6 aprile del 2009 a L’Aquila la terra ha tremato così violentemente da far crollare interi palazzi e sconquassare il centro della città e molti degli abitati circostanti, con un totale di 308 vittime e più di sessantamila sfollati. Che ad oggi i terremoti non si possano prevedere è cosa risaputa, ma dare almeno una stima del rischio sismico di una regione e della vulnerabilità degli edifici presenti è possibile. In questa logica, se è impossibile evitare un terremoto, è invece possibile mitigarne gli effetti sulla popolazione e fare in modo che non si trasformi in una tragedia.

E che la zona dell’Aquila fosse una zona ad alto rischio sismico era noto da numerosi studi di sismologia come [1]; che molti edifici della città fossero fortemente vulnerabili era stato documentato in modo ufficiale e puntuale nel rapporto redatto da Franco Barberi, presidente vicario della Commissione Grandi Rischi della protezione civile, in [2].

Gaetano De Luca

Nel 1999 un sismologo dell’INGV, Gaetano de Luca, osservò dalle misure sullo sciame sismico del terremoto umbro-marchigiano che il terreno sottostante il centro storico aquilano dava un importante fattore di amplificazione per le onde sismiche e denunciò in [3] la necessità di accelerare il processo di messa in sicurezza degli edifici. Lo abbiamo intervistato per conoscere meglio il suo lavoro e le sue opinioni sugli argomenti aperti e dibattuti della prevenzione e della ricerca sui precursori sismici.

Iniziamo dalla cronaca giudiziaria: qual è la sua opinione sugli avvisi di garanzia per mancato allarme in relazione al terremoto de L’Aquila del 6 Aprile 2009, spiccati contro Boschi (presidente dell’INGV) e Barberi, entrambi membri della Commissione Grandi Rischi incaricata di valutare la situazione di allarme connessa allo sciame sismico che ha preceduto la grande scossa?

È difficile avere un’opinione su un argomento così delicato visto che nessuno conosce tutti gli atti tranne la Procura della Repubblica de L’Aquila. Non mi sembra che la magistratura abbia detto che la commissione Grandi Rischi doveva prevedere il terremoto. Non capisco questo atteggiamento da parte della ricerca contro la magistratura: è dovere di quest’ultima indagare (costituzionalmente previsto, art. 112 sull’obbligo dell’azione penale da parte del Pubblico Ministero in presenza di decine di esposti, denunce, ecc.), quindi aspettiamo e diamo tempo alle parti coinvolte di lavorare in pace senza attacchi di berlusconiana memoria.

Tempo fa lo stesso Boschi si è espresso pubblicamente contro gli allarmismi indotti dalla lettura inesperta e incompetente dei dati sismologici pubblicati in tempo reale sul sito dell’INGV, arrivando a ipotizzare di limitare l’accesso ai dati relativi ai rilevamenti di scosse deboli. Qual è la sua opinione su questa presa di posizione?

Il professor Boschi si riferiva molto probabilmente al sito ISIDE del CNT dell’INGV (Centro Nazionale Terremoti dove lavoro come comandato del DPC dal 2003 circa). E ha ragione, i dati sismici devono essere letti da chi li sa leggere! Sul sito vi è infatti un Disclaimer (Condizioni di Utilizzo, ndr) preciso: i dati raccolti nel Bollettino Sismico dell’INGV sono destinati a utenti qualificati per una loro corretta interpretazione. I parametri forniti sono la migliore stima ottenibile con i dati in possesso dell’INGV e sono costantemente aggiornati in funzione di ulteriori dati che si rendano disponibili. Sebbene tutti i parametri forniti siano stati rivisti da analisti sismologi, nessuna garanzia implicita o esplicita è fornita insieme ai dati. Ogni rischio derivante da un uso improprio dei parametri o dall’utilizzo di informazioni inaccurate è assunto dall’utente… Più chiaro di così!

In primavera è uscito un lavoro che porta anche la sua firma sulla misura delle anomalie di concentrazione dell’Uranio nella falda acquifera nella fase di preparazione del terremoto del 6 Aprile [4]. Qual è la sua opinione sull’utilizzo delle misure di anomalia del Radon e dell’Uranio come precursori dei terremoti?

Premetto che non faccio più parte dell’esperimento ERMES di cui all’articolo e non voglio entrare nei dettagli dei miei rapporti con il professor Plastino, diciamo che dal 1° gennaio 2010 sono stato allontanato in quanto non servivo più e mi è stato vietato di parlare di tutto quello che riguardava ERMES, anche del lavoro su citato.

In generale non sono il tipo a caccia dello scoop scientifico, né tantomeno a caccia di improbabili precursori sismici, poiché anche se potessimo avere le capacità di prevedere un terremoto (forse tra 100 anni!) non potremo mai evitarlo. Abbiamo una sola arma in nostro favore ed è quella della prevenzione, non ci sono alternative. Nella prevenzione, per quel che riguarda le mie competenze, sono necessari alti livelli di monitoraggio ambientale.

Qual è la sua opinione nel dibattito sulle previsioni dei terremoti, innescato dall’articolo di Geller et al. apparso nel 1997 su Science [5]? In particolare qual è la sua opinione in relazione alla ricerca nel campo dei metodi empirici per le previsioni a breve termine?

Non conosco l’articolo, ho seguito un po’ il dibattito però resto sempre dell’avviso che la prevenzione è l’arma migliore che abbiamo. La previsione di un evento sismico per me rimane ancora una chimera, in quanto le variabili in gioco sono esageratamente alte, conosciamo molto poco di quello che abbiamo sotto i nostri piedi (0-30 km) per poter pensare di fare modelli previsionali. Addirittura anche localizzare un evento sismico è legato a un modello di velocità del mezzo che a volte è lontano dalla realtà o estremamente semplice.

Torniamo alla sua vicenda: nel 1999 denunciò pubblicamente di aver riscontrato dalle analisi delle misure di diversi terremoti un’amplificazione di un fattore 10 delle onde sismiche nel centro storico de L’Aquila, rimarcando la necessità di considerare la zona come regione ad altissimo rischio sismico. Il risultato di queste osservazioni venne poi pubblicato nel 2005 sul Bulletin of the Seismological Society of America, prestigiosa rivista del settore [3]. Cosa avvenne dopo la sua denuncia?

Non voglio parlare della mia vicenda del 1999, sarebbe lungo e noioso. Per i più curiosi su YouTube vi è un video (poco più di 17 minuti) realizzato con il gruppo di Beppe Grillo dove riesco, con l’ausilio di grafici e figure, a parlare in maniera molto tecnica e al tempo stesso semplice del problema dell’amplificazione.

Rispondo però semplicemente che sono stato censurato nel novembre del 1999 dal mio ex direttore (dell’ex Servizio Sismico Nazionale) il giorno dopo una conferenza stampa locale in cui si è cercato di sensibilizzare l’opinione pubblica e la politica locale. Prendo spunto per ricordare che il rischio sismico è collegato principalmente a due fattori: la pericolosità sismica di un territorio e la vulnerabilità degli edifici presenti in quel territorio. Quindi è chiaro a tutti cosa può significare aggiungere un fattore 10 di amplificazione a tale relazione…

Mappa italiana del rischio sismico.

Eppure il rapporto Barberi [2] parlava chiaramente della necessità di mettere in sicurezza gli edifici del centro storico de L’Aquila. Quindi una denuncia documentata e pubblica del rischio c’era già stata…

In realtà il rapporto Barberi non sottolineava la necessità di mettere in sicurezza, ma era un semplice censimento sulle vulnerabilità degli edifici. Tale raccolta è stata effettuata utilizzando delle schede di vulnerabilità che spesso è molto lontana da quella reale degli edifici, basti pensare a edifici antichi che hanno già subito nel passato terremoti di magnitudo superiore a 6. Comunque meglio di niente! Era un buon punto di partenza per pianificare misure e interventi.

Qual è lo stato della rete di monitoraggio sismico abruzzese? Perchè nel 2002 furono interrotte le misure e per quanto tempo?

Attualmente sono ospite, insieme al centro di acquisizione dati della rete di monitoraggio sismico a scala regionale, presso i LNGS dell’INFN (che ringrazio pubblicamente) in quanto sto aspettando la nuova sede dell’INGV in zona rossa del centro storico de L’Aquila, forse entro l’anno.

Attualmente la rete è in perfetta efficienza e conta ben 18 stazioni digitali a 3 componenti (velocimetri a 1 Hz di frequenza propria, verticale, nord-sud ed est-ovest per ogni stazione). La comunicazione avviene tramite canale dati con modem GSM ed è centralizzata, in parole povere utilizzo cellulari e lavoro da solo!

Nel 2002, subito dopo il terremoto del Molise, la rete sismica in Abruzzo fu interamente smantellata. Non ci sono motivazioni, ho conservato la lettera in cui mi si chiedeva di consegnare tutte le chiavi e i riferimenti dei siti. Nel 2003 sono riuscito ad andare via (in comando presso l’INGV) e con molta fatica e con l’aiuto dell’ex direttore del Centro Nazionale Terremoti dell’INGV, il dottor Alessandro Amato, sono riuscito a portare con me al CNT tutta la strumentazione sismica che era stata immagazzinata. Un valore di circa 3 miliardi delle vecchie lire di strumentazione abbandonata in un magazzino! Con tale strumentazione il CNT ha creato la rete di monitoraggio regionale in Abruzzo, Umbria, parte della Toscana (Osservatorio di Prato) e potenziato le reti sismiche regionali già esistenti in Liguria e nelle Marche.

Ho iniziato a reinstallare la rete regionale in Abruzzo con una cadenza di una stazione al mese circa. Prima stazione nel dicembre 2005, ultima stazione nell’aprile 2007. Contemporaneamente ho lavorato pesantemente sul miglioramento della rete sismica nazionale nell’Appennino Centrale Abruzzese. Dal 2002, anno in cui vi erano solo 3 stazioni funzionanti siamo arrivati nel dicembre 2008 a oltre 30 stazioni, esclusa la rete regionale.

Qual è lo stato del monitoraggio sismico in Italia? E lo stato della ricerca nel settore?

Esempio di rilevatore sismico installato nei pressi de L’Aquila, composto da un acquisitore digitale dei dati, un rilevatore GPS e un modem GSM per l’invio e la ricezione in tempo reale (per gentile concessione del dottor De Luca).

Direi molto buono! Come accennato prima, l’INGV, o meglio il Centro Nazionale Terremoti, dal 2002 circa ha fatto uno sforzo notevole passando da poco meno di 100 stazioni in tutto il territorio nazionale, in gran parte monocomponente (verticale) con acquisizione e trasmissione analogica, a poco meno di 400 stazioni nel 2008, tutte digitali, tutte a 3 componenti (alcune con altri tre canali con sensori accelerometrici) con acquisizione e trasmissione digitale sia via cavo che satellitare (efficiente soprattutto in caso di terremoto violento).

Quella che a mio parere andrebbe potenziata è la parte di analisi veloce, la cosiddetta Real Time Seismology, unita a studi di sismologia avanzati e di dettaglio sui dati che in tempo reale e in continua confluiscono in sala sismica a Roma.

Infine una domanda sul post-terremoto: dal momento che lei ha vissuto sulla pelle il dramma del terremoto, può darci un’opinione sulla gestione della ricostruzione e sullo stato di ripresa delle attività?

Semplicemente che chi canta stona e chi non canta critica. Non entro chiaramente nel merito dello scandalo cricca della Protezione Civile, c’è la magistratura che dovrà andare avanti… parlo per quello che ho visto con i miei occhi. La macchina dell’emergenza ha funzionato direi più che bene! Faccio una critica? Direi che il Dipartimento della Protezione Civile dovrebbe cambiare nome in Dipartimento per le Emergenze Nazionali, credo sia più realistico. In generale, visto quello che accade in Italia (e non mi riferisco solo ai danni da terremoto, ma anche a frane, inondazioni, ecc.), non siamo in grado di fare prevenzione. È amara come considerazione, ma di fatto è la realtà e i dati non mi smentiscono. Speriamo almeno che questo terremoto sia servito come lezione…

Grazie

Aprile 2, 2018 0 comment
0 Facebook Twitter Google + Pinterest
Newer Posts
Older Posts

Iscriviti al blog tramite email

Inserisci il tuo indirizzo e-mail per iscriverti a questo blog, e ricevere via e-mail le notifiche di nuovi post.

Unisciti a 22 altri iscritti

Informazioni su questo sito

Questo può essere un buon posto per presentare te stesso ed il tuo sito o per includere alcuni crediti.

  • Facebook
  • Twitter

@2017 - PenciDesign. All Right Reserved. Designed and Developed by PenciDesign


Back To Top

[ Placeholder content for popup link ] WordPress Download Manager - Best Download Management Plugin