Energia Solare

L’energia solare rappresenta una delle fonti rinnovabili più promettenti e in continua espansione a livello globale. Questa energia, intrinsecamente pulita e inesauribile, deriva direttamente dal sole, una stella che funge da gigantesca centrale nucleare. Attraverso processi di fusione nucleare, il sole rilascia enormi quantità di energia sotto forma di luce e calore, parte della quale raggiunge la Terra, offrendoci l’opportunità di sfruttarla per produrre elettricità e calore.

Da dove deriva l’energia solare.

L’energia solare deriva dalla fusione nucleare che si verifica nel nucleo del sole, dove l’idrogeno si combina per formare elio, rilasciando in questo processo enormi quantità di energia. Questa energia viaggia attraverso lo spazio fino a noi sotto forma di radiazione solare. La quantità di energia solare che raggiunge l’atmosfera terrestre è di circa 1.366 watt per metro quadrato (W/m²), un valore noto come costante solare. Tuttavia, l’energia effettivamente disponibile sulla superficie terrestre è minore a causa dell’assorbimento e della riflessione da parte dell’atmosfera. In media, circa il 70% della radiazione solare penetra fino alla superficie, offrendo un’intensità che può variare da circa 100 a oltre 1000 W/m² a seconda delle condizioni atmosferiche, dell’angolazione dei raggi solari e della latitudine.

Sfruttamento dell’energia solare.

L’energia solare può essere sfruttata principalmente in due modi: per produrre calore (termico) e per generare elettricità (fotovoltaico).

Produzione di calore

  • Bassa Temperatura (l’acqua può raggiungere temperature da 45°C a 80°C): Viene utilizzata principalmente per il riscaldamento dell’acqua sanitaria e per il riscaldamento degli ambienti. Questo avviene attraverso i collettori solari termici, che assorbono la radiazione solare trasformandola in calore, poi trasferito all’acqua o a un altro fluido termovettore.
  • Alta Temperatura (temperatura superiore ai 400°C): Si sfrutta mediante la concentrazione della radiazione solare, utilizzando specchi o lenti, per produrre vapore ad alta pressione che può essere utilizzato per azionare turbine e generatori in centrali termosolari. Questa tecnologia permette di raggiungere temperature molto elevate, utili per la produzione di energia elettrica su larga scala.

Fotovoltaico

Il principio di funzionamento dei pannelli fotovoltaici si basa sull’effetto fotovoltaico, per cui la luce solare che colpisce alcuni materiali semiconduttori, come il silicio, genera una differenza di potenziale elettrico capace di mettere in movimento gli elettroni, producendo così corrente elettrica. Questa tecnologia permette di convertire direttamente l’energia solare in energia elettrica.

Effetto fotovoltaico: Alla base dei pannelli fotovoltaici c’è l’effetto fotovoltaico, scoperto da Antoine-César Becquerel nel 1839. Quando la luce colpisce un materiale semiconduttore (come il silicio), essa può trasferire energia agli elettroni del materiale, consentendo loro di muoversi liberamente e generare una corrente elettrica. Immaginate che ogni volta che la luce del sole colpisce qualcosa, possa trasformarsi in energia elettrica, un po’ come quando mettete le mani sotto al sole e sentite il calore, ma invece di calore otterrete energia per accendere luci, caricare il vostro smartphone o far funzionare la TV. Questo, in sostanza, è quello che succede con l’effetto fotovoltaico, ed è proprio il principio alla base dei pannelli solari che vedete sui tetti delle case o nei campi solari.

Per capire l’effetto fotovoltaico, dobbiamo fare un piccolo viaggio nel mondo dell’atomo, l’unità base di tutto ciò che ci circonda. Dentro ogni atomo c’è un nucleo, attorno al quale girano gli elettroni, un po’ come i pianeti girano attorno al Sole. I materiali usati nei pannelli solari, come il silicio, hanno una struttura speciale che permette agli elettroni di muoversi liberamente quando vengono colpiti dalla luce solare.

Quando la luce del sole, che come abbiamo detto è fatta di piccole particelle chiamate fotoni, colpisce il pannello solare, fornisce energia agli elettroni del silicio, “spingendoli” fuori dalle loro orbite attorno al nucleo. Questo movimento crea una corrente elettrica.

Ora, per raccogliere questa corrente e utilizzarla, i pannelli sono dotati di contatti elettrici su entrambi i lati, creando un circuito.

Impieghi del fotovoltaico

I pannelli fotovoltaici trovano applicazione sia in piccole installazioni residenziali sia in grandi centrali fotovoltaiche. Nel contesto delle centrali, i pannelli sono disposti su vaste aree e collegati tra loro per produrre elettricità su larga scala, che viene poi immessa nella rete elettrica.

Funzionamento di un pannello solare

Un pannello solare termico trasforma la radiazione solare in calore, che viene poi utilizzato per riscaldare un fluido. Questi pannelli sono composti da un assorbitore che cattura l’energia solare, un fluido termovettore che trasporta il calore, e un isolante che riduce le perdite di calore. Il calore generato può essere utilizzato per il riscaldamento domestico, la produzione di acqua calda sanitaria o in processi industriali.

I pannelli fotovoltaici, invece, convertono la luce solare direttamente in elettricità grazie all’effetto fotovoltaico. Sono costituiti da celle fotovoltaiche, tipicamente in silicio, che generano corrente elettrica quando esposte alla luce solare. L’elettricità prodotta è di tipo continuo e viene quindi convertita in corrente alternata tramite un inverter per poter essere utilizzata nelle reti elettriche domestiche o immesse nella rete elettrica nazionale.

Differenze tra pannello solare e fotovoltaico

La principale differenza tra i pannelli solari termici e i pannelli fotovoltaici risiede nel modo in cui sfruttano l’energia solare. I pannelli solari termici catturano il calore del sole per riscaldare un fluido, mentre i pannelli fotovoltaici trasformano la luce solare direttamente in elettricità. Entrambi contribuiscono a ridurre la dipendenza dai combustibili fossili, ma hanno applicazioni e tecnologie sottostanti diverse.

Rendimento dei pannelli solari e fotovoltaici

Il rendimento di un pannello solare indica la percentuale di energia solare che può essere convertita in calore (per i pannelli termici) o in elettricità (per i pannelli fotovoltaici).

  • Pannelli Solari Termici: Il rendimento può variare notevolmente, ma si aggira tipicamente intorno al 70-80% per la conversione della radiazione solare in calore.
  • Pannelli Fotovoltaici: L’efficienza media dei pannelli fotovoltaici si colloca tra il 15% e il 20%, con alcuni modelli ad alta efficienza che superano il 22%. Questo significa che un quinto dell’energia solare ricevuta viene convertita in elettricità.

Centrali solari vs centrali fotovoltaiche

Le centrali solari si distinguono principalmente in due categorie: termosolari e fotovoltaiche.

  • Centrali Termosolari: Utilizzano specchi o lenti per concentrare la radiazione solare su un punto o una linea, riscaldando un fluido fino a generare vapore. Questo vapore aziona turbine che producono elettricità. Sono caratterizzate dalla possibilità di immagazzinare il calore, consentendo la produzione di energia anche di notte o in condizioni di scarsa insolazione.
  • Centrali Fotovoltaiche: Sono composte da un insieme di pannelli fotovoltaici che convertono direttamente la luce solare in elettricità. Sono più semplici da installare rispetto alle centrali termosolari e possono essere realizzate in varie dimensioni, da piccole installazioni su tetti fino a grandi impianti al suolo.

Una centrale fotovoltaica è un impianto su larga scala progettato per convertire la luce solare in energia elettrica attraverso l’uso di pannelli fotovoltaici. È composta da diversi componenti chiave che lavorano insieme per catturare l’energia solare, convertirla in elettricità e trasmetterla alla rete elettrica. Ecco come è strutturata:

Il cuore di una centrale fotovoltaica è costituito dai pannelli fotovoltaici, che sono moduli contenenti celle fotovoltaiche. Queste celle sono realizzate principalmente in silicio e hanno la funzione di convertire la luce solare in corrente elettrica continua (DC) attraverso l’effetto fotovoltaico.

La quantità di energia prodotta da una singola cella fotovoltaica dipende da vari fattori, tra cui il materiale di cui è fatta (solitamente silicio), la sua efficienza, la dimensione della cella e le condizioni di illuminazione. Una cella fotovoltaica tipica può produrre circa 0,5 Volt di tensione elettrica. La potenza in watt (W) di una cella viene calcolata moltiplicando la tensione (in volt) per la corrente (in ampere) che la cella può fornire. Tuttavia, la quantità di corrente prodotta dalla cella dipende dalla sua area (le dimensioni) e dall’intensità della luce solare che la colpisce. Ad esempio, una singola cella fotovoltaica di dimensioni standard (circa 156 mm di lato per le celle in silicio cristallino) può produrre circa 2-4 Watt sotto condizioni di illuminazione standard (circa 1000 watt per metro quadrato, condizioni test standard per pannelli solari).

Pannelli e moduli fotovoltaici

Un pannello fotovoltaico, composto da più celle collegate in serie e/o parallelo, può aumentare significativamente la tensione e la corrente totale disponibili. Ad esempio, un modulo fotovoltaico tipico può avere tra 60 e 72 celle in silicio cristallino, producendo dai 200 ai 400 Watt di potenza sotto le stesse condizioni standard di illuminazione.

Stringhe di pannelli fotovoltaici

Le stringhe di pannelli fotovoltaici consistono in una serie di pannelli collegati in serie per aumentare ulteriormente la tensione totale. Collegando diverse stringhe in parallelo, si può incrementare la corrente complessiva. Un campo fotovoltaico può avere diverse stringhe di pannelli in base alla capacità energetica desiderata.

Campo fotovoltaico

Un campo fotovoltaico, o parco solare, è composto da molte stringhe di pannelli fotovoltaici collegate insieme. L’energia totale prodotta da un campo fotovoltaico dipende dalla quantità di pannelli installati, dalla loro efficienza e dalle condizioni ambientali (come l’intensità della luce solare, l’orientamento dei pannelli e la temperatura). Ad esempio, un campo fotovoltaico che copre un’area di 1 ettaro (circa 10.000 metri quadrati) potrebbe facilmente ospitare una potenza installata di 1 megawatt (MW), assumendo che ogni metro quadrato di pannello produca circa 100 watt e l’efficienza dell’installazione e l’orientamento dei pannelli siano ottimali.

Inverter

La corrente continua (DC) prodotta dai pannelli fotovoltaici non può essere utilizzata direttamente dalla maggior parte degli apparecchi domestici o immessa nella rete elettrica, che opera in corrente alternata (AC). Per questo motivo, è necessario convertire la DC in AC, e questa operazione viene svolta dagli inverter. Una centrale fotovoltaica può avere un grande inverter centrale o diversi inverter più piccoli distribuiti nell’impianto.

Sistemi di montaggio

I pannelli fotovoltaici sono installati su sistemi di montaggio che possono essere fissi o dotati di meccanismi di tracciamento solare. I sistemi fissi tengono i pannelli in una posizione costante, mentre i sistemi di tracciamento permettono ai pannelli di muoversi seguendo il percorso del sole nel cielo, aumentando così l’efficienza dell’impianto.

Stazione di Trasformazione e Connessione alla Rete

Dopo la conversione in corrente alternata, l’elettricità viene solitamente inviata a una stazione di trasformazione dove la tensione viene aumentata per adattarla ai livelli richiesti dalla rete elettrica. Da qui, l’energia prodotta può essere distribuita e utilizzata dai consumatori.

Sistema di monitoraggio e controllo

Una centrale fotovoltaica è dotata di un sistema di monitoraggio e controllo che permette di gestire l’impianto in modo efficiente, monitorare le prestazioni, diagnosticare eventuali guasti e ottimizzare la produzione di energia. Questi sistemi possono spesso essere controllati a distanza.

Una centrale solare a torre, nota anche come centrale termosolare a concentrazione (CSP, Concentrated Solar Power), funziona sfruttando la luce solare concentrata per produrre calore ad alta temperatura, che viene poi utilizzato per generare elettricità attraverso un ciclo termico convenzionale. Vediamo nel dettaglio come funziona, includendo le temperature coinvolte, le potenziali quantità di watt prodotti e le dimensioni tipiche di tali impianti.

Principio di Funzionamento

  1. Raccolta della luce solare: La centrale utilizza un campo di specchi orientabili, detti eliostati, che riflettono e concentrano la luce solare verso un ricevitore situato sulla cima di una torre centrale. Gli eliostati sono controllati da sistemi computerizzati per seguire il movimento del sole e massimizzare l’efficienza della riflessione durante il giorno.
  2. Conversione in calore: Il ricevitore sulla torre assorbe la radiazione solare concentrata, trasformandola in calore. Questo calore è utilizzato per riscaldare un fluido termovettore (che può essere sale fuso, aria, acqua o vapore) a temperature molto elevate, tipicamente tra 400°C e 1000°C.
  3. Produzione di elettricità: Il fluido termovettore ad alta temperatura trasporta il calore verso un generatore di vapore, dove il calore viene utilizzato per produrre vapore ad alta pressione. Il vapore aziona poi una turbina collegata a un generatore, producendo elettricità. Dopo che il vapore ha rilasciato il suo calore, viene condensato in acqua e riportato al generatore di vapore, completando il ciclo.
  4. Stoccaggio del calore: Uno dei vantaggi delle centrali solari a torre è la possibilità di immagazzinare il calore in eccesso, tipicamente utilizzando sali fusi, per produrre elettricità anche di notte o in condizioni di nuvolosità.

Dimensioni e Potenziale di Produzione

  • Dimensioni del campo di eliostati: Un impianto può coprire da poche decine fino a centinaia di ettari, con migliaia di eliostati disposti in maniera tale da massimizzare la concentrazione della luce solare sulla torre.
  • Altezza della torre: Le torri possono raggiungere altezze dai 100 ai 200 metri, per ottimizzare la ricezione della luce solare concentrata da parte del ricevitore.
  • Potenza prodotta: La potenza di una centrale solare a torre può variare considerevolmente in base alle sue dimensioni e alla tecnologia impiegata. Gli impianti più piccoli possono produrre poche decine di megawatt (MW), mentre gli impianti più grandi possono superare i 100 MW. Ad esempio, un impianto da 100 MW può generare abbastanza elettricità per soddisfare il fabbisogno energetico di circa 75.000 abitazioni.

Esempio Specifico

Prendiamo come esempio un impianto solare a torre da 100 MW:

  • La temperatura del fluido termovettore nel ricevitore può superare i 500°C.
  • L’area occupata dal campo di eliostati può essere superiore a 1 km², a seconda della specifica configurazione e dell’efficienza degli eliostati.
  • L’energia prodotta dipenderà dall’irraggiamento solare della zona, dall’efficienza della conversione termica e dalla capacità di stoccaggio del calore, ma un impianto da 100 MW è teoricamente capace di produrre oltre 200 gigawattora (GWh) di elettricità all’anno, assumendo un buon numero di ore di pieno sole.

Le centrali solari a torre rappresentano una soluzione promettente per la produzione di energia rinnovabile su larga scala, combinando tecnologie avanzate per il tracciamento solare, la conversione termica e lo stoccaggio di energia, al fine di fornire una fonte di elettricità pulita e affid

abile, capace di operare anche durante le ore notturne o in condizioni di scarsa insolazione grazie ai sistemi di accumulo termico.

Sfide e Vantaggi

Sfide

  • Costi iniziali: L’investimento iniziale per la costruzione di una centrale solare a torre può essere significativo, a causa della complessità tecnologica e dell’estensione del campo di eliostati.
  • Impatto ambientale: Anche se rappresentano una fonte di energia rinnovabile, queste centrali richiedono grandi estensioni di terra, potendo avere un impatto sull’habitat locale e sulla biodiversità.
  • Manutenzione: La manutenzione dei migliaia di eliostati e la gestione di un impianto di tale complessità tecnologica possono presentare sfide operative.


Una centrale solare a specchi parabolici è un tipo di centrale termosolare che utilizza specchi parabolici per concentrare la luce solare su un tubo ricevitore collocato al fuoco della parabola. All’interno del tubo scorre un fluido termovettore che viene riscaldato fino a temperature elevate. Vediamo come funziona, considerando le temperature coinvolte, le potenziali quantità di watt prodotti e le dimensioni tipiche di tali impianti.

Principio di funzionamento

  1. Concentrazione della luce solare: Gli specchi parabolici concentrano la luce solare su un tubo ricevitore posizionato lungo il fuoco della parabola. Gli specchi sono orientabili per seguire il movimento del sole durante la giornata e massimizzare l’efficienza della concentrazione solare.
  2. Riscaldamento del fluido termovettore: Il fluido termovettore (che può essere olio termico, sale fuso, o un altro fluido ad alta capacità termica) scorre all’interno del tubo ricevitore e assorbe il calore concentrato dalla riflessione solare. Questo processo aumenta la temperatura del fluido fino a circa 400°C-600°C, a volte anche più in impianti ad alta efficienza.
  3. Generazione di elettricità: Il fluido termovettore riscaldato viene quindi pompato verso un generatore di vapore, dove il suo calore viene utilizzato per produrre vapore ad alta pressione. Il vapore, a sua volta, aziona una turbina collegata a un generatore elettrico, producendo energia elettrica. Come nelle centrali solari a torre, anche qui il vapore condensato viene riciclato nel sistema.
  4. Stoccaggio del calore: Un vantaggio significativo delle centrali a specchi parabolici è la possibilità di immagazzinare il calore in eccesso, ad esempio in serbatoi di sali fusi, consentendo la produzione di energia anche durante le ore senza sole.

Dimensioni e potenziale di produzione

  • Dimensioni dell’impianto: La lunghezza di un singolo collettore parabolico può variare da alcuni metri fino a oltre 100 metri, con un campo di collezione che può estendersi per centinaia di metri quadrati, a seconda della capacità dell’impianto.
  • Potenza prodotta: Gli impianti variano significativamente in termini di potenza, da piccoli impianti di pochi megawatt (MW) a grandi centrali di centinaia di MW. Un impianto medio di 50 MW può produrre abbastanza elettricità per soddisfare il fabbisogno di circa 20.000 case.

Esempio specifico

Considerando un impianto CSP a specchi parabolici da 50 MW:

  • La temperatura del fluido termovettore può raggiungere i 400°C-600°C.
  • Un campo di specchi parabolici potrebbe coprire un’area di diverse decine di ettari.
  • Tale impianto potrebbe generare oltre 100 GWh (gigawattora) di elettricità all’anno, a seconda dell’irraggiamento solare della località, dell’efficienza del sistema e della capacità di stoccaggio del calore.

Vantaggi

  • Produzione di energia pulita: Similmente ad altre tecnologie CSP, gli impianti a specchi parabolici producono energia elettrica senza emissioni inquinanti.
  • Possibilità di stoccaggio: La capacità di stoccare il calore permette la generazione di elettricità anche di notte o in condizioni di cielo nuvoloso, superando uno dei limiti principali delle fonti rinnovabili: l’intermittenza.
  • Efficienza energetica: Gli impianti CSP con collettori parabolici sono particolarmente efficienti in zone con elevata irradiazione solare diretta.

Attualmente, l’energia solare contribuisce significativamente al mix energetico globale, alimentando abitazioni, industrie e infrastrutture. La capacità installata di energia solare fotovoltaica continua a crescere a ritmi sostenuti, grazie ai progressi tecnologici e alla riduzione dei costi di produzione dei pannelli fotovoltaici.

Benefici dell’energia solare

L’energia solare, essendo rinnovabile e pulita, riduce la dipendenza dai combustibili fossili, contribuisce alla lotta contro il cambiamento climatico e promuove lo sviluppo sostenibile. Inoltre, l’energia solare può essere prodotta localmente, riducendo così le perdite di trasmissione e distribuzione e aumentando la sicurezza energetica dei paesi.

Possibili Sviluppi e Problemi

I futuri sviluppi potrebbero includere l’incremento dell’efficienza dei pannelli, lo sviluppo di nuovi materiali fotovoltaici e l’integrazione con altre tecnologie, come lo storage di energia. Tra i problemi, vi è il fatto che la produzione di energia solare è intermittente e dipende dalle condizioni meteorologiche. Inoltre, i pannelli fotovoltaici hanno una vita utile limitata e al termine della loro vita possono rappresentare un problema di smaltimento, anche se sono in corso ricerche per migliorare il riciclaggio dei materiali.

Fusione nucleare: sfide e progetti.

Principi fisici della fusione

La fusione nucleare richiede condizioni estreme di temperatura e pressione per superare la repulsione elettrostatica tra i nuclei atomici, che sono entrambi positivamente carichi. A temperature dell’ordine di decine di milioni di gradi Celsius, la materia esiste sotto forma di plasma, uno stato ionizzato in cui gli elettroni sono liberati dai nuclei atomici. In queste condizioni, i nuclei possono avvicinarsi abbastanza da permettere alle forze nucleari forti di vincere la repulsione elettrostatica e combinare i nuclei in un processo noto come fusione.

Metodi di confinamento per la fusione

Due dei principali approcci per ottenere la fusione in laboratorio sono il confinamento magnetico e il confinamento inerziale.

  • Confinamento magnetico: Il Tokamak e lo Stellarator sono i dispositivi più noti che utilizzano campi magnetici per confinare il plasma in un volume controllato. Il Tokamak, con la sua configurazione toroidale (a forma di ciambella), utilizza un campo magnetico per mantenere il plasma stabile e lontano dalle pareti del contenitore, mentre un campo magnetico aggiuntivo, generato da una corrente elettrica nel plasma, aiuta a riscaldarlo e a mantenerlo denso.

  • Confinamento inerziale: Questo metodo utilizza laser o fasci di particelle ad alta energia per comprimere e riscaldare piccole capsule di materiale fusibile, tipicamente deuterio e trizio, a densità e temperature sufficienti per innescare la fusione. La compressione deve essere estremamente rapida e uniforme per assicurare che il materiale non si disperda prima che la fusione possa avvenire.

Sfide e progressi recenti

Uno dei principali ostacoli alla realizzazione di un reattore a fusione commerciale è raggiungere un “guadagno energetico” positivo, cioè produrre più energia di quanta ne venga consumata per mantenere la reazione. Questo richiede un controllo estremamente preciso delle condizioni di fusione, oltre a materiali avanzati capaci di resistere alle intense condizioni all’interno del reattore.

Progetto ITER

Il progetto ITER (International Thermonuclear Experimental Reactor) rappresenta uno degli sforzi internazionali più ambiziosi e significativi nel campo della fusione nucleare. Situato a Cadarache, nel sud della Francia, ITER è un consorzio globale che coinvolge l’Unione Europea, gli Stati Uniti, la Federazione Russa, il Giappone, la Cina, la Corea del Sud e l’India. L’obiettivo principale di ITER è dimostrare la fattibilità scientifica e tecnologica della fusione nucleare come fonte di energia pulita e praticamente illimitata.

Obiettivi di ITER

ITER mira a costruire il più grande tokamak mai realizzato, un dispositivo di confinamento magnetico a forma di ciambella progettato per mantenere il plasma di fusione a temperature e pressioni estremamente elevate per periodi prolungati. Gli obiettivi specifici del progetto includono:

  • Produrre un plasma di fusione auto-sostenuto, in cui l’energia generata dalla fusione è sufficiente a mantenere il processo senza un input energetico esterno continuo.
  • Dimostrare un guadagno energetico significativo, puntando a produrre 10 volte più energia di quanta ne venga consumata per mantenere il plasma (500 MW di potenza di fusione da un input di 50 MW).
  • Testare materiali e tecnologie chiave per un futuro reattore a fusione commerciale, inclusi sistemi di estrazione del calore, materiali resistenti alle radiazioni e tecnologie per la gestione del combustibile di fusione.
Design e tecnologia

Il design del tokamak ITER incorpora numerosi avanzamenti tecnologici, tra cui potenti magneti superconduttori per confinare e stabilizzare il plasma, sistemi di riscaldamento ad alta potenza per portare il plasma alle temperature necessarie per la fusione (oltre 150 milioni di gradi Celsius), e una sofisticata camera a vuoto rivestita di materiali speciali per gestire il calore intenso e la radiazione proveniente dal plasma.

Sfide e progressi

ITER è un progetto di ingegneria e ricerca di portata senza precedenti, che affronta molteplici sfide tecniche, scientifiche e logistiche. La costruzione del sito ha richiesto sforzi internazionali coordinati per la progettazione, la fabbricazione e il trasporto di componenti estremamente grandi e complessi da tutto il mondo. Nonostante i ritardi e i superamenti di costi, il progetto ha compiuto significativi progressi, con l’inizio dell’assemblaggio principale del tokamak nel 2020.

Impatto e significato

La riuscita di ITER avrà un impatto profondo sul futuro della produzione energetica globale, offrendo una dimostrazione pratica della fusione nucleare come fonte energetica sostenibile e a basse emissioni. Al di là della produzione di energia, il successo di ITER fornirà preziose conoscenze scientifiche e tecnologiche che accelereranno lo sviluppo di reattori a fusione commerciali e potrebbero giocare un ruolo cruciale nella transizione verso un mix energetico più pulito e sostenibile a livello mondiale.

Progetto NIF

Il National Ignition Facility (NIF) è un impianto sperimentale situato presso il Lawrence Livermore National Laboratory in California, Stati Uniti. Diversamente da ITER, che si basa sul confinamento magnetico per realizzare la fusione, il NIF utilizza un approccio noto come “confinamento inerziale” per ottenere la fusione nucleare. Inaugurato nel 2009, il NIF ospita il laser più potente al mondo, progettato per avvicinarci alla realizzazione della fusione nucleare come fonte di energia pulita e sostenibile.

Obiettivi del NIF

L’obiettivo principale del NIF è quello di raggiungere l'”ignizione” del plasma di fusione, un punto critico in cui la reazione di fusione diventa autosostenente, producendo più energia di quanta ne venga assorbita per innescare la reazione. Questo traguardo rappresenterebbe un passo significativo verso lo sviluppo di una fonte di energia a fusione praticabile. Gli obiettivi specifici del NIF includono:

  • Dimostrare la fattibilità tecnica della fusione nucleare tramite confinamento inerziale.
  • Fornire una piattaforma per esperimenti di fisica avanzata, compresi studi sulla materia a condizioni estreme e la sicurezza nucleare.
  • Sviluppare le conoscenze e le tecnologie necessarie per la progettazione di un futuro impianto di fusione che potrebbe fornire energia pulita in modo sostenibile.
Tecnologia e funzionamento

Il NIF utilizza 192 potenti fasci laser per riscaldare e comprimere un piccolissimo bersaglio, solitamente una capsula contenente una miscela degli isotopi dell’idrogeno, deuterio e trizio. I laser convergono sulla capsula con precisione estrema, riscaldandola a temperature di milioni di gradi e comprimendola a densità molto elevate. Questo processo incrementa la probabilità che i nuclei si fondano, rilasciando energia.

Sfide e progressi

Il raggiungimento dell’ignizione è estremamente difficile, richiedendo condizioni precise di temperatura, pressione e uniformità nella compressione del bersaglio. Nonostante queste sfide, il NIF ha realizzato importanti progressi scientifici e tecnologici, compresa la dimostrazione di alcuni degli impulsi laser più potenti e precisi mai generati.

Impatto e significato

Il successo del NIF nel fare avanzare la comprensione della fusione tramite confinamento inerziale ha implicazioni profonde non solo per lo sviluppo futuro dell’energia pulita ma anche per la sicurezza nazionale e la fisica fondamentale. Gli esperimenti condotti al NIF aiutano a modellare come la materia si comporta sotto condizioni estreme simili a quelle trovate nelle stelle o durante esplosioni nucleari.

Conclusioni

La fusione nucleare offre la promessa di una fonte di energia pulita, sicura e praticamente inesauribile, ma realizzare questa promessa richiede superare sfide tecniche e scientifiche sostanziali. I progressi nella fisica del plasma, nella tecnologia dei materiali e nei metodi di confinamento stanno gradualmente portando la fusione più vicina alla realtà commerciale, promettendo una rivoluzione nel modo in cui l’umanità genera energia nel futuro.

Il Nucleare in Italia.

L’inizio del programma nucleare in Italia si colloca nel contesto del dopoguerra, quando il Paese, in pieno miracolo economico (vedi Piano Marshall), iniziava a sperimentare una crescita economica significativa che portava con sé una crescente domanda di energia. Questo periodo vide anche l’inizio di una campagna internazionale promossa dal Presidente americano Dwight Eisenhower, nota come “Atoms for Peace”, che mirava a promuovere l’uso pacifico dell’energia nucleare.

Contesto Internazionale e Nazionale.

Negli Stati Uniti, già dal 1951, erano stati realizzati i primi prototipi di reattori che fornivano energia elettrica adatta all’uso civile. La campagna “Atoms for Peace” lanciata nel 1953, e a partire dalla metà degli anni ’50, iniziò la costruzione delle prime grandi centrali nucleari, prima negli USA e poi anche in Europa.

L’Italia e il Nucleare.

L’Italia, pur partendo svantaggiata rispetto ad altri Paesi a causa di un apparato industriale fragile e debole post-seconda guerra mondiale, iniziò rapidamente a recuperare terreno. La crescita economica e l’industrializzazione portarono a una maggiore richiesta di energia. Le centrali idroelettriche esistenti e l’importazione di energia non bastavano a soddisfare il fabbisogno crescente, spingendo il paese a cercare nuove fonti di energia.

La risposta al bisogno energetico.

La risposta a questo bisogno energetico fu l’interesse verso l’energia nucleare. L’ENI, guidata da Enrico Mattei, e altre società private iniziarono a interessarsi all’energia nucleare come mezzo per garantire l’autonomia energetica dell’Italia. Questo interesse portò, alla fine degli anni ’50 e all’inizio degli anni ’60, alla realizzazione delle prime tre centrali nucleari italiane, segnando l’inizio ufficiale del programma nucleare nel paese.

Le Prime Centrali Nucleari.

Le prime centrali nucleari italiane furono:

  1. Centrale di Borgo Sabotino: Vicino a Latina, fu la prima ad operare, realizzata tra il 1958 e il 1963. Inizialmente promossa dall’ENI, entrò in funzione grazie agli sforzi congiunti di società statali e private.
  2. Centrale del Garigliano: Vicino a Caserta, iniziò ad operare nel 1964. Era intesa a supportare lo sviluppo industriale del Sud Italia, ma fu chiusa nel 1982 a causa di problemi tecnici e proteste locali.
  3. Centrale di Trino Vercellese: In Piemonte, iniziò ad operare nel 1965. Fu realizzata con capitali sia statali che privati, inclusi investitori americani, e rappresentò un successo dal punto di vista della produzione energetica.

Queste centrali segnarono l’inizio dell’era nucleare in Italia, un periodo di speranze e aspettative per l’indipendenza energetica del paese. Tuttavia, il cammino del nucleare in Italia sarebbe stato segnato da alti e bassi, influenzato da fattori interni ed esterni, compresi incidenti nucleari internazionali e cambiamenti nella percezione pubblica e politica riguardo alla sicurezza e all’ambientalismo.

Il declino del programma nucleare in Italia è stato influenzato da una serie di eventi, cambiamenti politici e sociali, nonché da incidenti nucleari internazionali che hanno modificato radicalmente la percezione pubblica e la politica energetica del Paese.

Qui puoi visualizzare un tour virtuale tra le centrali nucleari italiane.

Cambiamenti politici e sociali.

Negli anni ’60 e ’70, l’Italia vide significativi cambiamenti politici e sociali che influenzarono direttamente il programma nucleare. La nazionalizzazione dell’energia elettrica nel 1962, con la creazione dell’ENEL (Ente Nazionale per l’Energia Elettrica), portò tutte le centrali elettriche, comprese quelle nucleari, sotto il controllo statale. Questo cambiamento mirava a ottimizzare la produzione e distribuzione dell’energia elettrica ma introdusse anche nuovi livelli di complessità e burocrazia nella gestione del nucleare.

Crisi energetiche e ambientalismo.

La crisi petrolifera del 1973 e l’emergere di un movimento ambientalista globale portarono a un ripensamento dell’energia nucleare. L’aumento dei prezzi del petrolio avrebbe potuto favorire un maggiore investimento nel nucleare, ma contemporaneamente cresceva la consapevolezza dei rischi ambientali e della sicurezza legati all’energia nucleare. In Italia, come nel resto del mondo, si sviluppò un forte movimento ambientalista che iniziò a sollevare dubbi sull’energia nucleare, soprattutto per quanto riguarda la gestione delle scorie radioattive e il rischio di incidenti.

Incidenti nucleari Internazionali.

La percezione pubblica del nucleare in Italia fu fortemente influenzata da due incidenti nucleari di rilievo internazionale:

  1. Three Mile Island (1979): L’incidente alla centrale nucleare di Three Mile Island negli Stati Uniti evidenziò i rischi associati all’energia nucleare, anche in un paese con elevati standard di sicurezza. Sebbene non ci fossero state vittime dirette, l’incidente sollevò preoccupazioni globali sulla sicurezza delle centrali nucleari.
  2. Chernobyl (1986): L’esplosione del reattore nella centrale nucleare di Chernobyl in Ucraina (allora parte dell’URSS) ebbe un impatto devastante, con conseguenze ambientali e sanitarie a lungo termine. La nube radioattiva che raggiunse anche l’Italia e altri paesi europei accentuò ulteriormente le preoccupazioni sulla sicurezza nucleare e alimentò il dibattito pubblico contro l’uso dell’energia nucleare.

Il Referendum del 1987.

Il culmine del declino del programma nucleare in Italia fu il referendum del 1987, indetto a seguito del disastro di Chernobyl. Il referendum propose la cessazione del programma nucleare italiano, e l’esito fu una netta vittoria dei “sì”, con una larga maggioranza degli italiani che si espresse a favore dell’abbandono dell’energia nucleare. Di conseguenza, tutte le centrali nucleari esistenti furono gradualmente dismesse, e i piani per nuove centrali furono cancellati.

Dopo il Referendum.

Nonostante il chiaro verdetto del referendum, il dibattito sul nucleare in Italia non si è mai completamente spento. Periodicamente, si sono riaccese discussioni sull’opportunità di rivisitare l’opzione nucleare, soprattutto in risposta alle crisi energetiche e alla necessità di ridurre la dipendenza energetica dell’Italia dall’estero. Tuttavia, eventi come il disastro di Fukushima nel 2011 hanno rafforzato la posizione anti-nucleare, confermando la scelta dell’Italia di non perseguire ulteriormente lo sviluppo dell’energia nucleare.

Mettiti alla prova

Svolgi il test ed ottieni il tuo Badge

Giochiamo?

Flashcards

Ordine cronologico

Ricerca del petrolio “Air Gun”

La tecnica “air gun” per la ricerca del petrolio è una metodologia sismica usata nell’esplorazione offshore. Questo articolo esplorerà come funziona questa tecnica, i suoi benefici e le possibili implicazioni negative per l’ambiente, con un focus particolare sulle fonti scientifiche per una comprensione approfondita.

Cos’è la tecnica “Air Gun”?

L’uso di “air gun” in esplorazioni sismiche marine rappresenta uno dei metodi più avanzati per sondare il fondale marino alla ricerca di giacimenti petroliferi. Questa tecnica impiega cannoni ad aria, i quali rilasciano un impulso potente ma controllato di aria compressa nell’acqua. L’onda sonora risultante penetra il fondale marino e si riflette indietro verso la superficie, dove viene catturata da sensori chiamati idrofoni. Questi dati acustici sono poi analizzati per creare immagini dettagliate delle strutture geologiche sottostanti, permettendo agli scienziati di individuare possibili depositi di petrolio e gas.

Benefici dell’impiego dell’Air Gun

L’utilizzo dell’air gun nell’esplorazione sismica marina offre una serie di vantaggi significativi, soprattutto nell’ambito dell’industria petrolifera.

  1. Migliore comprensione Geologica : L’air gun è fondamentale per ottenere una comprensione dettagliata e accurata della geologia sotterranea. Questa tecnica permette agli scienziati di mappare strati geologici profondi, identificando le formazioni rocciose che potrebbero contenere depositi di petrolio o gas naturale. Grazie alla precisione dei dati raccolti, è possibile ridurre notevolmente il rischio di perforazioni non produttive, che rappresentano un costo elevato sia in termini economici sia ambientali. Inoltre, la qualità delle immagini sismiche ottenute consente di distinguere in modo più efficace tra diversi tipi di formazioni rocciose, migliorando la capacità di prevedere la presenza di idrocarburi.
  2. Minimizzazione dell’intervento fisico e risparmio economico: un altro aspetto fondamentale è la riduzione dell’impronta ecologica diretta. A differenza delle tecniche di esplorazione che richiedono perforazioni fisiche, l’air gun è relativamente meno invasivo, riducendo l’impatto sulle aree di esplorazione. Questo è particolarmente rilevante in regioni ecologicamente sensibili, dove l’intervento fisico deve essere minimizzato.Inoltre, questa tecnica è notevolmente più efficiente in termini di tempo e risorse rispetto ad altri metodi sismici. L’air gun permette di coprire vaste aree marine in tempi brevi, fornendo dati essenziali per la pianificazione delle operazioni di esplorazione e produzione. Questo aspetto si traduce in un notevole risparmio economico, riducendo i costi legati sia alla ricerca sia allo sviluppo di nuove risorse energetiche.
  3. Infine, l’air gun contribuisce alla sicurezza delle operazioni di esplorazione. Fornendo immagini dettagliate del sottosuolo, aiuta a identificare potenziali pericoli come fratture o instabilità geologiche, riducendo il rischio di incidenti durante le fasi di perforazione.

Implicazioni ambientali negative

  1. Impatto sulla vita marina: nonostante i benefici, l’uso dell’air gun presenta significative implicazioni ambientali, soprattutto per la vita marina. Gli impulsi sonori generati da questa tecnica sono estremamente potenti e possono viaggiare per chilometri sotto la superficie dell’oceano. Questo rumore può avere un impatto devastante su molte specie marine, in particolare sui mammiferi marini come balene e delfini, che si affidano al suono per la comunicazione, la caccia e la navigazione.Studi hanno dimostrato che l’esposizione a questi forti rumori può causare stress e disorientamento in queste specie, portando in alcuni casi a comportamenti anomali come spiaggiamenti di massa. Inoltre, il rumore può disturbare le abitudini migratorie e riproduttive, influenzando gli equilibri ecologici a lungo termine. Ad esempio, le balene che sono esposte a rumori intensi possono deviare dai loro percorsi migratori abituali, il che può avere ripercussioni sulla loro salute e sulle loro capacità riproduttive.Oltre ai mammiferi marini, anche altre specie marine possono essere influenzate. I pesci e altri organismi marini mostrano cambiamenti nel comportamento alimentare e nella comunicazione a causa dell’inquinamento acustico. Questi cambiamenti possono avere effetti a catena sull’intero ecosistema marino, alterando le dinamiche predatorie e le catene alimentari.L’inquinamento acustico può anche avere effetti negativi sulla biodiversità marina. La perturbazione causata dai suoni intensi può portare all’abbandono di habitat importanti per la riproduzione e l’alimentazione, riducendo la diversità delle specie in determinate aree.Infine, c’è una preoccupazione crescente per gli impatti a lungo termine dell’esposizione costante al rumore sott’acqua. Gli effetti cumulativi dell’esposizione prolungata al rumore possono causare danni fisici agli organismi marini, compresi traumi acustici e potenziali danni all’udito, che possono avere ripercussioni significative sulla sopravvivenza e sul benessere di queste specie.

Ricerche e fonti scientifiche

  • Secondo uno studio pubblicato nel “Journal of Marine Science and Engineering”, l’esposizione a lungo termine al rumore degli air gun può causare stress cronico in mammiferi marini, portando a potenziali impatti sulla loro salute e riproduzione.
  • Una ricerca di “Environmental Science & Technology” ha messo in luce che le onde sonore emesse dagli air gun possono avere effetti non solo sugli animali marini ma anche sulle comunità microbiche e sugli organismi del fondale, alterando gli ecosistemi in modi ancora poco compresi.
  • Un’analisi del “Marine Policy Journal” ha esplorato le implicazioni politiche e regolamentari dell’uso degli air gun, sottolineando la necessità di bilanciare gli interessi economici dell’esplorazione petrolifera con la salvaguardia degli ambienti marini.

Conclusione

Mentre la tecnica “air gun” rappresenta un passo avanti significativo nell’esplorazione petrolifera offshore, le sue ripercussioni sull’ambiente marino non possono essere trascurate. La necessità di ulteriori ricerche, accoppiata a un’attenta valutazione e implementazione di misure regolamentari, è fondamentale per assicurare che l’esplorazione del petrolio proceda in modo sostenibile e responsabile. La sfida sta nel trovare un equilibrio tra il bisogno di risorse energetiche e la protezione degli ecosistemi marini, un compito che richiede collaborazione tra scienziati, industrie e regolatori.

Risorse, riserve e fonti.

Tutto ciò che produce energia è una “fonte di energia”. Il Sole è la principale fonte di energia della Terra. La Terra riceve dal Sole un flusso ininterrotto di energia che, oltre ad alimentare tutti i processi vitali, vegetali e animali, scioglie i ghiacci ed alimenta il ciclo dell’acqua tra mare e atmosfera, produce i venti, fa crescere le piante che nel corso di milioni di anni si sono trasformate, insieme ai resti di organismi animali, in combustibili fossili, petrolio, carbone e gas naturale.

La risorsa energetica è tutto ciò che può essere utilizzato per generare energia utile per le attività umane

Per tutte le fonti energetiche, esiste una distinzione tra:

  • le risorse sono l’insieme delle fonti conosciute, delle fonti non ancora scoperte e delle risorse non convenientemente sfruttabili con le tecnologie a disposizione dell’uomo..
  • le riserve sono i materiali di cui conosciamo l’esatta localizzazione ( giacimenti )ed economicamente sfruttabili dall’uomo con le attuali tecnologie.

Quindi le riserve energetiche sono un sottoinsieme delle risorse energetiche. Ad esempio, il petrolio è una risorsa energetica. I giacimenti di petrolio conosciuti e sfruttabili sono, invece, una riserva energetica. Sono esclusi dalle riserve energetiche i giacimenti di petrolio non ancora scoperti e quelli non convenientemente sfruttabili con le attuali conoscenze tecnologiche.

Fonti primarie e secondarie.

Le numerose fonti energetiche esistenti possono essere classificate in diversi modi.

Si definiscono fonti di energia primaria tutte quelle sorgenti energetiche che sono presenti in natura in una forma direttamente utilizzabile dall’uomo, senza la necessità di essere sottoposte a trasformazioni industriali o altri tipi di processamento intermedio. Un esempio di energia primaria è la luce del sole: le sue radiazioni scaldano la Terra e forniscono energia a piante organismi autotrofi funzionando come un vero e proprio carburante per la realizzazione della fotosintesi clorofilliana. Altre fonti primarie che tutti conosciamo sono l’energia termica proveniente dagli strati profondi della crosta terrestre, il vento, le maree, la legna, i combustibili nucleari e il gas naturale.

A differenza delle fonti primarie, le sorgenti di energia secondaria hanno la caratteristica di non essere fruibili dall’uomo direttamente nel loro stato naturale, ma necessitano di trasformazioni industriali per essere utilizzate come fonte diretta di energia. Molte fonti secondarie derivano da fonti energetiche primarie che vengono trasformate mediante l’azione dell’uomo. La benzina, ad esempio, è uno dei combustibili più utilizzati nella nostra società moderna poiché da essa dipendono la maggior parte dei trasporti su strada, via mare e via aerea. Essa viene classificata come una fonte energetica secondaria, poiché è prodotta a partire dal petrolio grezzo, una risorsa mineraria naturale che viene estratta dagli strati più o meno profondi della crosta terrestre.

In molti casi, l’energia elettrica prodotta a partire da fonti naturali rientra anch’essa tra le forme energetiche secondarie: l’energia elettrica estratta dal vento o dalle maree, ad esempio, richiede trasformazioni complesse che si attuano in strutture dedicate chiamate centrali elettriche.

Le fonti di energia non rinnovabili.

Le energie non rinnovabili sono quelle risorse energetiche che troviamo all’interno del nostro pianeta in una quantità limitata, destinata a finire nel corso dei secoli (o su scale temporali superiori) se il loro utilizzo si protrae al ritmo attuale.

I tempi di rinnovamento delle fonti non rinnovabili, infatti, si sviluppano su archi temporali troppo estesi per stare al passo con le necessità energetiche delle nostre città o del nostro ritmo di vita: prima o poi, queste fonti energetiche sono dunque destinate ad esaurirsi e la nostra società non potrà più far affidamento su di esse per alimentare i propri bisogni. Le più comuni risorse energetiche non rinnovabili sono:

  • combustibili fossili: tutti quei combustibili che si sono formati, nel corso delle diverse ere geologiche, per trasformazione di materia organica in forme altamente stabili e ricche in atomi di carbonio. Il carbonio è ciò che brucia per produrre attivamente energia: più ce n’è, più il combustibile sarà efficiente. Tra i combustibili fossili più utilizzati al giorno d’oggi troviamo il petrolio e gli altri idrocarburi naturali, il carbone e il gas naturale.
  • l’energia nucleare: l’uranio e gli altri combustibili nucleari sono presenti in natura all’interno di rocce, nel suolo, nelle falde acquifere e persino in alcuni organismi viventi. Come per le risorse energetiche fossili, anche questi sono presenti in quantità limitate e l’origine di tutti i depositi attualmente conosciuti risale addirittura alla nascita del pianeta Terra.
Fonti rinnovabili.

Si definiscono fonti di energie rinnovabili tutte quelle risorse che vengono prodotte mediante trasformazioni chimiche o processi fisici che avvengono continuamente sul nostro pianeta, o che avvengono comunque in scale temporali compatibili con l’utilizzo delle risorse in questione. Tra le fonti rinnovabili troviamo:

  • l’energia solare: è l’energia sprigionata dalle radiazioni solari che colpiscono il nostro pianeta. È prodotta continuamente ed è considerata la fonte primaria di energia sulla Terra.
  • l’energia eolica: è l’energia cinetica associata al movimento delle masse ventose nella nostra atmosfera.
  • l’energia geotermica: si genera per mezzo di fonti di calore geologiche situate sotto la superficie della crosta terrestre.
  • l’energia marina: è l’energia meccanica racchiusa nelle masse d’acqua che compongono i mari e gli oceani del nostro pianeta.
  • l’energia idroelettrica: sfrutta l’energia potenziale gravitazionale e l’energia cinetica di una massa d’acqua in movimento che viene convogliata all’interno di specifiche centrali elettriche.
  • l’energia da biomasse: sfrutta l’energia contenuta negli atomi di carbonio provenienti da organismi animali e vegetali. Si produce mediante trasformazioni biochimiche su breve scala temporale e può essere considerata come un’alternativa rinnovabile alle risorse energetiche fossili.

NOTA BENE.

Riserva energetica. Il concetto di risorsa energetica non deve essere confuso con quello di riserva energetica. La riserva energetica è un sottoinsieme della risorsa energetica poiché include soltanto le quantità della risorsa contenute nei giacimenti scoperti ed economicamente/tecnologicamente sfruttabili dall’uomo.

Il nucleare: un po’ di storia.

Non è semplice trovare una scoperta scientifica che abbia avuto un impatto più grande sulla popolazione e sulla politica mondiale di quello dell’energia nucleare. L’umanità ha preso coscienza di questa nuova forma di energia il 6 agosto 1945 quando si diffuse nel mondo la drammatica notizia dell’esplosione di una bomba nucleare sulla città giapponese di Hiroshima (80.000 morti immediati).

La storia del nucleare ha inizio 1916 con il fisico tedesco Albert Einstein attraverso la teoria della relatività ristretta, principio di equivalenza massa-energia, espressa nell’equazione:

                                                                    E = mc²

in cui :

E è l’energia, espressa in joule; m è la massa, espressa in chilogrammi; c² è la velocità della luce al quadrato, espressa in m/s;

la quale rappresenterebbe il fondamento teorico dell’energia nucleare. Questa formula suggerisce in linea di principio, la possibilità di trasformare direttamente la materia in energia o viceversa. Einstein non vide applicazioni pratiche in questa scoperta. Intuì però che il principio di equivalenza massa-energia poteva spiegare il fenomeno della radioattività, ovvero che certi elementi emettono energia spontanea, e una qualche reazione che implicasse l’equivalenza poteva essere la fonte di luminosità che accende le stelle. L’idea che una reazione nucleare si potesse anche produrre artificialmente, cioè sotto forma di reazione a catena, fu sviluppata in seguito alla scoperta del neutrone che avvenne 1932 quando il fisico Chadwick ottenne la conferma sperimentale della sua esistenza (scopriremo che i neutroni sono di fondamentale importanza per indurre il processo di fissione con successiva liberazione di energia).

Nel 1934 il gruppo di fisici italiani (i ragazzi di via Panisperna) diretti da Enrico Fermi bombardano sperimentalmente alcuni atomi con i neutroni e, quasi inconsapevolmente, realizzano la prima rudimentale fissione nucleare.

Nel 1938, si capì che, bombardando con neutroni il nucleo di certi tipi di atomi, come l’uranio, si poteva indurne lo divisione (in termine tecnico: la «fissione»), con la produzione di energia. Si apriva in tal modo la possibilità di sfruttare a nostro piacimento le gigantesche quantità di energie presenti nei nuclei. Si ebbe un’idea che si dimostrò fatale: si sarebbe potuto sfruttare l’atomo per nuove e dirompenti applicazioni nel settore militare, grazie alla cosiddetta reazione a catena. Prendeva piede la possibilità di una “superbomba” dalla potenza sino ad
allora inimmaginabile, davvero fantascientifica per quei tempi. Con questa prospettiva, essendo ormai alla vigilia della seconda guerra mondiale, fu inevitabile che gli studi sul nucleare, fino a quel momento compiuti in competitiva collaborazione tra gruppi delle diverse nazioni, venissero secretati; non si poteva certo permettere che stati nemici potessero avvantaggiarsi, imparando a gestire reazioni che generavano cento milioni di volte più energia rispetto alla classica reazione chimica impiegata nell’esplosivo tradizionale di dinamite o tritolo.
In questa corsa alla bomba, come è noto, il successo arrise agli Stati Uniti. Il loro programma nucleare militare, battezzato Progetto Manhattan, iniziò nel 1942 (spinto anche da una lettera scritta da Einstein al Presidente Roosevelt) e godette di risorse mai viste in precedenza in nessun settore tecnico-scientifico. Sotto la direzione del fisico Robert Oppenheimer e con il fondamentale contributo di Fermi, i più brillanti esperti mondiali di fisica si impegnarono nella più audace e difficile applicazione concreta degli studi scientifici. Il risultato del loro lavoro si ebbe già nell’estate del 1945, quando le esplosioni atomiche, prima nel deserto di Alamogordo nel New Mexico e, poco dopo, sulle città giapponesi di Hiroshima e Nagasaki, cambiarono per sempre il modo di immaginare la guerra, che divenne improvvisamente capace di uccidere in un istante milioni di persone.

Leggi l’articolo su Focus

La potenza del nuovo ordigno lo rendeva però inadatto a discriminare tra personale militare e popolazione, rendendo così il conflitto ancor più sanguinario e con effetti sempre più gravi per i civili, che per le leggi internazionali dovrebbero essere protetti.

La prima bomba al plutonio (nome in codice “The Gadget”) fu fatta esplodere nel “Trinity test” il 16 luglio 1945 nel poligono di Alamogordo, in Nuovo Messico. La prima bomba all’uranio (“Little Boy”) fu sganciata sul centro della città di Hiroshima il 6 agosto 1945. La seconda bomba al plutonio, denominata in codice “Fat Man“, fu sganciata invece su Nagasaki il 9 agosto 1945. Questi sono stati gli unici casi d’impiego bellico di armi nucleari, nella forma del bombardamento strategico.

Leggi l’articolo

L’Unione Sovietica recuperò abbastanza rapidamente il ritardo e sperimentò la prima bomba a fissione il 29 settembre 1949, ponendo così fine al monopolio degli Stati Uniti d’America. La Gran Bretagna, la Francia e la Repubblica Popolare Cinese sperimentarono un ordigno a fissione rispettivamente nel 1952, nel 1960 e nel 1964. Le testate nucleari, basate sia sul principio della fissione nucleare che della fusione termonucleare possono essere installate, oltre che su bombe aeree, su missili, proiettili d’artiglieria, mine o siluri.

Nel 1954 il presidente degli Usa, Eisenhower, inaugurò il progetto “Atom for Peace”, allo scopo di favorire l’applicazione civile dell’energia nucleare. In soli 12 mesi venne realizzata la prima centrale nucleare della storia, il reattore civile Borax III in grado di fornire energia elettrica a una piccola città dello Stato dell’Idaho (Usa).

Dopo che Enrico Fermi aveva trovato il modo di «addomesticare» la reazione a catena, facendola procedere in modo controllato, si realizzarono le prime centrali nucleari, il cui scopo iniziale fu esclusivamente militare: creare artificialmente un materiale non presente sul pianeta Terra, il plutonio, che ci si aspettava avesse caratteristiche ottimali per produrre bombe atomiche. Solo vari anni dopo la guerra, nei primi anni ’50, ci si impegnò per la realizzazione di centrali civili, capaci di produrre calore e soprattutto elettricità. Nacquero a quel punto tanti sogni (che oggi possiamo definire ingenui), che promettevano di fornire energia illimitata e a costi irrisori ad un’umanità attonita di fronte all’enorme potenza dell’atomo. Ma si posero anche le radici per alcuni
incubi che ancora ci accompagnano al giorno d’oggi.

Definizioni
neutrone

Il neutrone è una particella elementare che agisce come «collante» per i protoni responsabili della carica positiva dei nuclei, che altrimenti, per repulsione elettrostatica, non potrebbero restarsene assieme. Non avendo carica elettrica (da cui il suo
nome) può venir utilizzato come efficace sonda per giungere fin nel cuore dell’atomo,
dove può venirvi catturato oppure viceversa causarne la spaccatura. Questo ha permesso di produrre tanto le bombe quanto i reattori nucleari.

Fissione nucleare

Nella fissione nucleare si parte con un nucleo di un atomo (adatto), contro cui si spara un neutrone di energia appropriata per riuscire a spaccarlo (fenomeno della fissione) con la liberazione di grandi quantità di energia. A seguito di questa rottura vengono anche liberati due o tre neutroni i quali, se si sono fatte le cose per bene (purezza dei materiali, densità adatta, …), possono indurre la fissione di altri nuclei circostanti. Si liberano così altri neutroni che possono continuare il processo, come in una valanga, fin quando tutti, o almeno una buona parte dei nuclei presenti, hanno reagito. Se la «reazione a catena» si sviluppa in modo incontrollato, selvaggio, si ha la bomba; se invece la si riesce a controllare, si può realizzare una centrale nucleare.

Combustibili fossili liquidi: petrolio.

Questo argomento può iniziare con un dato stravolgente: ogni secondo noi essere umani consumiamo circa 1.150 barili di petrolio ovvero oltre 183.000 litri ( un barile equivale a 159 litri). Ogni secondo! Riflette su questo dato. Il petrolio è la fonte energetica più importante e per alcune utilizzi è insostituibile, ma fino a quando riuscirà a far fronte alla crescente domanda di energia? Arriverà il giorno in cui la produzione di petrolio raggiungerà un picco per poi inesorabilmente diminuire con un conseguente aumento dei prezzi? C’è chi ritiene che il picco di produzione si raggiungerà tra una trentina d’anni. Alcuni studiosi prevedono scenari più ottimistici spostano questa data molto più in là nel tempo, basando le loro previsioni sull’esistenza di grandi quantità di petrolio a grandissime profondità o crede nello sfruttamento, ad esempio, delle sabbie bituminose. Altre tesi sostengono che il picco di produzione sia stato già raggiunto tra il 2005 e il 2010.

Distribuzione bacini petroliferi.


La distribuzione dei principali bacini petroliferi nel mondo non è uniforme, ma non è nemmeno casuale. Dipende, infatti, dalle condizioni geologiche necessarie alla formazione di grandi giacimenti. È necessario però specificare che è anche influenzata dalle difficoltà di esplorazione/ricerca di aree isolate e poco conosciute, come le zone caratterizzate da condizioni ambientali particolarmente severe (le vaste aree della Siberia, le aree di foresta pluviale del Sud America e aree offshore profonde).

La storia geologica del nostro Paese è molto complessa e ha dato alla penisola un assetto strutturale e sedimentario complicato e assai poco “tranquillo” ( l’Italia è una zona sismica). Questo non ha favorito la formazione di grandi ed estesi bacini petroliferi, ma ha creato localmente situazioni favorevoli alla formazione di piccole zone petrolifere di una certa importanza. I giacimenti di petrolio più importanti in Italia si trovano in Sicilia e nel suo immediato offshore (mare), in particolare il giacimento di Ragusa  e quello di Gela  e quello di Gagliano Castelferrato. Altri giacimenti, tra i più importanti, sono quelli dalla Val d’Agri in Basilicata e quello di Porto Orsini nell’Adriatico ravennate.

Petrolio greggio: Il suo nome deriva dalle due parole latine
petra=pietra e  olium=olio cioè è un olio di pietra.

APPROFONDIMENTO: microstoria del petrolio.

Il petrolio era noto fin dall’antichità più remota grazie al fatto che in alcune zone esso affiorava spontaneamente in superficie: gli Egizi ricavavano da esso la pece in cui immergevano le bende per fasciare le mummie; in Mesopotamia lo si utilizzava per impermeabilizzare le imbarcazioni; i Romani lo usavano per lubrificare le ruote dei carri; gli Indiani usavano il petrolio per curare malattie e ferite; i Cinesi e i Persiani lo usano per scopi bellici; presso molte popolazioni veniva usato come mezzo di illuminazione (lampade ad olio). Fu solo negli ultimi decenni del XIX secolo che il petrolio divenne una fondamentale fonte di energia, perché permise di risolvere il problema della propulsione dei veicoli su strada (più tardi anche gli aerei), poiché la macchina a vapore, alimentata a carbone, era troppo pesante ed ingombrante per automobili e motocicli. L’invenzione dei motori a combustione interna, agili e leggeri, alimentati da derivati del petrolio, permise di risolvere il problema. Lo sfruttamento intensivo dei giacimenti petroliferi cominciò negli Stati Uniti nel 1859, quando, per la prima volta, fu trivellato un pozzo che ne rivelò la presenza anche nel sottosuolo. All’inizio fu utilizzato per il riscaldamento e l’illuminazione, oltre che per ottenere bitume e lubrificanti. Il successivo impiego nei motori richiese la nascita di una grande industria di trasformazione, poiché il petrolio non può essere usato nei motori così come si trova. A partire alla fine del XIX secolo, agli impieghi suddetti si aggiunse l’uso del petrolio come combustibile nelle centrali termoelettriche. Si innescava quella che oggi chiamiamo Seconda Rivoluzione Industriale.

Il petrolio è una miscela di idrocarburi (perché composto da due soli elementi: il carbonio e l’idrogeno) che possono manifestarsi nei tre strati di aggregazione: solido, liquido e gassoso. Si trova generalmente dispersa entro masse rocciose porose e che contiene quantità di zolfo, azoto e ossigeno. È derivato dalla decomposizione di sostanze organiche formate da resti di organismi, accumulatisi in un ambiente per lo più marino e che costituivano nel loro insieme il plancton marino, insieme a fini sedimenti minerali, ad opera di batteri anaerobi (che operano in assenza di ossigeno). A temperatura ambiente, il petrolio si presenta come una miscela liquida infiammabile, densa e viscosa, oleosa, di colore scuro, che varia dal nero al rosso bruno a seconda della provenienza, con riflessi azzurri. l petrolio può manifestarsi spontaneamente in superficie, ma in generale viene estratto dal sottosuolo tramite pozzi ottenuti mediante trivellazioni del suolo o del fondo marino. Più leggero dell’acqua sulla quale galleggia, si trova nei piccoli spazi che esistono tra le rocce sedimentarie. Quindi possiamo immaginare un giacimento di petrolio come una spugna lunga alcuni chilometri e larga centinaia di metri, tutta impregnata di petrolio. La sua composizione media è 80% Carbonio, 10% Idrogeno, 3% Ossigeno, 4% Zolfo e 3% di Azoto.

Secondo le teorie più recenti, il petrolio si sarebbe formato nel corso di centinaia di milioni di anni per trasformazione chimica di alghe, plancton, animali e vegetali marini che si sono depositati sul fondo di acque salmastre come paludi, lagune, golfi e mari interni insieme con finissimi sedimenti minerali, come argille e sabbie formando il sapropel, una specie di “fango putrefatto”. L’instaurarsi di un ambiente privo di ossigeno, dovuto alla scarsa circolazione di acqua nei sedimenti argillosi, ha permesso a batteri anaerobi di sottrarre ossigeno e azoto alle sostanze organiche, arricchendole di carbonio e idrogeno. Successive modifiche, causate dall’aumento della pressione e della temperatura, causate dalle trasformazioni geologiche della Terra, hanno compattato e spinto il tutto a profondità maggiori. La pressione ed il calore del sottosuolo, in assenza di ossigeno, hanno favorito le reazioni chimiche da cui si originano idrocarburi liquidi e/o gassosi che hanno portato alla formazione del petrolio. Gradualmente, per effetto del peso dei sedimenti via via depositatisi, la crescente pressione ha determinato la solidificazione dei fanghi argillosi formando una roccia a grana fine: la “roccia madre petroligena”. In seguito, le rocce madri, sottoposte a elevate pressioni causate da movimenti tellurici, sono state praticamente distillate, per cui gli idrocarburi liquidi e solidi che si erano formati sono filtrati attraverso le fessure e le rocce permeabili circostanti e la risalita termina allorché gli idrocarburi hanno trovato uno sbarramento naturale rappresentato da rocce impermeabili in alto (ad esempio argille) e da vene d’acqua in basso: quelle che i geologi chiamano trappole petrolifere. A questo punto gli idrocarburi si sono accumulati nelle rocce porose (rocce magazzino) occupando tutte le cavità circostanti, secondo una precisa stratificazione la cui conoscenza è fondamentale nella prospezione dei giacimenti petroliferi. I magazzini e le trappole costituiscono i giacimenti petroliferi, che possono contenere idrocarburi solidi come i bitumi, idrocarburi liquidi come il petrolio e/o idrocarburi gassosi come il metano, sempre insieme all’acqua salmastra.

I giacimenti di petrolio sono dislocati un po’ dappertutto nel mondo, ma l’obiettivo è sempre quello di individuarne i più ricchi. La ricerca dei giacimenti petroliferi si effettua mediante diversi metodi che richiedono competenze diversificate come la geologia, la chimica e la sismologia: l’indagine geologica della superficie; il prelievo di campioni (il cosiddetto metodo del carotaggio); l’aerofotogrammetria, che consente di rilevare con rapidità i caratteri geologici e strutturali del territorio.

Per conoscere invece la successione degli strati in profondità per alcuni chilometri, ci si serve di vari metodi geofisici quali la prospezione magnetica e sismica. La localizzazione del giacimento è la prima operazione, seguita dalla determinazione della sua profondità e della sua estensione. Per la localizzazione nel sottosuolo della presenza di un giacimento, si scelgono territori ricchi di rocce sedimentarie, escludendo i territori con rocce vulcaniche o granitiche, e le fotografie aeree danno le prime indicazioni sulle caratteristiche geologiche del territorio. Altre preziose informazioni vengono fornite dall’analisi del terreno: con l’aiuto di sonde si prelevano, a diverse profondità, campioni di roccia cilindrica, detti “carote”. Dopo queste indagini preliminari, si utilizzano diversi sistemi di ricerca per individuare in modo più preciso la presenza di una trappola. Si possono, ad esempio, rilevare e studiare le variazioni della densità e del campo magnetico del terreno. Ciò consente di avere a disposizione dati significativi sulle caratteristiche del sottosuolo.

Un altro metodo di indagine del sottosuolo, con lo scopo di individuare quelle zone in cui è alta la probabilità di individuare un giacimento, è quello di effettuare l’analisi sismologia del terreno: l’analisi viene fatta provocando artificialmente onde sismiche nel sottosuolo, molto simili a quelle originate dai terremoti, facendo esplodere delle cariche e registrando i tempi impiegati dagli strati rocciosi a riflettere le onde con l’ausilio di strumenti chiamati geofoni. L’interpretazione dei dati raccolti permette la ricostruzione della struttura stratigrafica del terreno, in modo da delineare l’andamento dei vari strati rocciosi profondi e l’individuazione di ipotetici giacimenti. Per verificare la presenza del giacimento e permettere la successiva estrazione del petrolio è necessario scavare pozzi nel terreno e perforare la roccia che lo racchiude.

Solo dopo che i risultati delle ricerche sono stati esaminati a fondo, si decide di procedere all’esecuzione di pozzi di prova, si stabilisce la loro collocazione ed ha inizio la trivellazione di pozzi profondi anche qualche migliaio di metri, che raggiungono e superano gli strati di rocce impermeabili. Il primo pozzo petrolifero venne scavato da Edwin L. Drake in Pennsylvania, nell’agosto del 1859; da allora sono state eseguite milioni di trivellazioni, la maggior parte delle quali si trovano sulla terraferma, ma sono ormai numerose anche le piattaforme marine, collocate in zone un cui la profondità dl mare è limitata a 100–200 metri (in alcuni giacimenti si sono raggiunti e superati anche i mille metri di profondità). Per la trivellazione del pozzo si usa una sonda, costituita da una colonna di aste di acciaio cave alla cui estremità inferiore è avvitato un utensile da taglio, che può essere uno scalpello se il terreno da perforare è tenero, oppure rulli dentati conici i cui denti, se le rocce sono molto dure, sono costituiti da diamanti industriali o da carburo di tungsteno. Man mano che la perforazione prosegue, si aggiungono verticalmente altre aste, lunghe circa 9 metri, collegate fra loro con speciali manicotti. La batteria di aste è messa in rotazione da una piattaforma rotante a 100-250 giri al minuto collocata alla base della torre di perforazione “Derrick” (tipica torre a traliccio sopra il pozzo) ed azionata da potenti motori diesel, che forniscono l’energia meccanica necessaria. Al centro della torre gira la tavola rotante (sistema Rotary) che somiglia ad un tombino di fognatura di grandi dimensioni: quest’ultima presenta al centro un’apertura in cui passa verticalmente una grossa asta di acciaio cava. Quando la tavola rotante è messa in movimento dai motori diesel, anche questa asta, detta Kelly, gira.

Schema di pozzo di trivellazione.

Durante la trivellazione, un apposito fango di circolazione viene pompato all’interno delle aste cave, che scende fino allo scalpello e fuoriesce attraverso fori praticati nello scalpello, il fango poi risale in superficie nella intercapedine tra aste e pareti del pozzo fino ad un bacino superficiale dove viene filtrato e rimesso in circolo da una pompa di ciclo ininterrotto. Il fango di circolazione serve sia a raffreddare e lubrificare le punte dello scalpello sia a portare in superficie i frammenti di roccia e i detriti delle perforazioni, sia a consolidare le pareti del pozzo.La sagoma alta della torre è di notevole altezza per consentire il sollevamento di tre aste alla volta ogniqualvolta sia necessario sostituire lo scalpello, che si logora in breve tempo. Scoperta la falda petrolifera, cioè scoperto il giacimento, le aste e la sonda vengono estratti dal pozzo ed i pozzi vengono rivestiti con tubi alla cui estremità viene raccordato un sistema di condotte e valvole detto “albero di natale”, che regolano il flusso del petrolio greggio che esce dal pozzo. Finché la pressione all’interno del giacimento è maggiore di quella atmosferica, il petrolio sale spontaneamente, ma lo sfruttamento fa calare la pressione e, quando questa diventa inferiore rispetto alla pressione atmosferica, per portarlo in superficie, occorre adoperare delle pompe aspiranti. Le ricerche petrolifere effettuate in mare aperto hanno dimostrato la presenza di giacimenti sotto il fondo marino, ma la realizzazione di impianti per il loro sfruttamento è tecnologicamente complessa e costosa. Se il fondale è basso, si costruiscono piattaforme solidamente ancorate al fondo, sostenute da piloni in ferro, e la perforazione avviene come in terraferma; se la profondità del fondale è invece elevata, si costruiscono piattaforme galleggianti e rimorchiabili (jack up) o semi-sommergibili che, pur essendo ancorate, possono compiere ampi spostamenti. In questo secondo caso le tecniche di perforazione sono particolarmente complesse. Il petrolio estratto dal giacimento si chiama greggio ed è una sostanza molto densa ed oleosa, poco infiammabile, che non può essere usata direttamente. Il processo che permette l’uso di questa sostanza si chiama raffinazione.

Ma quanto è grande un pozzo di petrolio?

Dopo l’estrazione, il petrolio viene separato dal gas, dai detriti e dall’acqua  salata, con cui è miscelato nei giacimenti e viene trasportato mediante lunghissime tubazioni (oleodotti o pipeline, in inglese) nei centri di stoccaggio o di decantazione, dove viene immagazzinato in grandi serbatoi cilindrici o sferici e da qui, o con oleodotti o via mare con grandi navi petroliere, viene trasportato ai luoghi di raffinazione (raffinerie).

Il petrolio, una volta estratto dal giacimento, viene immesso in un sistema di tubazioni chiamato oleodotto (pipeline) per poter essere trasportato alle raffinerie o ai porti di imbarco. L’oleodotto è costituito da tubi in acciaio saldati, il cui diametro può giungere fino a 90 centimetri. Essi per lo più vengono interrati e possono coprire anche lunghe distanze. Stazioni di pompaggio spingono il petrolio che scorre all’interno dei tubi. La realizzazione di un oleodotto richiede uno studio approfondito del terreno in cui va collocato, per stabilire il percorso più agevole da far seguire alle tubature, e una continua manutenzione per prevenire guasti o riparare eventuali perdite. Giunto ai porti di imbarco il greggio viene caricato su petroliere o navi cisterna che, in seguito, lo trasporteranno alle raffinerie. Nella seconda metà degli anni ’60 vennero costruite gigantesche navi, che potevano trasportare, in una sola volta, quantità di petrolio anche superiori alle 500.000 tonnellate. La tecnologia che ha permesso simili progressi ha reso però più gravi, sul piano ecologico, le conseguenze di possibili incidenti. Si ricorda, tra gli incidenti più gravi, quello che ha coinvolto la petroliera Exxon Valdez, che la notte del 24 marzo 1989 ha urtato contro uno scoglio sottomarino. Dalla stiva danneggiata uscirono 40 milioni di litri di greggio che, disperdendosi in mare, contaminarono una superficie di circa 3.000 km 2 , lungo le coste dell’Alaska. Da allora sono state migliorate le tecniche necessarie a contenere ed eliminare le chiazze di petrolio riversate in mare a causa di avarie delle petroliere, ma si è ancora ben lontani da una soluzione definitiva del problema. Il ripetersi di incidenti, con gravi conseguenze sul piano ecologico, ne è la triste dimostrazione.

APPROFONDIMENTO: le compagnie petrolifere

La ricerca e l’estrazione del petrolio sono operazioni molto costose, che richiedono impianti e tecnologie avanzate. La prima serie di ricerche si sviluppò negli Stati Uniti, ad opera di grandi compagnie petrolifere che possedevano attrezzature e capitali. Successivamente le compagnie ottennero concessioni da parte di altri Paesi produttori, in cambio di una percentuale sul greggio estratto. Da qui nacque la fortuna delle società petrolifere multinazionali. Le principali furono sette, soprannominate le “sette sorelle”: Exxon, Texano, Mobil, Chevron e Gulf (di origine americana), Shell e BP (di origine europea). Nel 1960, cinque paesi produttori (Venezuela, Iraq, Iran, Kuwait e Arabia Saudita) diedero vita all’OPEC (Organization of the Petroleum Exporting Countries). Questa organizzazione, che in seguito si è estesa ad altri Paesi, si proponeva di stabilire un accordo sulla quantità di petrolio da esportare e sul prezzo del barile (il barile è un’unità di volume corrispondente a 159 litri). La crisi energetica del 1973 portò ad un consistente aumento del prezzo del petrolio, che da 4$ al barile salì oltre i 10$, con punte di 44$. Ciò ha reso economicamente possibile lo sfruttamento di nuovi bacini, come quelli, per esempio, del Mare del Nord, da cui in precedenza sarebbe stato troppo costoso estrarre questo idrocarburo. Dagli anni ’70, la quantità di petrolio sul mercato è dunque aumentata e, come per ogni merce, questo ha portato a riassestare il suo prezzo verso il basso. Anche in questo caso gli effetti non hanno tardato a farsi sentire. Due sono state le conseguenze più rilevanti: da una parte la crisi dei Paesi dell’OPEC la cui economia è fondamentalmente basata su questo prodotto, dall’altra la fusione dei tradizionali colossi della produzione. Infatti, per contenere le spese di produzione ed avere ancora un buon margine di guadagno, le grandi compagnie multinazionali si sono fuse tra loro: Exxon con Mobil, BP con Amoco, Shell con Royal Dutch, Total con Fina.

E’ un impianto di grandi dimensioni, diviso in tre blocchi distinti: cisterne per lo stoccaggio del greggio, cisterne per il prodotto finito e torri per le diverse lavorazioni. Queste tre parti sono tra loro collegate mediante tubi che permettono una lavorazione a ciclo continuo. Il petrolio greggio, essendo una miscela di idrocarburi, non è utilizzabile nella sua forma greggia, appena estratto dai giacimenti, ma deve essere sottoposto ad un processo di raffinazione, che consiste nella sua trasformazione in un certo numero di derivati di cui forse il più noto è la benzina. Per ottenere i diversi prodotti derivati dal petrolio, si procede inizialmente alla distillazione frazionata per separarne tagli (o frazioni) da destinare a vari usi: la distillazione è un processo che comporta la vaporizzazione e la condensazione del petrolio greggio. Segue poi la distillazione dei residui e quindi il processo di cracking ed il processo di reforming.

La distillazione del petrolio viene effettuata in speciali colonne chiamate colonne di frazionamento (colonne di topping), alte fino ad 80metri, dopo averlo preriscaldato ed in parte vaporizzato a 350-400°C in speciali forni a serpentina chiamati pipe-still. Nella colonna di topping la temperatura è molto alta alla base e diminuisce via via che ci sia avvicina alla cima e il petrolio, attraversando la colonna dal basso verso l’alto, incontra una serie di ripiani, detti piatti, di acciaio sulla cui superficie avvengono scambi termici che portano le frazioni più volatili a separarsi da quelle meno volatili. Ogni piatto è mantenuto ad una specifica temperatura, che è sempre più bassa man mano che si risale la colonna. Ogni piatto contiene molti fori, muniti di camino e di campanella. I vapori, quando toccano la campanella che corrisponde alla temperatura della propria condensazione, diventano liquidi. In questo modo, inserendo speciali condotti a diverse altezze nella colonna, possono essere grossolanamente raccolte varie frazioni bollenti a differenti intervalli di temperatura, dalle quali con particolari processi di distillazione, si ottengono nuove frazioni sempre più specifiche di idrocarburi. Alle temperature più elevate (quindi nella parte bassa della colonna di topping) si condensano gli idrocarburi più pesanti: il gasolio e il cherosene. Più in alto, a minori temperature di condensazione, si ottengono nafta, benzine leggere e gas. Per poter aumentare la quantità di prodotti di più largo uso, come la benzina, si praticano ulteriori trattamenti sui distillati pesanti. Infatti, utilizzando forti pressioni ed alte temperature, si spezzano le molecole degli idrocarburi pesanti, ottenendo frazioni più leggere. Questo procedimento prende il nome di cracking (to crack= spezzare). Le tre colonne laterali nelle quali avvengono le distillazioni si chiamano colonne di stripping. Queste colonne sono poste in serie e la frazione volatile uscente dall’ultima viene riconvogliata nella colonna di topping. Dalle tre colonne di stripping si isolano, partendo dal basso verso l’alto, rispettivamente: gli oli lubrificanti e gli oli combustibili, con punto di ebollizione, tra i 250°C e o 300 °C; il cherosene e il gasolio, le frazioni medie, con punto di ebollizione tra i 180 e 260 °C; gli olii leggeri, di prima distillazione, con punto di ebollizione tra i 160°C e i 180 °C. Dalla testa della colonna di topping, si ottengono vapori che, opportunamente condensati, danno una ulteriore frazione liquida che bolle a circa 100°C (benzine leggere) ed una frazione gassosa che, opportunamente trattata, dà luogo ai cosiddetti gas di petrolio liquefatti (GPL). In sintesi, queste colonne sono utilizzate per rimuovere componenti volatili residui dalle frazioni ottenute nella distillazione frazionata. Le quantità delle singole frazioni ottenute con la distillazione primaria differiscono in modo sensibile secondo la natura del greggio utilizzato, ma in genere il rapporto quantitativo tra esse non corrisponde alle richieste del mercato: quasi tutti i greggi sono infatti relativamente poveri di prodotti leggeri, più pregiati e richiesti.

Poiché gli idrocarburi ad alto punto di ebollizione hanno valore commerciale relativamente minore delle benzine e dei gas combustibili, è stato messo a punto un processo termo-chimico che permette la scissione (rottura – Cracking) delle lunghe catene degli idrocarburi ad alto peso molecolare (oli medi e pesanti) per ottenere molecole più semplici, dando luogo sia ad oli leggeri sia ad idrocarburi gassosi. In questo modo non solo viene raddoppiata la resa in benzina, che è il prodotto più richiesto tra i derivati dal petrolio, ma si ottengono anche altri sottoprodotti di lavorazione di notevole interesse commerciale. Questo è il processo che si usa maggiormente per ottenere benzine pregiate.

Il reforming è un processo associato al cracking che permette di ottenere benzine ancora più pregiate.

Il petrolio è costituito da una miscela di sostanze (idrocarburi) composte per lo più da idrogeno e carbonio. Secondo la tesi più diffusa, il petrolio si è formato in epoche preistoriche a seguito della trasformazione dei residui di piante e animali che, dopo la morte, si depositarono sul fondo del mare mescolandosi a fango e sabbia e formando successivi strati di sedimento marino. Con il passare dei millenni, il calore e la pressione hanno trasformato tali i residui in un liquido denso e oleoso.

Il petrolio è sempre legato alla presenza di sedimenti marini, ragione per cui la ricerca di giacimenti avviene in zone che in passato erano ricoperte dal mare. In genere, lo si trova raccolto in sacche di roccia impermeabile che possono assumere varie forme l’anticlinale, formato da strati di roccia di forma arcuata, che costituisce la maggior parte dei campi petroliferi del mondo;

la faglia, costituita da una frattura degli strati rocciosi, che porta uno strato impermeabile a imprigionare un altro strato contenente petrolio; la trappola stratigrafica dove, tra strati inclinati di roccia, è racchiuso il petrolio.

Poiché i giacimenti si trovano nel sottosuolo, sono impiegati diversi sistemi di ricerca per individuarli con precisione prima di scavare i pozzi. Ogni sistema di esplorazione può essere utilizzato insieme ad altri, in modo da fornire il maggior numero di informazioni sulla composizione del sottosuolo.

Esplorazione sismica. Si attua mediante l’esplosione di cariche poste nel sotto- suolo. Le onde d’urto colpiscono gli strati di roccia e rimbalzano in superficie, dove sono registrate da sismografi che misurano le vibrazioni del terreno. Il tempo impiegato dalle onde sismiche indica la natura della roccia, la profondità e la possibile presenza del petrolio.

Esplorazione magnetica. È basata sulla diversa quantità di ferro contenuto nelle rocce. Le rocce sedimentarie nelle quali si trova il petrolio contengono meno ferro e pertanto presentano un minor grado di magnetismo. Questo può essere rilevato con strumenti (magnetometri) che, trasportati mediante aero- plani, permettono di esplorare vaste zone.

Esplorazione sottomarina. La ricerca si effettua con metodi simili a quelli usati sulla terraferma. Particolarmente usato è il sistema sismico realizzato da due battelli: uno fa esplodere le cariche, l’altro registra le onde di ritorno con speciali sismografi.

Quando la zona del giacimento petrolifero è individuata, si esegue la trivellazione. Per prima cosa si costruisce una torre in traliccio di acciaio per sostenere le aste a sezione quadrata alla cui estremità si trova lo scalpello che scava nel terreno. Le aste sono fatte ruotare da un motore e, a mano a mano che lo scalpello penetra nel terreno, si aggiungono nuovi elementi, fino a ottenere una lunga sequenza di aste unite tra loro. Per facilitare la fuoriuscita del materiale di scavo, all’interno delle aste si pompa un fango molto fluido che scende fino al fondo dello scavo e risale all’esterno dell’asta trascinando in superficie la terra. L’estrazione del petrolio avviene quando la trivellazione raggiunge il giacimento. Il petrolio, per effetto della pressione a cui è sottoposto, risale lungo il pozzo e affiora con violenza in superficie. Per tale ragione, occorre predisporre un sistema di tubi e valvole di regolazione che permettano al pozzo di fornire il petrolio con un flusso continuo e costante e con pressione non troppo elevata La perforazione dei giacimenti sottomarini avviene sistemando tutte le apparecchiature su piattaforme galleggianti, ancorate cioè al fondo, oppure appoggiate sul fondo per mezzo di strutture metalliche (nel caso in cui le profondità non superino alcune decine di metri)

I carboni fossili.

Il carbone è una particolare roccia sedimentaria di colore bruno o nero, formata da due gruppi di sostanze:

  • materiale organico, cioè carbonio con piccole parti di idrogeno e ossigeno,  che con la combustione fornisce calore (energia termica) e anidride  carbonica;

materiale inorganico cioè argille, sali di zolfo, che con la loro combustione  danno origine alle ceneri e alle sostanze inquinanti.

Come si è formato? Questo combustibile deriva dalla carbonizzazione di intere foreste (carbogenesi), iniziata molti milioni di anni fa ed ha richiesto tre fasi principali:

  • crescita di grandi e fitte foreste in presenza di un clima umido;
  • sprofondamento lento del terreno e copertura degli alberi da parte delle acque e dei fanghi portati dai fiumi; successivamente si trasformano in  roccia che comprime la massa vegetale;
  • carbonizzazione dovuta ai batteri che in milioni di anni hanno divorato  l’idrogeno e l’ossigeno del legno ed alla fine resta il carbonio con piccole  quantità di altri elementi.
Schema carbogenesi.

Ricapitolando. I carboni fossili sono di origine vegetale e derivano da grandi distese di foreste che, centinaia di milioni di anni fa, sono sprofondate e sono state ricoperte dalle acque e, poi, sepolte sotto una spessa coltre di argilla ed altri materiali. La lenta e graduale decomposizione di queste enormi quantità di legname, avvenuta in assenza di aria, in presenza di batteri anaerobi e sotto l’azione di grandi pressioni ed alte temperature, ha generato un processo di trasformazione chiamato carbonizzazione. I tessuti vegetali, che sono costituiti prevalentemente di cellulosa (costituita da idrogeno e ossigeno), durante il processo di carbonizzazione hanno perso gradualmente l’idrogeno e l’ossigeno. Al termine della trasformazione è rimasto solo il carbonio.

I grandi sconvolgimenti geologici che causarono l’inizio di questi grandi fenomeni di trasformazione avvennero in diverse Ere, quindi i carboni fossili che estraiamo hanno età diverse e sono di vario tipo a seconda della durata del processo di trasformazione subito.

Tra tutti i combustibili fossili, il carbone è quello sfruttato da tempo. Già molto prima dell’invenzione della macchina a vapore, la Gran Bretagna ne usava abbondantemente. Nonostante che i suoi giacimenti siano sfruttati da secoli, si stima che le riserve naturali del nostro pianeta possano soddisfare le richieste ancora per duecento anni. Suo è il merito di aver consentito la Rivoluzione Industriale, fornendo l’energia termica necessaria al motore a vapore. Durante quel periodo (tra l’inizio e la fine del XIX secolo), il consumo mondiale del carbone passò da 20 milioni a 700 milioni di tonnellate annue. Il carbone ha però nella sua natura solida un elemento fortemente negativo: innanzitutto non è adatto ai motori a combustione interna, bisognosi di combustibili fluidi d miscelare con l’aria nella camera di scoppio; secondariamente, presenta maggiori difficoltà di trasporto rispetto al petrolio.

Quest’ultimo, infatti, può essere trasportato su grandi distanze semplicemente per mezzo di un tubo (oleodotto), mentre il carbone va materialmente caricato e scaricato su treni, navi, ecc. A queste difficoltà si aggiunge il notevole potere inquinante dei fumi prodotti da questo combustibile. Tutto ciò ha portato in questi ultimi decenni a preferirgli il petrolio, sicuramente più pratico ed efficiente. Attualmente il consumo di carboni è nuovamente in ascesa, sia per l’eccessivo costo del petrolio greggio sia perché le nuove tecnologie garantiscono maggiore sicurezza durante la fase di movimentazione del carbone, cioè di approvvigionamento e trasporto, durante la fase del suo stoccaggio, cioè di deposito e di immagazzinamento, ed infine, permettono la combustione senza troppi residui nocivi e lo smaltimento delle scorie prodotte nella combustione.

La qualità del carbone dipende dal grado di carbonizzazione che ha subito la massa vegetale, cioè dalla sua età. I carboni più antichi sono molto ricchi di carbonio e quindi hanno un maggiore potere calorifico I vari tipi di carbone si distinguono in base al periodo geologico in cui è iniziato il loro processo di carbonizzazione. Dalla vegetazione marcescente si formò per prima la torba, successivamente l’innalzamento del livello del mare ne causò lo sprofondamento sotto masse enormi di sedimenti marini. Man mano che questi cicli si ripetevano, le torbe di più antica formazione sprofondavano e, sempre più compresse, indurivano, procedendo nel loro processo di carbonizzazione. I carboni più antichi risalgono all’Era Mesozoica, circa 350 milioni di anni fa, i più recenti all’Era Quaternaria, meno di 10 milioni di anni fa.

  • Torba: non è un vero carbon fossile, infatti contiene una percentuale di  carbonio pari a circa il 60%, perché deriva da piante erbacee lacustri che  hanno subito una trasformazione limitata. Ha un aspetto spugnoso o  addirittura filamentoso, fibroso ed un colore nerastro. Si trova in  giacimenti superficiali (pochi metri di profondità) e in terreni acquitrinosi  detti torbiere (giacimenti importanti si trovano in Islanda, Olanda,  Germania, ex Unione Sovietica e Finlandia) dove viene estratta con una  draga (macchina da scavo). Contiene molta acqua (fino al 70-90%) e viene pertanto essiccata e compressa in mattonelle. Ha un alto contenuto di ceneri e non è un buon combustibile, viene pertanto impiegata soprattutto in agricoltura come concime e come correttivo dei terreni per arricchirlo di humus, come isolante termo-acustico e, grazie al suo elevato potere assorbente e deodorante, come lettiera per il bestiame.
  • Lignite: ve ne sono molte varietà, con proprietà diverse. Conserva  ancora tracce della struttura fibrosa del legno originario. E’ un carbone  abbastanza giovane detto anche brown coal (carbone marrone) e, a  differenza della torba che proviene dalla carbonizzazione di erbe palustri,  deriva da masse di alberi d’alto fusto di più remota formazione e che  hanno subito trasformazioni più profonde rispetto alla torba. Secondo i giacimenti ed il gradi di carbonizzazione vengono distinti diversi tipi di lignite: lignite torbosa (friabile e stratificata); lignite picea (nera, lucida); lignite xiloide (che porta ancora visibile la struttura del legno). La lignite appena estratta contiene il 40% di umidità, che dopo l’essiccamento, si riduce al 15-20%. Può essere utilizzata direttamente o in forma di mattonelle ottenute per semplice compressione. Questo carbone, che contiene una percentuale di carbonio pari a circa il 75%, non è un buon combustibile e poiché non conviene affrontare le spese di trasporto, viene utilizzato sul posto per alimentare centrali termoelettriche o come materia prima per alcune industrie chimiche. Giacimenti importanti si trovano in ex Unione Sovietica, Germania, Inghilterra e Romania. In Italia se ne trovano piccole quantità in Toscana, Umbria, Sardegna e Calabria.
  • Litantrace: è il carbon fossile che trova maggiore utilizzazione  nell’industria. E’ di colore scuro opaco o poco lucente, di  formazione più antica della lignite e più recente dell’antracite. La sua  formazione risale al periodo carbonifero, cioè a circa 300 milioni di anni fa.  Contiene una percentuale di carbonio pari a circa il 93% e una percentuale  di zolfo molto bassa e talvolta nulla. Per la sua composizione, che permette gli usi più svariati, e per la vastità dei giacimenti, è il più importante dei carboni fossili. Dal litantrace riscaldato ad elevate temperature (1000°C) in assenza di aria, si ricava il coke metallurgico. Quest’ultimo viene utilizzato negli altiforni per la produzione di acciaio.
  • Antracite: è il più antico dei carboni fossili e rappresenta il prodotto di un  avanzatissimo stadio di carbonizzazione dei vegetali. Ha un aspetto  metallico, nero, lucente e compatto e brucia lentamente non lasciando alcun residuo durante la combustione.  Contiene una altissima percentuale di carbonio (circa il 95%) e  conseguentemente bassi tenori di ceneri e di sostanze volatili. Per il suo  notevole potere calorifico è uno tra i migliori combustibili . Ideale per il riscaldamento, non trova grandi applicazioni industriali perché si preferisce il meno costoso litantrace. Si trova in terreni geologicamente molto antichi (Era primaria) ed è abbondante in varie località della Francia, della Svizzera, della ex Unione Sovietica e negli USA. In Italia piccoli giacimenti si trovano in Val d’Aosta, in Piemonte (provincia di Cuneo) e nelle Alpi Liguri, in Sardegna.

A partire dal XVI secolo, in particolare in Inghilterra, per risolvere il problema dell’approvvigionamento energetico degli impianti siderurgici, si comincia a sostituire il carbone di legna con quello fossile. Le prime miniere di carbone erano pozzi verticali, profondi circa 10 metri. Il carbone veniva tagliato e portato in superficie all’interno di cesti. Man mano che i pozzi diventavano più profondi e si scavavano gallerie laterali sempre più lunghe, aumentava la possibilità di frane, allagamenti, esplosioni causate dalla presenza di gas metano. Oggi i giacimenti di carbone sono ampiamente diffusi in tutto il mondo e Cina, ex URSS e USA sono i maggiori produttori a livello mondiale. Il ciclo del carbone comprende la coltivazione mineraria, il trasporto e la distribuzione, la combustione diretta o la conversione in prodotti vari, liquidi e gassosi. I giacimenti si trovano più comunemente in profondità, ma possono anche affiorare al livello del suolo. Il loro sfruttamento si può effettuare in due diversi modi:

  • coltivazione a cielo aperto dove l’estrazione viene effettuata in aree in cui il giacimento di carbone è molto vasto, si trova vicino alla superficie ed il carbone è facilmente rimovibile. La crosta rocciosa viene sbancata e con attrezzature speciali si rompe il carbone separandone grandi quantità in maniera rapida ed economica. Questo sistema è dannoso dal punto di vista ambientale in quanto si crea un grosso scavo nel terreno e si solleva molta polvere nera che viene sparsa dai venti per decine di chilometri. Esaurita la miniera, la società mineraria deve provvedere a sistemare lo scavo, ristabilendo le condizioni iniziali.
  • Coltivazione sotterranea: in questo caso vengono utilizzati diversi tipi di accesso alle vie sotterranee, i pozzi verticali (che permettono l’accesso alle gallerie e che sono attrezzati con impianti di sollevamento) e gallerie inclinate o gallerie orizzontali (a diverse profondità e quindi disposte a livelli diversi, seguendo i filoni carboniferi) in quanto la profondità delle miniere può superare i 1.000 metri. In questo caso, l’unico cambiamento nel paesaggio sono le montagne di rocce sterili che si formano in prossimità dei pozzi, invece sono alti i rischi per i minatori e per ridurre tali rischi si adottano numerose norme di sicurezza: le gallerie potrebbero franare e quindi vanno puntellate con centinature metalliche; l’acqua delle falde potrebbe allagare le gallerie e quindi viene sollevata in superficie con pompe; l’aria può circolare per tiraggio naturale, ma se le gallerie sono molto profonde si devono usare sistemi di aria forzata; il gas metano o grisou è spesso presente in sacche e potrebbe invadere le gallerie quando si abbatte una parete; per evitare le esplosioni si usano macchine ad aria compressa che non producono scintille. La salute del minatore è comunque esposta ad alti pericoli: le polveri respirate possono provocare la silicosi; il rumore delle perforatrici causa disturbi all’udito; l’aria sottoterra è calda e presenta molta umidità.

Combustibili fossili

I combustibili fossili derivano da una lenta e graduale decomposizione di sostanza organica. Si possono trovare sotto forma di petrolio (liquido), carbone (solido), gas naturale (gassoso) e altri combustibili composti da idrocarburi (composti che contengono carbonio -C- e idrogeno -H-).

Petrolio e gas naturali si presume che siano derivati da un lento processo di trasformazione di grandi quantità di plancton (fitoplancton e zooplancton) che si sono depositate sul fondo di oceani e laghi milioni di anni fa. Nel corso di decine di migliaia di secoli, questa materia organica si è mescolata con il fango ed è stata “sepolta” sotto pesanti strati di sedimenti. Il calore e la pressione provenienti dal centro della Terra hanno causato alterazioni nella loro composizione chimica formando composti di carbonio.

Nel caso dei carboni fossili, invece, la fonte originaria è individuabile in piante morte ricoperte dal sedimento durante il periodo Carbonifero (circa tra i 300 e i 350 milioni di anni fa). Con il passare dei secoli, questi depositi si sono solidificati, dando vita a distese di carbone. In alcuni casi possono anche in gas.

In sintesi

Possiamo dire che la decomposizione è avvenuta in mancanza di aria, sotto l’azione di alte temperature e pressioni e in presenza di speciali batteri. Come sappiamo, i tessuti vegetali sono costituiti in massima parte di cellulosa (risultato di un processo antico di fotosintesi), sostanza formata di carbonio, idrogeno e ossigeno. Durante la decomposizione questi tessuti hanno perso quasi tutto l’ossigeno e l’idrogeno e si sono trasformati in sostanze ricchissime di carbonio.

Utilizzi moderni

Per comprendere cosa sono i combustibili fossili e come mai siano diventati un tema molto attuale, bisogna certamente fare riferimento ai loro impieghi nell’era moderna.

Il carbone è stato utilizzato sin dall’antichità come combustibile, soprattutto nelle fornaci per fondere i minerali metallici.

L’olio non trattato e non raffinato è stato per esempio bruciato per secoli nelle lampade per favorire l’illuminazione.

Gli idrocarburi semi-solidi (come il catrame) sono stati utilizzati per l’impermeabilizzazione (in gran parte sul fondo di imbarcazioni e sulle banchine) e per l’imbalsamazione.

L’impiego su larga scala dei combustibili fossili ha avuto inizio durante la Prima Rivoluzione Industriale, tra il diciottesimo e il diciannovesimo secolo, in cui carbone (prima) ed il petrolio (dopo) hanno cominciato ad essere sfruttati come carburanti per alimentare i motori a vapore. Nel corso della Seconda Rivoluzione Industriale (a cavallo tra Ottocento e Novecento), invece, i combustibili fossili venivano usati per fornire energia ai generatori elettrici.

L’invenzione del motore a combustione interna (per esempio, quello delle automobili) ha aumentato le richieste di petrolio in modo esponenziale, così come lo sviluppo degli aeromobili. Di conseguenza, si assiste prontamente all’emergere dell’industria petrolchimica, con il petrolio utilizzato per produrre componenti che spaziano dalla plastica alla materia prima. Nel secolo scorso i derivati del petrolio hanno permesso di inventare uno dei materiali che oggi l’uomo utilizza quotidianamente ovvero le plastiche. Inoltre, il catrame (un residuo dall’estrazione del petrolio) è diventato ampiamente utilizzato nella costruzione di strade e autostrade.

Effetti ambientali

La connessione tra i combustibili fossili e l’inquinamento atmosferico presente nelle nazioni industrializzate e nelle grandi città è stata evidente sin dalla Rivoluzione Industriale. Tra gli inquinanti generati dalla combustione di carbone e petrolio si possono includere anidride carbonica, monossido di carbonio, ossidi di azoto, biossido di zolfo, composti organici volatili e metalli pesanti, tutti associati a maggiori rischi di contrarre malattie, soprattutto respiratorie.
Lo sfruttamento dei combustibili fossili da parte degli esseri umani è anche la più grande fonte di emissioni di biossido di carbonio, o CO2, (circa il 90%) in tutto il mondo. La CO2 è uno dei principali gas che causano l’effetto serra e, quindi, contribuisce al surriscaldamento globale.

C’è bisogno di alternative

Capire cosa sono i combustibili fossili implica anche essere consapevoli della loro pericolosità per il nostro ecosistema. Diventa quindi di fondamentale importanza attrezzarsi e individuare delle fonti energetiche alternative e pulite, che possano essere salutari e sicure per la salvaguardia della Terra. Sfruttare le potenzialità di altri elementi naturali come l’acqua, l’aria e il sole per produrre energia è sicuramente una delle strade al momento più percorribili. Grazie al progresso scientifico si sono potute sviluppare tecnologie in grado di trarre vantaggi dalle cosiddette fonti energetiche rinnovabili

Definizioni
PLancton

Organismi di varie dimensioni presenti nell’acqua che si fanno trasportare dalla corrente. Si differenzia il fitoplancton se sono organismi di natura vegetale e zooplancton se di natura animale

Fitoplancton

Sono organismi presenti nel plancton che hanno la capacità di effettuare la fotosinstesi.

SEDIMENTO

Rappresenta un accumulo di sostanze che prima erano in sospensione (generalmente nei liquidi) e successivamente si vanno a depositare (sedimentazione) formando una massa di quelle sostanze.