VERSO IL NUCLEARE PULITO

Scoperta e Sfruttamento

delle Reazioni Nucleari Ultrasoniche

UNA RICERCA TUTTA ITALIANA

--------------

IL GOVERNO SEMBRA PERÒ NON TENERNE CONTO E PREFERISCE

COSTRUIRE LE NUOVE CENTRALI CON TECNOLOGIE VECCHIE

E INQUINANTI ALL'URANIO. INDOVINATE IL PERCHÈ?!

 

a cura di Claudio Prandini)

 

 

 

 

 

I probabili 15 siti individuati dal CNR per le nuove centrali atomiche

 

 

INTRODUZIONE

 Le nuove centrali nucleari:

dove, quando e con quale tecnologia

Fonte web

Il ddl Sviluppo licenziato, il 14 maggio 2009, dal Senato pone le basi per il ritorno della produzione di energia nucleare in Italia. Ecco le risposte alle quattro domande più frequenti sul ritorno del nucleare.

Quando arriveranno le nuove centrali?
Obiettivo del Governo è il «riequilibrio» dell'attuale generazione elettrica italiana, ora sbilanciata sul gas, con il ricorso per il 25% al nucleare mentre una pari quota dovrebbe essere coperta con le rinnovabili e il restante 50% con le fonti fossili. Saranno necessarie tra le 10 e le 15 centrali nucleari da 1.300 megawatt ognuna. La tabella di marcia prevede la «prima pietra» di tre o quattro centrali entro fine legislatura da costruire grazie all'accordo siglato ad inizio anno tra Enel e Edf.

Quanto costeranno e chi le finanzierà?
Gli investimenti sono almeno doppi o addirittura tripli rispetto a una centrale a turbogas di pari potenza, compensati da un costo del combustibile molto più basso e un costo di generazione elettrica teoricamente competitivo. Anche per l'Italia si sta consolidando l'ipotesi di un consorzio "alla finlandese", con un pool di produttori associati a grandi consumatori che si impegnano a ritirare l'energia con contratti di lungo periodo a prezzo prefissato.

Che tecnologia sarà impiegata?
La tecnologia francese Epr non avrà il monopolio. Un primo lotto di centrali italo-francesi potrebbe essere affiancato da impianti di tecnologia americana, canadese o russa. In ogni caso si tratterà di impianti di terza generazione e non di quarta, ancora allo studio.

Dove verranno costruite?
I siti devono ancora essere definiti. Ma gli esperti ipotizzano l'utilizzo "preferenziale" dei vecchi siti dove sorgevano le centrali nucleari italiane chiuse dopo il referendum del 1987. L'area di Montalto di Castro, dove doveva sorgere una centrale nucleare poi riconvertita a policombustibile, viene tuttora considerata «ideale».

 

 

Nucleare pulito convegno Catania Lions

 

 

La via italiana alle reazioni

piezonucleari 2003 - 2004

 

Prima parte

Fonte web

C.N.R. acronimo di Consiglio

 Nazionale delle Ricerche

Gli studi sulle reazioni piezonucleari procedettero in Italia secondo la tradizione della cultura classica italiana ossia per rigorosamente deduttiva, al contrario della via anglosassone euristica, od a quella che era stata la via tedesca empirica.
In più si aggiunse la visione di una concezione rigorosamente geometrica dei fenomeni naturali, ma questa visione non era deduttiva, come quella di A. Einstein per esempio, bensì induttiva ossia dettata più dai fenomeni stessi, piuttosto che imposta alla rappresentazione dei fenomeni naturali.
In parole povere un modo di considerare i fenomeni molto pratico che univa al rigore della deduzione l’elasticità dell’induzione, tutto questo prima di passare all’esperimento.
Ossia pensare prima di agire, ma pensare senza troppi pregiudizi o preconcetti, convinti che, purtroppo, la logica della natura non è logica umana, altrimenti la scienza sarebbe veramente molto facile, forse troppo.

Gli studi teorici che precedettero gli esperimenti furono lungamente dibattuti da vari studiosi di alcune

 università ed istituzioni scientifiche italiane in particolare le Università di Roma La Sapienza, Roma Tre, L’Aquila, Perugia, Messina e Torino insieme alla massima istituzione scientifica d’Italia il Consiglio Nazionale delle Ricerche (CNR) .
Vi furono poi contributi di colleghi di altre istituzioni quali l’Università di Danzica in Polonia, i laboratori europei di ricerche nucleari (CERN) di Ginevra in Svizzera, le università del Maryland, di Harvard ed il Politecnico di Boston (MIT) negli Stati Uniti.
L’idea di partenza era che lo spazio attorno ai nuclei atomici non fosse piatto come un foglio di carta posato su di un tavolo, ma che fosse possibile per le forze nucleari deformare lo spazio microscopicamente, almeno entro certi limiti.
Questo spazio deformato microscopicamente avrebbe reso ragione delle reazioni nucleari indotte o catalizzate

struttura di un atomo

dalla pressione, ma non solo di quelle note bensì avrebbe aperto la via a nuove possibili reazioni.

Lo spazio deformato attorno ai nuclei atomici era in analogia a quello che avviene attorno al sole con la forza di gravità, la quale deforma lo spazio macroscopicamente costringendo la luce delle stelle a seguire traiettorie curve e non più rettilinee, proprio come avviene per esempio alle comete.
Ovviamente ci si accorse che questa deformazione microscopica non era facile né comune, ma si poteva realizzare solo sotto precise condizioni fortemente vincolate alla energia delle due forze nucleari stesse che sono: la radioattività, responsabile della instabilità dei nuclei, e la forza nucleare propriamente detta, responsabile della esistenza stessa dei nuclei.

In particolare venne scoperto che ciascuna delle due forze deformava lo spazio a modo suo, per cui si era obbligati a seguirle separatamente.

Lo studio si concentrò quindi sulla forza nucleare e nel giro di alcuni anni venne compreso che la sua deformazione dello spazio era legata ad una soglia di energia molto precisa ma anche molto alta.
Per cui sarebbe stato necessario concentrare energia in tempi brevi ed in spazi piccoli per superare tale soglia ed accedere a questo nuovo spazio deformato ove esplorare quali reazioni e trasformazioni divenissero possibili.
 

Con un semplice esempio si può vedere cosa significa uno spazio deformato rispetto allo spazio piatto del foglio di carta sul tavolo a cui siamo abituati.
Prendiamo un foglio di carta bianca, che di solito è rettangolare, tagliamolo con le forbici seguendo una diagonale del rettangolo ed otteniamo due triangoli rettangoli.
Poggiamo un triangolo sul tavolo, esso resterà piatto ovviamente, invece l’altro lo accartocciamo in mano.
A questo punto abbiamo due possibilità teoriche.
 

Lasciamo il triangolo accartocciato sul tavolo, e vediamo che è diventato come una sfera irregolare piena di pieghe interne, oppure lo distendiamo sul tavolo cercando di farlo tornare piatto con la pressione delle mani ma senza riuscirci del tutto, infatti il triangolo resterà gualcito e spiegazzato.
In entrambi i casi abbiamo qualche cosa di differente dal triangolo bello piatto sul tavolo, ora facciamo cadere lentamente delle piccole gocce d’acqua sui triangoli, o sul triangolo e sulla sfera accartocciata.
Sul triangolo rimasto piatto non ci sono problemi, le gocce bagneranno il foglio, resteranno sul luogo dove cadono e daranno delle macchie di bagnato circolari.
Sul triangolo spiegazzato le gocce scivoleranno lungo le pieghe e non resteranno sul luogo dove cadono, alcune si separeranno sulle creste delle pieghe formando gocce più piccole, altre si uniranno in fondo alle pieghe formando gocce più grandi.
Sulla sfera accartocciata la situazione può diventare complicata, alcune gocce rimbalzano sulle pieghe della sfera e cadono sul tavolo altre scivolano dentro le pieghe unendosi e separandosi dentro le pieghe stesse all’interno di questa sfera accartocciata.
Ma se vogliamo sapere cosa fanno le gocce nel triangolo spiegazzato o nella sfera accartocciata dobbiamo vedere la distanza che percorrono.
Sul triangolo piatto è facile, le gocce sono ferme e la distanza fra di loro può essere calcolata con il teorema di Pitagora, tanto sono su di un triangolo rettangolo quindi è ancora più facile, è già predisposto per il calcolo.
Ma proviamo un po’ a fare lo stesso con il triangolo spiegazzato, che cosa diviene qui il teorema di Pitagora è difficile da dire, ma matematicamente possibile.
Certo è che nella sfera accartocciata è ancora più difficile, ma ancora matematicamente possibile.
Se le gocce sono i nuclei delle reazioni nucleari nello spazio deformato, vediamo così che tutto si riduce al problema matematico di scoprire che cosa diventa lì il teorema di Pitagora rispetto a quello che conosciamo nello spazio piatto del triangolo usuale.
L’applicazione di questi criteri geometrici alle forze nucleari portò a capire che il triangolo spiegazzato corrispondeva allo spazio deformato della radioattività, mentre la sfera accartocciata corrispondeva proprio alla forza nucleare che tiene insieme i nuclei stessi.

 

SECONDA parte

 

Infatti i nuclei sono composti di neutroni, neutri senza carica elettrica appunto, e protoni tutti con la stessa carica e quindi che si respingono, per cui senza la forza nucleare i nuclei non esisterebbero. E’ l’energia di legame della forza nucleare che li tiene uniti ma non sempre in modo stabile.
Quando l’energia di legame è insufficiente, interviene la radioattività a governare la instabilità permettendo al nucleo di emettere radiazioni in successione, trasformandosi progressivamente fino a divenire un nucleo stabile.
Inoltre la somma delle masse dei componenti del nucleo non corrisponde alla massa del nucleo, c’è il fenomeno del difetto di massa il quale non sempre corrisponde esattamente alla energia di legame, il che complica la vita a chi vuole calcolare quanta energia nucleare si può estrarre dai nuclei.
Ma tutto questo và bene sul triangolo piatto, và meno bene su quello spiegazzato, sulla sfera accartocciata è tutto un’altra cosa.
Quindi bisognava superara questa benedetta soglia per vedere cosa succede nello spazio deformato della sfera accartocciata.

Divenne subito evidente che un esempio di tale sfera poteva essere il collasso delle bolle dovuto alla cavitazione, ma ora la visione era più chiara, anche se più complessa.
Infatti prima gli esperimenti erano stati pensati come se la cavitazione trasformasse il collasso delle bolle in tante cariche cave nucleari microscopiche.
Ma non è così, questa è solo una semplice visione superficiale.

(Test di un siluro a cavitazione, la punta (concava) permette la formazione di una bolla d'aria (in velocità) che è in grado di avvolgere tutto il siluro (diminuendo l'attrito).

Se così fosse stato, bastava accendere il generatore di ultrasuoni e subito si aveva la liberazione dell’energia nucleare, per esempio mediante la produzione di neutroni, invece gli esperimenti statunitensi sia col primo che col secondo modello di macchina avevano in comune una cosa trascurata praticamente da tutti, una sorta di tempo di accumulazione, che nel caso del secondo modello era stato confuso ed oscurato dall’uso degli impulsi di neutroni esterni prima, e dall’uso dell’Uranio poi.

In realtà la cavitazione è solo un mezzo per concentrare energia sufficiente a superare la soglia di deformazione dello spazio (per non parlare del tempo) attorno ai nuclei atomici.
Per concentrare l’energia non è importante quanto grande è la quantità di energia che si concentra, ma quanto piccolo è il tempo in cui si concentra e quanto lunga è la durata dell’intervallo di tempo in cui tale concentrazione viene ripetuta più e più volte.
In pratica serve la velocità con cui si muove l’energia e per quanto tempo si può mantenere tale velocità.
La velocità dell’energia null’altro è che la potenza (per intendersi il watt o il suo multiplo il chilowatt). Poi è fondamentale per quanto lungo tempo si possa applicare questa potenza a qualche cosa.
Tutto questo fu riassunto in un volume pubblicato nel 2004 da una delle maggiori case editrici scientifiche internazionali l’americana World Scientific, che addirittura, caso eccezionale, ne richiese la pubblicazione di sua iniziativa senza alcuna richiesta degli autori (cfr. 10) .

A questo punto era chiaro dalla teoria cosa era necessario fare, ma restavano due problemi da risolvere, ovvi però fondamentali : a quale sostanza od elemento applicare la potenza mediante ultrasuoni e quale fosse la struttura migliore della macchina ad ultrasuoni.
Ciascuno di loro era molto complesso ed articolato per cui vanno esaminati in dettaglio.
Il primo problema era fondamentale poiché la scelta dell’elemento e della sua forma chimica determinavano la sostanza da usare, la sostanza poi influenzava la scelta del materiale del contenitore.
L’elemento doveva esser tale da potersi applicare gli ultrasuoni alla massima potenza tecnicamente realizzabile, per la durata di tempo minore possibile, prima di superare la soglia di deformazione dello spazio attorno ai nuclei dell’elemento, il che portava ad innescare le reazioni piezonucleari con la conseguente liberazione dell’energia nucleare.
 

TERZA parte

 

Ma la teoria aggiunse alcuni dettagli essenziali dei quali tenere conto prima di passare alla scelta dell’elemento.
Innanzitutto la soglia di deformazione dipendeva da ciascun elemento ed in particolare dalla energia di legame di ciascun nucleo e se il nucleo dovesse essere di un elemento radioattivo oppure inerte, leggiero come il Deuterio oppure pesante come l’Uranio, questo avrebbe determinato la maggiore o minore durata del tempo di applicazione degli ultrasuoni e quindi influenzava la necessaria resistenza della macchina.
Poi l’energia nucleare si sarebbe dovuta liberare sotto forma di neutroni in movimento, la cui emissione però poteva essere discontinua ossia ad impulsi variabili nel tempo, nella intensità e nella direzione e questo creava problemi alla loro rilevazione necessaria per stabilire in un secondo tempo l’uso più conveniente da farne per scopi industriali.
Infine non vi sarebbero dovuti essere raggi gamma poiché la loro energia sarebbe servita a mantenere la deformazione che permetteva la reazione piezonucleare.
Infatti superata la famigerata soglia i neutroni sarebbero usciti senza essere accompagnati dai raggi gamma la cui energia sarebbe , per così dire, rimasta intrappolata nella deformazione, come nelle famose pieghe della sfera accartocciata. Questo ultimo fatto è comprensibile, poiché, riprendendo sempre l’esempio del triangolo di carta accartocciato in una sfera, l’energia delle mani che lo accartocciano deve pur rimanere da qualche parte ed è appunto nelle pieghe, che danno al triangolo la forma apparente di sfera, il luogo in cui essa rimane intrappolata.
Passiamo ora al secondo problema fondamentale, la migliore struttura della macchina ad ultrasuoni.
Scartati il primo ed il secondo modello americani perché manifestamente inadatti fu necessario considerare le limitazioni imposte dalla tecnologia disponibile sul mercato.
Infatti la migliore macchina sperimentale, che per giunta era stata realizzata proprio in Italia all’Università di Perugia, aveva un sistema di raffreddamento a liquido talmente ingombrante e delicato da usare, da renderla intrasportabile, inoltre la sua potenza non sembrava essere sufficiente. Ci voleva una macchina nuova ma che per praticità fosse il risultato della modifica di oggetti commercialmente disponibili con parti elettriche e meccaniche resistenti e ben collaudate.
Ma prima di tutto ci voleva un buon progetto concettuale dei suoi costituenti principali.
Quindi la macchina doveva essere un generatore di tensione elettrica in grado di produrre in una opportuna colonna di materiali piezoelettrici 20000 oscillazioni al secondo.
Queste oscillazioni meccaniche dovevano essere trasferite ad un amplificatore di acciaio che a sua volta le trasferiva ad un sonotrodo tronco-conico anch’esso di acciaio la cui punta liberava gli ultrasuoni.
Gli ultrasuoni dovevano essere liberati all’interno di una camera di reazione di forma e dimensioni opportune in modo che la punta occupasse il centro del volume della camera per rendere massimo l’effetto di concentrazione dell’energia prodotta con gli ultrasuoni.
Gli ultrasuoni poi dovevano generare la cavitazione nel liquido reattivo contenuto nella camera in quantità opportuna rispetto al volume utile al netto del volume occupato dalla punta del sonotrodo.
Il concetto tecnico nuovo era proprio questo: il sonotrodo e la sua punta dovevano essere separati e distinti dalla camera di reazione contenente il liquido reattivo, la punta vibrava ma la camera no, doveva rimanere ferma.
Il tutto avveniva a pressione atmosferica ed a temperatura ambiente, anche se poi durante il tempo di funzionamento vi sarebbe stato un riscaldamento dovuto alle vibrazioni meccaniche.
Ora rimaneva da scegliere l’elemento da cui tutto poteva dipendere e tale scelta doveva tenere conto della teoria dello spazio deformato, questo era l’ultimo passo prima di passare agli esperimenti, ma era il più importante.
Sin dal 1939 era stata stilata e poi sempre più perfezionata la tavola periodica dei nuclei atomici usando come criterio la massa del nucleo, data dal numero dei suoi componenti, e l’energia di legame specifica ottenuta dividendo l’energia di legame del nucleo per il numero dei suoi componenti, questa veniva chiamata l’energia di legame per componente.
 

Tavola periodica degli elementi

 

Tutti i nuclei a partire dal più piccolo, il Deuterio, fino al più grande, l’Uranio, erano ordinati secondo il valore crescente di questa energia di legame per componente.
Tra i due estremi vi è il Ferro che si trova circa a metà tra Deuterio ed Uranio, inoltre il Ferro possiede il valore più alto della energia di legame per componente tra tutti i nuclei degli elementi ed in più il Ferro è inerte cioè non è radioattivo.
Per questa sua proprietà di avere l’energia di legame più alta il Ferro è il più svantaggiato per produrre energia nucleare ed anche il meno incline a farlo.
Scherzando si può dire impropriamente che il suo nucleo è “duro come il ferro” e quindi sarebbe l’elemento meno adatto da considerare, almeno secondo il normale buon senso, come avrebbe detto Fermi.
Ma tutto questo in condizioni normali, ossia di spazio piatto. Viceversa nello spazio deformato delle forze nucleari, il Ferro si trova invece in posizione avvantaggiata.

Infatti se vi è una soglia di energia da raggiungere, che è al disopra di tutte le energie di legame, il nucleo con l’energia più alta è quello più vicino, quello che a parità di potenza fornita la supera per primo tra gli altri nuclei e, cosa più importante, nel minor tempo.
Questo è un ragionamento di estrema semplicità ed eleganza che riassume una serie di ragionamenti e calcoli alquanto complessi, ed è dovuto al fisico italiano W. Perconti.
A questo punto tutto era pronto, vi era una teoria compiuta e completa che formulava delle predizioni precise, quali la produzione di neutroni in assenza di raggi gamma, e permetteva con chiarezza di identificare l’elemento da sottoporre alla cavitazione mediante ultrasuoni : il Ferro.
Certo è che tutto questo si presentava come un’impresa di un’audacia inaudita.

Ora la scena era pronta per il dramma dell’esperimento.
Infatti l’esperimento null’altro è che una operazione rivolta alla conoscenza di una verità ignota, ma è anche un rischio.
Per questo è un dramma, non solo per le idee e per il denaro ma in questo caso per le persone intese fisicamente.
Poiché nulla nei fatti poteva dire se le reazioni piezonucleari, una volta scatenate, non divenissero divergenti mettendo a rischio l’incolumità di chi le aveva scatenate, né tantomeno se fosse possibile controllarle.
Solo i calcoli teorici indicavano che i pericoli potevano essere evitati.
Ma comunque restava un atto di fiduciosa speranza confidare nella esattezza dei calcoli ed in fondo in chi li aveva eseguiti, che comunque rimase presente in tutti gli esperimenti a rischiare in prima persona, come un buon soldato e di soldati infatti ci sarebbe stato bisogno.

 

 

APPROFONDIMENTO VIDEO

 

Reazioni piezonucleari ultrasoniche 1/3

 

 

Reazioni piezonucleari ultrasoniche 2/3

 

 

Reazioni piezonucleari ultrasoniche 3/3

 

 

REAZIONI PIEZONUCLEARI - Aspetti Sanitari

 

 

ENERGIA, ALTERNATIVE POSSIBILI