Trova le risposte!
Un viaggio esclusivo all'interno dell'energia, concepito e realizzato attraverso nuovi strumenti e linguaggi dove si stimola l'interesse e la creatività dei visitatori.

Altre stanze in Politiche Energetiche

Altri articoli della stanza Politiche Energetiche

Creato da Antonella De Ninno « clicca sul nome per leggere il curriculum dell'autore

La scoperta di una nuova fonte energetica: dalla prova di principio alla realizzazione di un prototipo - Antonella De Ninno -

La capacità di sviluppo di una società moderna è legata indissolubilmente alla sua disponibilità energetica. La possibilità di dotarsi di sistemi di approvvigionamento ed utilizzo dell’energia nel mondo moderno ha la stessa valenza che aveva il dominio delle vie di comunicazione nel mondo antico; oggi il consumo di energia pro capite è il parametro con il quale viene misurato direttamente il benessere di una popolazione così come un tempo il controllo dell’ accesso ai mercati garantiva la prosperità nell’economia mercantile, basta ricercare, nei testi di storia, il filo conduttore che ha generato i maggiori conflitti nelle varie epoche per cogliere la dinamica di questa sostituzione.

La ricerca di nuove fonti energetiche è dunque l’ equivalente all’esplorazione geografica del XVI secolo: richiede una equilibrata miscela di competenza tecnica, capacità di vedere oltre gli orizzonti già esplorati, coraggio di contrapporsi alle visioni generalmente accettate per proporre percorsi alternativi.  Il compito degli scienziati è proprio quello di cercare di spostare sempre più avanti il limite delle conoscenze per ottenerne dei benefici per la società e per raggiungere questo obiettivo è stato selezionato dalle consuetudini un opportuno insieme di comportamenti e metodologie di comunicazione sia all’interno che all’esterno dell’ambiente scientifico. Tuttavia queste regole non si sono evolute con la stessa rapidità con cui è cresciuta l’aspettativa da parte della società civile di scoperte ed innovazioni in grado di migliorare significativamente la qualità della vita. Il risultato è stato un progressivo scollamento tra l’ambiente scientifico e l’opinione pubblica che stenta sempre di più a capire l’importanza della ricerca scientifica inoltre, in periodi di crisi, questa incomprensione viene cavalcata dalle politiche populiste che includono la ricerca nei settori improduttivi in cui recuperare facilmente risorse.

La ricerca scientifica viene condotta oggi soprattutto all’interno delle accademie che selezionano al proprio interno le proposte che rappresentano un avanzamento della conoscenza attraverso un processo basato sulla peer review, il giudizio tra pari. Ogni proposta deve essere sottoposta ad un severo scrutinio da parte di ignoti colleghi per poter essere accettata per la pubblicazione su una rivista scientifica, in mancanza di un giudizio positivo il lavoro viene respinto ed ignorato dalla comunità degli scienziati. Questo processo di selezione ha funzionato egregiamente per molti decenni fino alla fine degli anni 70’ che hanno visto una vera e propria esplosione nel numero di addetti alla ricerca ed una conseguente proliferazione delle riviste scientifiche legato ai massicci investimenti fatti nel settore soprattutto dal mondo anglosassone. E’ stato stimato che nel 2006 sono stati pubblicati 1.346.000 articoli su 23.750 giornali. L’impossibilità di seguire gli avanzamenti dello stato dell’arte anche soltanto nel proprio ambito di interesse ha portato alla progressiva settorializzazione delle competenze ed alla nascita di riviste sempre più specializzate che accettano lavori provenienti da comunità sempre più piccole e più autoreferenziate per cui è diventato sempre più difficile pubblicare lavori di natura interdisciplinare oppure competere per la pubblicazione su riviste di grande prestigio come Nature o Science che garantiscono il massimo della visibilità in campo scientifico. Tutte quelle attività che si situano alla frontiera di settori di ricerca già codificati o che sfruttano diverse competenze o ancora che propongono nuove metodologie interdisciplinari devono fare i conti con questo sistema diventato negli anni gelatinoso e che comincia ad essere fortemente contestato da più parti perché troppo rigido ed incapace di adattarsi con prontezza alle innovazioni. Capita spesso infatti che i tempi per la pubblicazione di un risultato siano almeno dell’ordine di 6-8 mesi che possono diventare molti di più in misura direttamente proporzionale al contenuto innovativo del lavoro. La carriera della maggior parte dei ricercatori è legata al numero di pubblicazioni fatte e da questo dipende direttamente la capacità di attrarre i finanziamenti necessari al proseguimento dell’attività ed alla conferma stessa del proprio ruolo, è comprensibile quindi, che gli sforzi dei ricercatori si concentrino su una modalità di lavoro il cui primo prodotto è la pubblicazione scientifica. Accanto a questo, un altro nuovo fenomeno sta modificando l’ambiente scientifico contribuendo a togliergli definitivamente quell’alone di zona franca in cui l’unica regola di selezione è la meritocrazia: la diminuzione dei finanziamenti, con cui i ricercatori di tutto il mondo sono stati costretti a confrontarsi negli ultimi 30 anni, ha contribuito alla creazione di vere e proprie fazioni animate da uno spirito di contrapposizione che ha molto poco di scientifico, interessate più che altro a difendersi dai competitori esterni anche e soprattutto a scapito della critica interna, insomma le comunità scientifiche si sono trasformate in “comunità di mutue congratulazioni”.  Succede così che un ricercatore debba fare, all’inizio o nel corso della sua vita professionale, una scelta dolorosa: rimanere nell’alveo dell’accademia o seguire le proprie visioni a scapito quanto meno di un “rallentamento” della carriera. Basta pensare che nell’aprile 2010 il British Research Council ha varato un regolamento che istituisce una sorta di “black list2”  di ricercatori che abbiano partecipato senza successo ad un bando di finanziamento per più di una volta durante l’anno. Questi ricercatori non potranno presentare più di una nuova proposta di ricerca nell’anno successivo. Il motivo è limitare la pressione sul sistema di finanziamenti dovuta alla contrazione di fondi disponibili con meno bandi e dunque più domande per ciascun bando. Com’è facilmente prevedibile il risultato sarà alla lunga quello di premiare i ricercatori meglio inseriti nella comunità i cui progetti non contengono un tasso di innovazione e temerarietà che può esporli al rischio di bocciatura ed i peer reviewer incaricati di selezionare i progetti migliori si troveranno a preferire principalmente quei progetti che si pongono come una continuazione analitica di progetti già finanziati in passato.

Prendiamo come esempio la fusione fredda. L’annuncio di una produzione di energia di sospetta origine nucleare in una cella elettrolitica, nel marzo del 1989, mise in fibrillazione la comunità scientifica per alcuni mesi perché sembrava sfidare tutte le certezze  condivise dalla comunità dei fisici. Si sosteneva infatti da un lato di poter osservare reazioni nucleari di fusione in un metallo a temperatura ambiente con una trascurabile emissione di radiazioni, dall’altro di poter produrre significative quantità di energia termica con una attrezzatura di grande semplicità e dal costo limitato. I due scopritori non erano ignoti al mondo accademico, tutt’altro: Martin Fleischmann è un notissimo e stimato elettrochimico, Professore Emerito dell’Università di Southampton e membro della Royal Academy of Science britannica che lo ha premiato con la medaglia per l’Elettrochimica e la Termodinamica ed avente all’attivo più di un centinaio di pubblicazioni e Stan Pons, suo allievo, all’epoca ricercatore presso l’Università dello Utah dove era stato realizzato l’esperimento. Tuttavia nel giro di poche settimane la comunità scientifica si ribellò con forza bollando la fusione fredda come “il fiasco scientifico del secolo” secondo il titolo di un libro pubblicato alcuni anni dopo da John R. Huizinga3  membro dell’US Energy Research Advisory Board.  Il problema della fusione fredda era quello di rappresentare un’anomalia nell’ambito della fisica nucleare. Una anomalia, secondo il grande epistemologo Thomas Kuhn, è un problema teorico che non può avere una soluzione all’interno dello stile scientifico CORRENTE ma è troppo grande per essere ignorata. Tipicamente la percezione di una anomalia porta a ritenere che tutte le premesse su cui si basa la visione generalmente accettata debbano essere messe in discussione anche se non è necessariamente così. Anche la fusione fredda non richiede di rigettare interamente la moderna teoria delle reazioni nucleari, come è stato più volte fatto credere strumentalmente, ma piuttosto di affiancare a quella descrizione, valida nel vuoto, una “correzione” che tenga conto della particolarità della materia condensata.

La descrizione della materia condensata, che può essere appresa dai manuali di meccanica quantistica, è fondata sul postulato della “separabilità” dei moti degli elettroni e dei protoni nei nuclei. Si afferma che, vista la grande differenza nelle masse di nuclei ed elettroni (un nucleo pesa migliaia di volte di più di un elettrone), i loro moti intorno alle rispettive posizioni di equilibrio (sempre attivi nella materia per temperature diverse dallo zero assoluto) avvengono su scale di tempo molto diverse: il piccolo elettrone gira tanto velocemente intorno al nucleo che questo gli appare come fermo. Dunque un solido può esser considerato come la sovrapposizione di due strutture: i nuclei debolmente oscillanti intorno alle loro posizioni di equilibrio e gli elettroni organizzati in strutture energetiche loro imposte dalla periodicità del reticolo cristallino. Inoltre la distanza tra i nuclei nei solidi è  ben 100.000 maggiore delle dimensioni di un nucleo, quindi la materia solida è fatta molto più di vuoti” che di “pieni”. In questa rappresentazione la soluzione del problema della fusione fredda appare senza speranza! I difensori del paradigma dominante si sono sentiti in dovere di segnalare con forza che questa anomalia contraddiceva a quasi tutte le idee della fisica atomica e dello stato solido del XX secolo e che come tale era assolutamente impossibile! In realtà questa è una visione alquanto semplificata della struttura della materia condensata per cui la natura è formata dalla sovrapposizione di oggetti separabili ed interagenti mediante forze attive solo a brevi distanze, una sorta di gigantesco meccano. Gli sviluppi della fisica teorica del dopoguerra, in particolare a partire dagli anni 50, hanno messo in evidenza con molti esempi concreti come la materia nasca dall’interazione dei singoli atomi o molecole con le forze che agiscono a distanze grandi rispetto alla loro separazione. Queste forze, di natura elettromagnetica, sono responsabili del loro avvicinamento a distanze per le quali entrano in gioco le forze a corto raggio studiate dalla meccanica quantistica. In tal modo le prime sono le vere responsabili della dinamica di formazione della materia condensata mentre le più familiari interazioni a due corpi spiegano molte, ma non tutte, le proprietà dei sistemi ordinati come i cristalli o disordinati come i liquidi e i vetri. L’esistenza di reazioni nucleari nella materia condensata richiede “semplicemente” che l’interazione con queste forze di natura elettromagnetica non venga più considerata come una perturbazione nella descrizione di un solido e che, di conseguenza, le reazioni nucleari non vengano trattate allo stesso modo in cui si fa, usualmente, nel vuoto.

Gli scienziati che si sono voluti cimentare con questo problema hanno dovuto scontrasi da un lato con l’ostilità dei colleghi disturbati dall’”anomalia” e dall’altro con il compito non facile di rivedere le proprie competenze in materia di fisica nucleare e dello stato solido. In poche parole questa scoperta ha fatto piazza pulita degli esperti: nel 1989 non c’era nessuno che potesse dirsi esperto nella soluzione di questo difficile problema. Per affrontarlo erano necessarie competenze di struttura della materia, scienza dei materiali, elettrochimica e fisica nucleare e non c’era nessuno in possesso della ricetta per far funzionare il tutto. Per la maggior parte dei fisici e dei chimici, lavorare sulla fusione fredda voleva dire rinunciare, almeno temporaneamente, all’obbiettivo principale della carriera di un ricercatore: le pubblicazioni. Occorre sottolineare che questo aspetto basta, da solo, a mettere fuori gioco tutti i giovani ricercatori in cerca di una prima occupazione. Inoltre va aggiunta l’interessata ostilità da parte dei colleghi impegnati da decenni sul fronte della ricerca sulla fusione termonucleare controllata4, a loro volta nei guai a causa degli ingentissimi finanziamenti necessari per la sperimentazione di macchine lontane ancora decenni dall’obiettivo di produrre energia per scopi commerciali.

La maggior parte dei ricercatori interessati a questa ricerca ha cercato di obbedire ancora una volta al dogma centrale della ricerca scientifica: “lavoro-pubblicazione-finanziamento-lavoro” mettendo a punto esperimenti per lo più dimostrativi mirati a convincere la comunità scientifica. Questo atteggiamento ha contribuito a diminuire lo scetticismo individuale di alcuni scienziati ma ha fallito nell’ottenere il cambiamento di paradigma respinto dal sistema perché: “affermazioni eccezionali richiedono prove eccezionali”. Ma, come ha detto giustamente Martin Fleischmann: “La sola domanda che ci si può porre è: chi potrebbe volere il successo di questa ricerca?”.

Attualmente (settembre 2010) non ci sono in Europa università o Enti Pubblici di ricerca che ospitino ricerche finanziate sulle reazioni nucleari a bassa energia o LENR (Low Energy Nuclear Reactions) o reazioni nucleari nella materia condensata (Condensed Matter Nuclear Science) come si tende a definirle oggi. Negli Stati Uniti si occupa dell’argomento il DARPA (Defense Advanced Research Projects Agency) ma non il DOE (Department of  Energy) ed uno dei migliori gruppi di ricerca sull’argomento opera presso SPAWAR Systems Center di San Diego5 ; solo in Giappone sono attivi diversi gruppi presso istituzioni pubbliche. Alcuni mesi fa6  l’esercito degli Stati Uniti ha ritenuto opportuno di tenere un workshop per valutare lo stato dell’arte e l’opportunità di investimenti. Nel frattempo la comunità scientifica si è anestetizzata rispetto all’anomalia fusione fredda e preferisce ignorarla.

Per restituire la corretta dinamica a questa ricerca potrebbe essere il momento di cambiare punto di vista: passare dalla prova di principio necessaria a convincere la comunità scientifica sperando che questo metta in moto il meccanismo virtuoso che porta dalla scoperta all’applicazione, alla realizzazione di un prototipo in grado di produrre quantità di energia misurabili anche se di modesta entità che inserisca definitivamente le LENR, di cui la fusione fredda rappresenta un sotto-insieme,  nelle possibili nuove FONTI ENERGETICHE RINNOVABILI. Per fare questo sarebbe necessaria una sinergia tra industriali dotati di vero spirito imprenditoriale e scienziati disposti ad abbandonare (temporaneamente) il dogma principale del ricercatore. Da questa collaborazione potrebbe davvero nascere una impresa scientifica sufficientemente lungimirante da produrre un dispositivo in grado di generare energia con EFFICIENZA almeno confrontabile a quella di altre fonti RINNOVABILI ma affidabile, sicura e pur sempre una nuova fonte energetica. Questo modo di procedere potrebbe rappresentare una buona risposta all’irrigidimento delle regole di cui soffre comunicazione scientifica e che rischia di soffocarla.

In altri settori questo cammino è già iniziato e sta dando i suoi frutti. Il più evidente è nel settore della medicina: da alcuni anni si stanno affermando metodologie di diagnosi e cura che non sono nate all’interno delle università ed anzi lì trovano scetticismi o critiche feroci. Tralasciando il controverso ed abusato esempio dell’omeopatia, oggi si utilizzano efficienti strumenti diagnostici, come il Bioscanner7 , o curativi l’”Electrochemical Therapy8” , il cui funzionamento è basato sull’interazione tra campi magnetici di bassa energia e tessuti biologici, interazione la cui stessa esistenza è fortemente osteggiata all’interno dell’accademia.

Ma il sistema ha percepito che la difficoltà di accettare e metabolizzare le diversità porta all’ inaridimento e si stanno già producendo gli anticorpi rappresentati dall’utilizzo sempre più massiccio della rete. La comunità degli scienziati coinvolti ed interessati alle LENR ha potuto continuare ad esistere proprio grazie alla rete anche nella quasi impossibilità di far conoscere il proprio lavoro sulle riviste scientifiche a maggiore diffusione ed elevato impact-factor9. Segno questo che nel mondo di oggi la comunicazione è diventata davvero la variabile indipendente. Sfruttando questi strumenti la fusione fredda ha potuto raggiungere e superare il suo 20-esimo compleanno nonostante l’ostilità diffusa. Nel frattempo i ricercatori che hanno continuato a lavorarci sono riusciti ad individuare i parametri significativi attraverso i quali il fenomeno diventa controllabile anche se fortemente penalizzati dall’ostracismo della maggior parte dei colleghi.

Ma il tema trattato è di tale rilevanza che vale la pena di tentare di recuperare l’insieme di competenze sviluppato negli ultimi 20 anni a partire dall’annuncio di Fleischmann e Pons anche in presenza di perplessità sulla completa controllabilità e sull’entità del fenomeno. E’ più probabile però che questo recupero avvenga direttamente attraverso la realizzazione di un prototipo per la produzione di energia ad usi commerciali piuttosto che attraverso la benedizione della comunità scientifica che, comunque, non tarderebbe a seguire in caso di successo.

D’altra parte Cristoforo Colombo venne nominato ammiraglio soltanto dopo aver scoperto l’America.

Tratto da D.A. Anno XI, numero 3 - Novembre 2010


 

Note:
1 Bo-Christer Björk, Anniki Roos and Mari Lauri, Information Research vol.14, no.1, March 2009.
2 http://www.nature.com/nature/journal/v464/n7288/full/464465a.html
3 John R. Huizinga, Cold Fusion: The Scientific Fiasco of the Century, University of Rochester Press July 2, 1993.
4 http://www.iter.org/proj
5 http://newenergytimes.com/v2/reports/SSC-SD-Refereed-Journal-Articles.shtml
6 Army Research Labs (ARL), Adelphi, MD June 29, 2010 Power and Energy TFT Low Energy Nuclear reactions Workshop http://www.newenergytimes.com/v2/conferences/2010/ARL/ARL-Agenda.shtml
7 Il Bioscanner è un dispositivo diagnostico  che effettua una analisi non invasiva dei tessuti e consente di rilevare stati patologici, in particolare formazioni tumorali: http://www.clarbrunovedruccio.it/ita_bioscanner.htm 
8 International Association for Biologically Closed Electric Circuit in Medicine and Biology  è una associazione di medici, biologi e biofisici che sviluppa dispositivi elettromedicali innovativi in combinazione con terapie convenzionali.
http://www.iabc.readywebsites.com/page/page/623957.htm
9 L’impact factor è una misura che riflette il numero di citazioni che riceve un articolo pubblicato su una rivista scientifica. Rappresenta una misura dell’interesse che riscuote quella rivista all’interno della comunità cui si rivolge.