Apr 28, 2008 - opinioni    No Comments

IL CICLO DELL’ENERGIA

Da una lettera di Galileo Galilei (1614) “anzi stimandomi io inferiore a tutti, e però a tutti i sapienti sottoponendomi, direi, parermi che nella natura si ritrovi una sustanza spiritosissima, tenuissima e velocissima, la quale diffondendosi per l’Universo penetra per tutto senza contrasto, riscalda, vivifica e rende feconde tutte le persone viventi, e di questo spirito par che il senso stesso ci dimostri il corpo del Sole esserne ricetto principalissimo, dal quale espandendosi un’immensa luce per l’Universo, accompagnata da tale spirito calorifico e penetrante per tutti i corpi vegetabili, gli rende vividi e fecondi”.
La vita è alimentata dall’energia. L’ Energia, è l’attitudine di un corpo o di un sistema di corpi a compiere un lavoro. Il pianeta Terra può essere considerato come un unico grande sistema energetico che riceve l’energia solare, mentre riflette energia luminosa e irradia energia termica.
L’energia solare, fonte di quasi tutta l’energia biologica, viene immessa nei viventi attraverso la produzione di composti organici e consiste nella riduzione di anidride carbonica con trasformazione di energia elettromagnetica (radiazioni solari) in energia chimica (fotosintesi).
8ba43b8635fe04992c9b2b56473b7728.gif

La catena del pascolo parte dalle piante verdi (produttori primari), va agli erbivori (consumatori primari) ed ai carnivori (consumatori secondari). I quali sottraggono sostanza organica per liberare energia che verrà impiegata nelle biosintesi o in lavoro meccanico, incidendo direttamente sul tasso di produzione energetica, tramite l’ossidazione di materiale organico attivo durante i processi respiratori e fermentativi.
. La catena del detrito va dalla materia organica morta ai microorganismi ed ha la funzione di smaltire l’eccesso di materiale organico inerte e di favorire la restituzione al sistema di sostanze minerali indispensabili ai produttori.
In ogni trasferimento di energia, attraverso la serie di organismi che si nutrono in sequenza, vi è una perdita dell’80-90 % sotto forma di calore.
La velocità di trasformazione dell’energia solare mediante fotosintesi viene definita produzione primaria lorda; essa è una misura della quantità totale di materia organica, o biomassa, fissata e viene misurata in massa secca per unità di superficie e per unità di tempo; (per esempio in grammi per metro quadrato e per anno).
La produzione primaria netta è invece la velocità di immagazzinamento della materia organica prodotta, al netto di quella usata per la respirazione delle piante, mentre la produzione netta della comunità è la velocità di immagazzinamento della materia organica non utilizzata dagli eterotrofi.
Quindi ogni organismo vivente ha bisogno di una fonte di nutrimento, dalla quale trarre le sostanze necessarie a produrre i propri costituenti e l’energia necessaria alla loro costruzione, oltre a quella richiesta per eseguire tutte le funzioni che lo caratterizzano. La nutrizione infatti consente l’accrescimento e lo sviluppo di un organismo. gli schemi di trasformazione delle sostanze nutritive in componenti cellulari sono praticamente identici in tutti gli organismi viventi (pur con qualche variazione secondaria e con elementi di specializzazione nei diversi raggruppamenti di organismi); questo dipende dal fatto che, nonostante le macroscopiche differenze di struttura e funzioni dei vari organismi viventi, essi sono tutti composti dallo stesso tipo di sostanze semplici.
La regolazione delle funzioni in un organismo vivente ha diversi scopi:
1) mantenere la sua organizzazione interna;
2) consentire una interazione favorevole con l’ambiente che lo circonda;
3) consentire il suo adattamento a variazioni di tale ambiente.
Ogni evento esterno che sia potenzialmente utile o dannoso per il vivente rappresenta per esso uno stimolo che viene percepito e al quale l’organismo (o una sua parte) è in grado di dare una risposta.
Questo comportamento caratteristico dei viventi è quindi riassumibile in due termini tra loro strettamente collegati (e talvolta riuniti nello stesso significato): la sensibilità (o sensitività) e la eccitabilità (o irritabilità).
Per una popolazione o una specie la capacità di sviluppare una risposta adattativa può talvolta richiedere un tempo superiore alla durata del singolo organismo, poiché la sua comparsa richiede una modificazione netta e permanente delle sue caratteristiche progettuali e la diffusione (tramite la sua discendenza) di tale modificazione nella popolazione e nella specie.
Siamo così giunti a considerare due ulteriori proprietà che sono di rilievo primario negli organismi viventi e non condivise da nessun altro sistema naturale: 1) la trasmissibilità del programma strutturale/funzionale da una generazione all’altra della stessa specie; 2) la modificabilità di tale programma.
La proprietà fondamentale degli esseri viventi, forse la più importante e certamente quella che non registra eccezioni di alcun genere, è la riproduzione.
La riproduzione consente il moltiplicarsi del numero di individui di una specie a partire da esemplari della stessa specie, ogni vivente viene dunque generato da altri viventi della stessa specie (in qualche caso, da incroci tra specie molto affini).
Per quanto possa apparire a molti paradossale e contraddittorio considerare la morte una proprietà tipica della materia vivente, questo aspetto non può essere trascurato e rappresenta anzi un evento e un processo di notevole rilievo per il funzionamento degli ambienti biologici e per l’evoluzione delle specie, quando non addirittura per lo sviluppo dell’intera superficie planetaria. Il processo evolutivo delle forme viventi, per il quale abbiamo citato poco sopra l’esistenza di prove abbastanza convincenti, non sarebbe possibile senza la scomparsa degli stadi precedenti che lo hanno caratterizzato nelle epoche precedenti alla attuale.
La morte di un organismo può verificarsi per cause esterne ad esso, principalmente dovute al fatto che esso diviene preda di altri organismi (che in un modo o nell’altro se ne nutrono, ovvero che lo privano di funzioni vitali nell’avvantaggiarsi di qualche sua risorsa), ma anche ad agenti non biologici che accidentalmente lo danneggiano in maniera incurabile (in certi casi, grandi cataclismi possono produrre l’estinzione di grandi masse di esseri viventi). Ma la morte avviene anche per esaurimento di un ciclo vitale e quindi, si ritiene, per un delimitazione del programma interno di funzionamento dell’organismo. Il processo di invecchiamento al quale vanno incontro gli organismi pluricellulari si sta rivelando, a seguito degli studi più recenti, un fenomeno con una precisa base cellulare e molecolare. Le stesse popolazioni cellulari di un organismo di questo genere vanno incontro, nelle fasi del suo sviluppo e della sua crescita, a un continuo avvicendarsi che provoca la morte programmata di parecchie migliaia di cellule quasi contemporaneamente.
È a questo livello che ci si può rendere maggiormente conto dell’utilità del processo di morte: infatti, la morte cellulare programmata è un evento che apre la strada al comparire di nuove entità funzionali, e quindi a nuove possibilità di vita.
“Entrate in un giardino di piante, d’erbe, di fiori. Sia pur quanto volete ridente. Sia nella più mite stagione dell’anno. Voi non potete volger lo sguardo in nessuna parte che voi non troviate del patimento. Tutta quella famiglia di vegetali è in istato di sofferenza, qual individuo più, qual meno. Là quella rosa è offesa dal sole, che gli ha dato la vita; si corruga, langue, appassisce. Là quel giglio è succhiato crudelmente da un’ape, nelle sue parti più sensibili, più vitali. Il dolce mèle non si fabbrica dalle industriose, pazienti, buone, virtuose api senza indicibili tormenti di quelle fibre delicatissime, senza strage spietata di teneri fiorellini. Quell’albero è infestato da un formicaio, quell’altro da bruchi, da mosche, da lumache, da zanzare; questo è ferito nella scorza e cruciato dall’aria o dal sole che penetra nella piaga; quello è offeso nel tronco o nelle radici; quell’altro ha più foglie secche; quest’altro è roso, morsicato nei fiori; quello trafitto, punzecchiato ne’ frutti. Quella pianta ha troppo caldo, questa troppo fresco; troppa luce, troppa ombra; troppo umido, troppo secco. L’una patisce incomodo e trova ostacolo e ingombro nel crescere, nello stendersi; l’altra non trova dove appoggiarsi, o si affatica e stenta per arrivarvi. In tutto il giardino tu non trovi una pianticella sola in istato di sanità perfetta. Qua un ramicello è rotto o dal vento o dal suo proprio peso; là un zeffiretto va stracciando un fiore, vola con un brano, un filamento, una foglia, una parte viva di questa o quella pianta, staccata e strappata via. Intanto tu strazi le erbe co’ tuoi passi; le stritoli, le ammacchi, ne spremi il sangue, le rompi, le uccidi. Quella donzelletta sensibile e gentile va dolcemente sterpando e infrangendo steli. Il giardiniere va saggiamente troncando, tagliando membra sensibili, colle unghie, col ferro.” (da Lo Zibaldone di Giacomo Leopardi)

Riproduzione, evoluzione, morte, nutrizione, utilizzazione dell’energia e sfruttamento sequenziale delle risorse: gli aspetti dinamici del vivente si realizzano principalmente nella sua interazione con altri esseri e con la complessità dell’ambiente che lo circonda.
Il gioco dell’esistenza si realizza non a livello del singolo individuo, ma nella sua interdipendenza da quanto è esterno ad esso.
Siamo così arrivati a collocare l’organismo nella sua posizione all’interno dello scenario naturale: l’insieme integrato delle sue funzioni, gli schemi più o meno complessi del suo comportamento, gli effetti che le sue azioni durante l’intero ciclo vitale esercitano sull’ambiente, sono le componenti “definitive” del suo esistere come entità biologica, secondo quello che potremmo chiamare un criterio ecologico/etologico.
Prendiamo ora in esame la crescita di una popolazione, aspetto essenziale delle funzioni di un individuo, in quanto il periodo di vita di un singolo è limitato nel tempo e la continuità della specie viene assicurata solo dalla crescita della popolazione. La trattazione partirà da una coltura batterica per arrivare all’uomo, perché su di essa sono disponibili molte informazioni sulla dinamica di crescita in quanto caratterizzata da tempi brevi ed alto numero di cellule.
Lynn Margulis (1938) “Dal paramecio all’uomo, tutte le forme di vita sono dotate di un’organizzazione minuziosa, sono aggregati raffinati di una vita microbica in evoluzione. Lungi dall’essere rimasti indietro in una “scala” evolutiva, i microrganismi ci circondano e compongono il nostro essere. Tutti gli organismi attuali, essendo sopravvissuti fin dagli albori della vita lungo una linea che non si è mai interrotta, si trovano a un eguale livello di evoluzione.”

e83830a1f96e1b36e9a6afeac7e37813.jpg

Quando una popolazione batterica viene inoculata in un terreno fresco, di solito la crescita non inizia immediatamente, ma soltanto dopo un certo periodo di tempo chiamato fase di latenza (o fase “lag”); questo periodo può essere più o meno breve a seconda delle condizioni. Ciò è dovuto al fatto che, per poter crescere in un determinato terreno di coltura, le cellule devono essere dotate di tutti gli enzimi necessari a trasformare il substrato in metaboliti essenziali che non sono presenti nel terreno stesso (p.e. aminoacidi).
Anche negli organismi più complessi (piante e animali) troviamo una prima fase di adattamento nella quale vengono messe in atto una serie di strategie che tendono a superare i fattori di controllo ambientali che limitano il loro sviluppo.
Fattori abiotici:
1- Disponibilità di risorse (cibo e acqua)
2- Spazio
3- Luce
Fattori biotici:
1- Competizione (intra ed interspecifica)
2- Predazione (aumento di prede comporta un aumento di predatori)
3- Parassitismo
4- Malattie (contagiose)
Le strategie di adattamento una volta acquisite per essere utili alla popolazione devono essere trasmesse alla progenie. Nella popolazione batterica la capacità di sintetizzare enzimi specifici atti a liberare le disponibilità di risorse dell’ambiente, viene trasmessa per via ereditaria. La riproduzione per scissione nei microrganismi permette la formazione di nuovi individui dotati ognuno delle utili informazioni acquisite dai loro predecessori.
Negli animali superiori , dove la riproduzione sessuale consente una maggiore variabilità, la trasmissione di caratteri alla prole necessita invece di alcune generazioni ed è guidata dalla selezione degli individui più adatti alla riproduzione. Alcune strategie di adattamento però posso essere tramandate attraverso comportamenti di imitazione alle generazioni successive. La specie umana è stata quella che ha più utilizzato questo tipo di comportamento dotandosi di un linguaggio per poter comunicare tra loro e dalla scrittura come potentissimo strumento di evoluzione del sapere.

5b013978ad809f21915104bdd9cc3a30.jpg

 

Il numero di essere umani sulla terra è cresciuto molto lentamente per migliaia di anni ed ha sfiorato gli 800 milioni all’inizio dell’era industriale. Nel 1999 la popolazione mondiale ha oltrepassato la soglia dei sei miliardi, e sta ora crescendo ad un ritmo di 80-85 milioni di persone l’anno. Secondo le stime delle Nazioni Unite, nei prossimi decenni ci saranno al mondo un miliardo di persone in più ogni 12-13 anni. Siamo quindi in una fase di crescita esponenziale che si verifica quando l’entità del suo incremento da un periodo di tempo al successivo dipende dalla quantità preesistente di individui.
La crescita può essere esponenziale per capacità di autoriproduzione sua propria (nel senso che dipende dalla struttura del “sistema”), oppure derivata (nel senso che dipende da qualcos’altro (un fattore che possiamo definire “primario”) che, crescendo esponenzialmente, “traina” anche il tipo di crescita della grandezza “derivata”.
fb8c254a6b6fd4dc0b849349872fd079.jpg

In questo grafico si può facilmente evidenziare la stretta correlazione tra la disponibilità di energia e l’aumento mondiale della popolazione.
Come la struttura funzionale e le strategie acquisite da una popolazione nella fase di adattamento caratterizzano la successiva fase esponenziale, così il contenimento degli effetti negativi di una crescita tumultuosa garantisce il passaggio ad una fase successiva chiamata stazionaria ove il numero dei nuovi individui è uguale alla morte dei vecchi.
Nel grafico successivo possiamo vedere come l’incremento di individui (espresso in milioni per anno) è completamente diverso nei paesi in via di sviluppo e paesi sviluppati.


5c75468a07cc29aa7b103be9cf473aca.gif

Nel primo caso possiamo descriverla come una tumultuosa fase esponenziale, mentre nel secondo il rapido passaggio ad una fase stazionaria se non addirittura ad una fase discendente.
Entrambi i casi sono la conseguenza di un sostanziale cambiamento dei fattori di controllo della popolazione umana in conseguenza del crescente utilizzo di energia derivata da combustibili fossili resa disponibile dallo sviluppo tecnologico.
Ma la principale differenza tra una colonia batterica e la popolazione umana risiede nel fatto che mentre ogni singola cellula contiene nel proprio patrimonio genetico tutte le informazioni necessarie ed utili a se e alla propria specie, nel genere umano usiamo tecnologie di cui non conosciamo a fondo il loro processo evolutivo e che sono state sviluppate da pochi individui, e purtroppo non sempre gli interessi del singolo coincidono con quelli della collettività.

Apr 28, 2008 - opinioni    No Comments

IL PETROLIO

Nel 1275 Marco Polo vede usare in Cina il carbon fossile come combustibile; poco più tardi si comincia ad usarlo anche in Europa, ma solo in piccole quantità. L’uso su grande scala inizia dopo il 1400, nelle fabbriche di armi del Belgio. Nel 1603 l’invenzione del “coke”, si tratta di un carbone poroso, leggero, relativamente più “pulito” e senza odore, ottenuto scaldando il litantrace in assenza di aria.
Nel 1807 viene montata una macchina a vapore su una nave e nel 1825 una locomotiva a vapore muove il primo treno.
Con la diffusione delle macchine a vapore aumentano le richieste di carbone: l’Inghilterra, grazie ai suoi grandi giacimenti e alla facilità di trasporto, consolida le posizioni di avanguardia delle sue industrie e vende carbone a mezza Europa. Proprio in Inghilterra ha inizio un periodo di grande trasformazione: la Rivoluzione industriale, che modifica radicalmente il sistema economico e sociale. Grandi investimenti iniziali di capitale vengono impiegati per creare le fabbriche. Ben presto la rivoluzione industriale dilaga anche nei paesi europei e negli Stati Uniti d’America.
I nuovi metodi di produzione industriale hanno esigenze energetiche altissime, una delle materie prime più utilizzate è l’alluminio, e la sua rapidissima diffusione segna l’inizio di quella che oggi è divenuta una vera e propria “strage energetica”. La storia dell’energia sta però segnando una svolta: arrivano sulla scena i nuovi grandi protagonisti: il petrolio, i motori a scoppio, l’elettricità.
Nel 1853 George Bissell, mentre attraversava la Pennsylvania occidentale, ebbe modo di osservare i metodi primitivi con cui veniva estratto il petrolio. In quei luoghi sperduti, l’olio minerale, si sprigionava da sorgenti attraverso crepe del terreno o si raccoglieva in pozzanghere oleose miste ad acqua salata. Vide che gli abitanti raccoglievano barili della sostanza scura e puzzolente, o schiumandola dalla superficie della fonte o strizzando spugne e stracci intrisi delle acque oleose. Bissell sapeva che quell’olio veniva usato per preparare farmaci curativi del mal di testa e di denti, dei disturbi dello stomaco, dei reumatismi, dell’idropsia e persino delle malattie della pelle. Sapeva che quel liquido viscido era infiammabile e da uomo astuto quale egli era ebbe l’intuizione che si potesse usarlo non come farmaco bensí come olio illuminante. George Bissell era un legale di New York, e insieme a James Townsend, presidente di una banca di New Haven ed altri, aveva costituito un gruppo d’imprenditori e d’affari. Obiettivo del gruppo diventò quello di trasformare l’olio minerale in un fluido utilizzabile per alimentare le lampadine. Ciò nella certezza che la nuova sostanza sarebbe stata altamente competitiva rispetto al sistema vigente che utilizzava gli olii ricavati dal carbone, che intorno al 1850 stavano conquistando i mercati. Se, com’era prevedibile, si poteva disporre di grandi quantità di olii minerali, si sarebbe ottenuto un basso costo del prodotto che avrebbe permesso di illuminare tutte le città del Nordamerica e dell’Europa. Senza contare che lo stesso olio minerale adeguatamente lavorato poteva essere impiegato per lubrificare le parti mobili dei nuovi macchinari. La sfida era aperta, ma prima bisognava verificare scientificamente la fattibilità di quella che era una semplice intuizione. A tale scopo, alla fine del 1854, Bissell incaricò il professor Benjamin Silliman, uno dei piú eminenti scienziati di quel tempo, a predisporre uno studio che analizzasse le proprietà dell’olio, sia come illuminante sia come lubrificante. E, cosa ancor piú importante volle che Silliman firmasse in proprio il progetto con il suo stimato nome, in modo da facilitare la vendita di azioni e la raccolta di capitali. Silliman accettò. La sua tendenza alla praticità lo spinse a farsi coinvolgere nell’iniziativa alla quale credeva fermamente. Già all’inizio della ricerca si dimostrò entusiasta parlando di un sicuro successo nell’uso del distillato del Rock Oil (olio di pietra) quale sostanza illuminante. Inoltre dichiarò che il risultato dei suoi studi avrebbe corrisposto alle aspettative del rivoluzionario progetto. L’attesa degli investitori si faceva spasmodica, mentre la ricerca si dimostrava talmente costosa da prosciugare le risorse finanziarie raccolte fino a quel momento. A quel punto, il superamento del budget previsto per lo studio di fattibilità, provocò non poche preoccupazioni per il prosieguo dell’iniziativa. A fugare ogni dubbio fu la relazione consegnata da Silliman il 16 aprile 1855 che dimostrava le ampie potenzialità di utilizzazione dell’olio minerale. Lo studio, che per gli storici rappresenta una pietra miliare dell’industria petrolifera, accertava che il prodotto poteva essere portato a vari gradi di ebollizione e distillato poi in varie frazioni, tutti composti del carbonio e dell’idrogeno. Uno di questi era olio illuminante di altissima qualità. Per Silliman, dunque, lo studio forniva una risposta concreta a una pura necessità di mercato. L’incremento demografico e lo sviluppo economico conseguente alla rivoluzione industriale avevano fatto aumentare la richiesta di una illuminazione artificiale che non fosse quella prodotta da uno stoppino immerso in qualche grasso animale o vegetale; sistema alquanto primitivo e diffuso nel corso dei tempi e non sempre disponibile per la gente comune. Chi disponeva di denaro aveva trovato, per anni e anni, nell’olio di capodoglio una sostanza illuminante di alta qualità e di costo elevato, la cui diffusione avrebbe messo in pericolo l’esistenza di quei cetacei. C’era poi il “gas di città”, distillato dal carbone, che alimentava, mediante apposite condutture, i lampioni stradali e le abitazioni di un numero sempre crescente di famiglie di ceto medio e alto. Ma il “gas di città” era costoso e si faceva perciò sempre piú pressante l’esigenza, anche di tipo sociale, di una sostanza illuminante a prezzo contenuto. Nel presentare il suo studio ai committenti il professor Silliman era stato esplicito nell’evidenziare la grande prospettiva dell’affare. “Signori”, aveva scritto a conclusione della sua relazione, “senza ombra di dubbio vi sono fondati motivi per ritenere che la vostra società sia assolutamente in grado di trasformare il materiale grezzo di cui dispone, mediante procedimenti semplici e poco costosi, in prodotti di grande validità nel settore dell’illuminazione e della lubrificazione. Sono certo che la vostra società abbia grandi possibilità di fare affari”. A seguito di questo discorso dimostratosi altamente persuasivo, Bissell e soci non ebbero difficoltà a trovare nuovi finanziamenti da altre fonti. Lo stesso Silliman acquistò un certo numero di azioni, conferendo maggior lustro all’impresa che divenne nota come Pennsylvania Rock Oil Company. Passerà un anno e mezzo prima che la società intraprenderà il successivo, rischioso passo. Quello della estrazione dell’olio minerale. Prima di entrare nel mercato con un prodotto rivoluzionario, era necessario accertare se le riserve di olio sarebbero state sufficienti ed estraibili a costi contenuti. Di certo non si poteva impiantare un’industria spurgando le superfici dei torrenti della sostanza oleosa o strizzando spugne e stracci. Lo scopo dell’impresa era di dimostrare l’esistenza di una riserva sufficiente e sfruttabile di olio minerale e tale da giustificare una proposta credibile e del tutto interessante. Solo disponendo di quantitativi elevati di materia prima si sarebbe potuto vendere il prodotto a buon prezzo, togliendo il mercato degli olii illuminanti a prodotti piú costosi e meno validi. Scavare in superficie o raccogliere gli affioramenti oleosi non avrebbe assicurato sufficienti quantitativi d’olio minerale, ma forse c’era un’alternativa: la perforazione. C’era l’esperienza delle cave di sale in Cina dove da piú di millecinquecento anni si scavavano pozzi profondi anche mille metri. Verso il 1830 il metodo cinese d’estrazione era stato importato in Europa e negli Stati Uniti dov’era stata introdotta la perforazione dei pozzi di salgemma. Era trascorso un anno da quando Silliman aveva presentato la sua relazione e gli investitori non erano piú disposti ad aspettare. A convincere Bissell che la tecnica della trivellazione delle cave di sale si potesse adattare direttamente al petrolio, fu un cartello pubblicitario che egli vide nella vetrina di un farmacista in una calda giornata estiva del 1856. Aveva trovato rifugio dal sole cocente sotto la tenda d’una farmacia quando una pubblicità accese il suo intuito. La figura mostrava varie torri di trivellazione del tipo usato per estrarre il sale per propagandare un farmaco a base di petrolio. Chiese notizie e seppe che l’olio minerale della medicina era ottenuto come sottoprodotto dell’estrazione del sale, cioè le sonde per estrarre il sale attraversavano gli strati del petrolio. L’episodio forní a Bissell il tassello mancante. Discusse il progetto di perforazione con il banchiere James Townsend il quale lo illustrò agli altri soci; molti a New Haven lo derisero sostenendo che fosse una pazzia pompare il petrolio dal sottosuolo come fosse acqua. Non c’era piú tempo da perdere. Bisognava proseguire a tutti i costi, affidando a qualcuno la trivellazione del primo pozzo e soprattutto la ricerca del terreno da trivellare. La scelta cadde sul trentottenne Edwin L. Drake, vecchia conoscenza di Townsend, personaggio non particolarmente qualificato, ma dotato di fascino e immaginazione. Era un ex macchinista delle ferrovie da tempo disoccupato, che viveva a New Haven dove aveva acquisito la fama di uomo “tuttofare”. Entusiasta della idea della ricerca del petrolio s’era convinto ad acquistare alcune azioni della Pennsylvania Rock Oil Company. Townsend lo assunse e lo mandò nel piccolo e povero villaggio di Titusville, in Pennsylvania, presentandolo come il “colonnello” E. L. Drake, allo scopo di impressionare gli umili e sprovveduti “villici”. Lo stratagemma funzionò e a Drake non fu difficile perfezionare, nel dicembre del 1857, l’acquisto di un terreno che si pensava ricco di petrolio. Tornato a New Haven per organizzare la fase successiva, cioè l’impianto della sonda di trivellazione per dare inizio alla ricerca del petrolio, parlò prima dell’area prescelta e disse che si potevano ricavare grandi quantità di petrolio perforando il terreno come si usava nelle cave di sale. Ebbe però la sgradita sorpresa di constatare personalmente che alla iniziale perplessità sulla tecnica di escavazione, s’era aggiunta in molti soci la sfiducia di trovare il petrolio proprio in quell’area. Anche Bissell sembrava titubante. Ma Drake non si arrese. Incoraggiato da James Townsend, dichiaratosi disposto ad accollarsi il maggior rischio finanziario, ritornò a Titusville per iniziare il lavoro. Era la primavera del 1858. Con una parte dei soci aveva fondato una nuova società, la Seneca Oil Company, divenendone amministratore delegato. Scelse un altro terreno, questa volta a valle di Titusville dove già c’era una sorgente di petrolio da cui si estraevano da 3 a 8 galloni al giorno con i metodi tradizionali. Per vari mesi continuò a scavare con tali metodi, anche perché i fondi di cui disponeva non gli permettevano di utilizzare una trivella. A quel punto scrisse a Townsend di inviargli altri quattrini precisandogli, a ragion veduta, che il sistema della perforazione era il piú economico.
Ricevuto nuovo denaro, all’incirca mille dollari di quei tempi, assoldò una squadra di “trivellatori di sale” che, poco tempo dopo l’inizio dei lavori, si rifiutarono di continuare. In verità il motivo della defezione era dovuto al fatto che quei trivellatori abituati a cercare sale e non petrolio pensavano che Drake fosse pazzo. Ma Drake, dopo un anno trascorso a Titusville senza ottenere nulla di concreto che potesse soddisfare i finanziatori, stava vivendo un momento drammatico, tanto piú che si stava avvicinando l’inverno. Decise dunque di impegnarsi con tutte le sue forze anche lavorando con le sue mani.
Montò pezzo dopo pezzo il compressore che avrebbe spinto la trivella. Poi, nella primavera del 1859, trovò il trivellatore che faceva al caso suo, di nome William A. Smith, detto “zio Bill” il quale aiutato dai suoi due figli montò il cantiere di perforazione. Eresse il “derrick”, o torre di trivellazione, e montò le apparecchiature necessarie: una pesante asta metallica con un maglio fissato ad una estremità, collegata a una fune d’acciaio manovrata da una carrucola che ne permettesse la percussione sul terreno, in modo da frantumarlo, avanzando in profondità. Si presumeva che la sonda avrebbe dovuto penetrare per piú di cento metri, ma il lavoro era lento e i finanziatori sempre piú impazienti. Si era verso la fine di agosto 1859 e non c’era segnale che incoraggiasse il proseguimento dei lavori.
Intanto Townsend, l’unico a credere ancora nel progetto e a finanziarlo di tasca propria, preso dallo scoraggiamento ordinò di chiudere i lavori e di tornare a New Haven. Ma il pomeriggio del 27 agosto, quando Drake non aveva ancora ricevuto il messaggio, accadde l’evento: alla profondità di ventuno metri la trivella entrò in un crepaccio. Il lavoro fu sospeso ma, il giorno dopo dal tubo collegato al foro già scavato fuoriuscí un fluido scuro che galleggiava sull’acqua.
Drake installò subito una normale pompa a mano e pompò il liquido. Lo esaminò con grande eccitazione annusandolo e sfregandolo tra le dita. Alzò poi le braccia verso il cielo e con tutta la forza che aveva nei polmoni gridò: è petrolio! È petrolio! Mentre “zio Billy” e i ragazzi riempivano, anch’essi eccitati, catini, vasche e barili, non mancando di immergervi le braccia fino ai gomiti. La notizia si sparse in un baleno e iniziò una folle corsa all’accaparramento di terreni da trivellare. Anche George Bissell, promotore originario del progetto, fu tra coloro che si precipitarono a Titusville acquistando terreni contigui a quello interessato dal ritrovamento. L’intera popolazione era quasi impazzita. Mai visto niente di simile.
La corsa al petrolio fu spinta dalla frenesia di produrne la massima quantità nel minor tempo possibile. I pozzi si moltiplicarono a dismisura e la Guerra di Secessione quasi non incise sul frenetico boom del petrolio; al contrario, diede addirittura maggiore stimolo allo sviluppo degli affari. Ma il fattore piú importante che contribuì a definire il contesto legale della produzione petrolifera americana e, nello stesso tempo, il suo considerevole sviluppo, fu costituito dalla “regola della cattura”. Una dottrina basata sul diritto consuetudinario inglese, in base alla quale il proprietario di una tenuta aveva il diritto di uccidere un animale non domestico che proveniente da un’altra tenuta fosse entrato nella sua proprietà. Applicata al petrolio, la regola della cattura specificava che i vari proprietari delle aree sovrastanti una falda petrolifera comune potevano estrarre tutto il petrolio che volevano, anche a rischio di esaurirla o di ridurre conseguentemente la produzione dei pozzi vicini appartenenti ad altri. Alla regola della cattura, ovvero dell’accaparramento egemonico del petrolio nel mondo, si uniformerà il modus operandi delle grandi compagnie petrolifere americane e inglesi, protagoniste del “grande gioco”.
Gli azionisti della Seneca acquistarono immediatamente i terreni circostanti, ma la notizia della scoperta si propagò come un’onda d’urto e i prospettori affluirono a fiotti. Ribattezzata “0il Creek” (La valle del petrolio), la regione era degna del suo nome e offriva il deprimente spettacolo di uomini che sguazzavano, tra le torri di trivellazione, in un mare di fango, petrolio e detriti. Nei primi anni a seguire venne imposta una legge intangibile che per lungo tempo dominò l’universo dell’oro nero: il mercato del petrolio si basa sulla domanda.

L’anno seguente alla scoperta di Drake, il prezzo del petrolio raggiunse l’impressionante cifra di 20 dollari al barile ma, a causa dell’inesistenza di significativi sbocchi commerciali, il prezzo scese rapidamente. Nel 1861 il barile non valeva più di 10 centesimi e il prezzo scese ancora, fino a rendere il petrolio un prodotto meno caro dell’acqua.
Eppure, nello stesso momento, si inizia a parlare di un uomo di ventisei anni, un ex contabile dal fisico austero chiamato John D. Rockefeller figlio di William Avery Rockefeller e Eliza Davison. Quando John era solo un ragazzo, dalla città natale la famiglia si spostò prima a Moravia e poi a Owego, sempre nello stato di New York,. Nel 1853 la famiglia si sposta a Cleveland, in Ohio. Qui il futuro miliardario frequenta la Central High School, e si iscrive anche alle Erie Street Baptist Church, e a soli 21 anni ne diventa amministratore fiduciario. Nel 1855 finì la scuola e si iscrisse ad un corso di business al Folsom Mercantile College. In seguito fu assunto come contabile in una piccola società, la Hewitt & Tuttle.
Nel 1858 fondò la sua prima società, la Clark & Rockefeller, che nel 1863 investì in una raffineria di petrolio. In seguito fondò una partnership con Andrews e assieme a questi, ad Henry Flager e Stephen Harkness fondò la Standard Oil, che avrebbe dominato il mercato mondiale del petrolio. I numerosi produttori e raffinatori si erano scavati la fossa affidandosi a una concorrenza selvaggia che aveva generato una situazione di sovrapproduzione. Da padrone del gioco, Rockfeller assaporò la loro sconfitta dicendo: “Le persone coraggiose, se avessero prodotto meno petrolio di quello richiesto, ne avrebbero ricavato il prezzo massimo”.
Una delle vittime di questo sistema fu proprio la Seneca Oil. Nel 1864 la compagnia licenziò Edwin Drake con un’indennità di 731 dollari. Costui visse il resto della sua esistenza in profonda miseria e morì qualche anno più tardi quasi completamente invalido. Il “grande gioco” della Standard Oil di Rockefeller aveva spazzato via gran parte della concorrenza nel settore della raffinazione del petrolio in molti Stati dell’Unione americana. La sua abilità nel saper sfruttare una momentanea fase d’incertezza del settore gli permise di acquistare e assorbire a basso costo le strutture di raffinazione della concorrenza. Rockefeller non aveva possedimenti nel settore estrattivo primario, il settore era composto da una miriade di piccoli produttori di greggio malorganizzati e spesso rissosi.
Nel 1872 ideò il progetto di riunire tutte le raffinerie in un unico grande compratore coinvolgendo anche le industrie concorrenti. Nacque la South Improvement Company. Il suo scopo era di accentrare la domanda di petrolio in un unico acquirente di greggio, detto “operatore unico”, per spingere verso il basso il prezzo delle trattative con i piccoli produttori di petrolio, in breve si mirava ad una pura strategia di monopolio.
Inevitabilmente i produttori di petrolio si ribellarono al progetto trovando l’immediato appoggio della grande stampa dell’epoca che iniziò a dipingere Rockefeller come un imprenditore monopolista e privo di etica e in preda al delirio di potere. L’opinione pubblica si schierò di conseguenza dalla parte dei piccoli produttori e si diffuse nel paese un grande dibattito sul trust e sul monopolio.
La “guerra del petrolio” dei piccoli produttori giunse fino alla serrata prolungata della produzione di greggio lasciando letteralmente a secco le raffinerie di Rockefeller e della concorrenza. Il gesto segnò la definitiva vittoria dei piccoli produttori di petrolio. Dopo solo due mesi di vita il consorzio South Improvemente Company venne sciolto.
Il piano tattico di Rockefeller finalizzato a controllare il prezzo di acquisto del petrolio era fallito.
In realtà era fallita soltanto la sua prima mossa che mirava a sfruttare a proprio vantaggio la concorrenza del settore primario. Restava un’altra carta da giocare, l’integrazione verticale del settore estrattivo. In breve Rockefeller decise di estendere il business della Standard Oil anche nella produzione di greggio acquistando i principali giacimenti petroliferi americani. In questo modo poteva eliminare del tutto il problema dei piccoli produttori e gestire in prima persona il flusso di petrolio da raffinare.
Al termine del 1870 l’impero del petrolio di Rockefeller copriva quasi completamente il mercato americano ed il suo “gioco” mirato a cancellare la concorrenza era ormai chiaro a tutti e non poteva più essere nascosto.
L’ascesa della Standard Oil negli Stati Uniti aveva chiuso il mercato americano agli investitori stranieri ma, nello stesso tempo, rappresentava un esempio da imitare nel mondo. Soprattutto in Russia il successo commerciale-tecnologico statunitense venne imitato utilizzando logiche commerciali altrettanto forti e spietate.
Nella Russa zarista dell’ottocento erano stati localizzati grandi giacimenti petroliferi nella zona di Baku fin dagli inizi del secolo. Il processo di estrazione antiquato non ha però mai consentito un decollo commerciale della produzione di greggio russo fino all’arrivo dei Nobel e dei Rothschild.
I Nobel sono un antico casato svedese di cui si possono ripercorrere le tracce fino al XVII secolo, quando un antenato di nome Peter, discendente di generazioni di agricoltori le cui radici si possono individuare nel villaggio di Nöbbelöv, nella Svezia meridionale, frequentò all’Università di Uppsala i corsi di Giurisprudenza. Nel Seicento la cultura era ancora sotto l’egida del latino e dunque Petrus divenne Nobelius in omaggio all’uso dell’epoca, senza rinunciare a indicare il luogo di origine: Nöbbelöv, appunto. Fu facile per gli epigoni della generazione successiva operare ancora un’elisione, riducendo il cognome all’universalmente noto Nobel.
I fratelli svedesi Nobel furono i primi a trasformare il potenziale russo in business mondiale applicando processi e programmazioni di stampo industriale. Nel 1876 il petrolio russo della Nobel brothers, sotto la guida di Ludwig Nobel, iniziò a rifornire il mercato interno dell’illuminazione nelle fredde città russe. Per colmare le grandi distanze del continente russo utilizzarono le prime petroliere della storia tagliando enormemente i costi di trasporto del greggio. In soli dieci anni, nel 1885, la Nobel Brothers riuscì a raggiungere una produzione annuale di nove milioni di barili, pari a un terzo della produzione americana.
Il clima invernale rigido nel mar Baltico impedivano ogni forma di trasporto durante le stagioni fredde limitando le mire espansionistiche dei Nobel sui mercati esteri. Per superare questa barriera naturale la Russia autorizzò la costruzione di una ferrovia da Baku verso i porti del mar Nero. Una nuova via commerciale “a sud” per consentire una commercializzazione del petrolio russo durante l’intero corso dell’anno. La realizzazione dell’opera richiese forti finaziamenti dall’estero e fu completata dalla ricca famiglia ebrea dei Rothschild che fece in questo modo la sua comparsa sui mercati russi tramite la fondazione della Caspian and Black Sea Petroleum (Bnito).
Le origini di questa casa finanziaria risalgono alla Germania del 1743, nella città di Francoforte, quando, cinquant’anni dopo la nascita della banca d’Inghilterra, un orafo ebreo di nome Amschel Moses Mayer inaugurò un locale per il conio di monete, collocando sull’entrata un’insegna rappresentante un’aquila romana su uno scudo rosso; il negozio divenne noto come la Ditta dello Scudo Rosso o, in lingua tedesca, Rothschild.
Quando il figlio di Mayer, ereditò la conduzione dell’azienda, decise di cambiare il nome appunto in Rothschild, dando così origine alla dinastia; egli imparò ben presto che prestare denaro a governi e monarchi era assai più vantaggioso che farlo nei confronti di singoli privati, in quanto non solo i prestiti erano di maggiore entità, ma venivano anche assicurati dalle tasse delle varie nazioni.
Mayer Rothschild aveva cinque figli che addestrò alle segrete tecniche di creazione e manipolazione del denaro e che inviò nelle principali capitali europee per aprire filiali della banca di famiglia; stabilì inoltre che uno dei figli di ogni generazione avrebbe diretto gli affari della casa (escluse le donne). E i conti li sapevano fare molto bene! Conti che dirottavano sempre più verso operazioni finanziarie speculative su titoli britannici ed esteri, cambi valute, metalli pregiati ecc.
Narra la leggenda che una banca della famiglia abbia addirittura finanziato John D. Rockefeller per la sua monopolizzazione della raffinazione del petrolio che portò alla fondazione della Standard Oil. Dopo la prima guerra mondiale il denaro Rothschild finanziò la ricostruzione post-bellica in Francia, Germania, Cecoslovacchia ed Ungheria.
La città portuale di Batum divenne così uno dei porti più importanti del mondo nelle mani dei Rothschild e dei Nobel.
Il petrolio russo iniziava la sua conquista dei mercati mondiali e la Standard Oil cominciò a guardare con preoccupazione verso i mercati orientali ed europei. Il “grande gioco” mondiale era appena iniziato.
L’apertura della via di Batum consentì alle società russe dei Nobel e dei Rothschild di espandere le proprie esportazioni verso i mercati dell’Europa. Il “grande gioco” del petrolio aveva raggiunto una scala mondiale e l’americana Standard Oil iniziò a comprendere il rischio di perdere il monopolio sul mercato mondiale del greggio.
Per contrastare la nascente concorrenza russa la Standard Oil tentò inutilmente la strada dell’accordo consociativo con le nascenti società russe per realizzare un trust mondiale. Tutte le proposte nascondevano però la strategia di “scalare” le società. Una strategia intuita dai concorrenti russi, altrettanto scaltri degli americani nell’adottare politiche finanziarie senza scrupoli.
La produzione russa di greggio aveva quasi raggiunto i livelli di quella americana. La Nobel Brothers adottò una politica aggressiva di prezzo per conquistare i mercati di sbocco in Europa. La Standard Oil reagì duramente a questa politica tramite il dumping, ossia la vendita del greggio americano sui mercati europei a prezzi inferiori dei costi di produzione e di trasporto al fine di far fallire i concorrenti russi e riconquistare il mercato mondiale. Il potere finanziario della Standard Oil consentiva non solo di coprire i costi ma anche di realizzare vere e proprie campagne diffamatorie sulla presunta “cattiva qualità” del petrolio russo.
Il terreno di scontro tra la Standard, i Nobel ed i Rothschild fu la Gran Bretagna dove, quasi contemporanemente, le tre società aprirono le proprie filiali commerciali. Il potere finanziario della Standard Oil era però troppo forte per essere contrastato a lungo e le imprese russe iniziarono a guardare verso i mercati orientali per trovare altre fonti di entrata economica.
La politica di dumping nei prezzi sottocosto della Standard Oil sui mercati europei costrinse i concorrenti russi a ricercare altre fonti di entrata per affrontare una concorrenza che oggi definiremmo sleale. Sia i Rothschild sia i Nobel guardarono con attenzione ai lontani mercati di sbocco dell’estremo oriente.
I Rothschild trovarono un’intesa con Marcus Samuel, un abile commerciante londinese che da decenni aveva instaurato fiorenti rapporti commerciali con l’estremo oriente grazie all’apertura del Canale di Suez.
L’uso del Canale era stato però proibito alle petroliere per ragioni di sicurezza e il transito era stato già negato anche alla stessa Standard Oil. La via delle Indie per il petrolio sembrava pertanto chiusa per tutte le compagnie.
L’accordo tra Samuel e i Rothschild riuscì ad aprire le porte del canale alle sole petroliere inglesi. Da un lato la ricca famiglia inglese dei Rothschild erano titolari di una grande quantità di azioni del Canale di Suez, dall’altro il governo inglese comprese immediatamente il vantaggio economico della decisione. La presenza di Marcus Samuel nell’impresa garantiva una forte presenza commerciale inglese. Nel 1892 le petroliere di Samuel solcarono il canale per commerciare il petrolio russo nei lontani mercati dell’estremo oriente. Una curiosità, tutte le petroliere di Samuel portavano il nome di una conchiglia in onore al padre di Samuel che seppe sfruttare la rotta commerciale con l’oriente per importare prodotti esotici e conchiglie rivendute a prezzi elevati sui mercati occidentali. Marcus Samuel vide moltiplicare in breve tempo le sue fortune commerciali con l’oriente divenendo uno degli uomini d’affari più importanti nell’Europa di fine ottocento.

La Standard Oil era rimasta completamente all’oscuro del piano commerciale di Samuel e si ritrovò del tutto spiazzata sui mercati orientali. Il trasporto del petrolio americano era realizzato ancora tramite i barili, un sistema di trasporto diventato del tutto obsoleto rispetto alla grande distribuzione organizzata da Marcus Samuel.
Il “grande gioco” si era spostato sui mercati dell’estremo oriente e la guerra commerciale era tutt’altro che finita.
L’apertura del Canale di Suez alle petroliere inglesi di Marcus Samuel consentì al petrolio russo di conquistare i lontani mercati dell’estremo oriente. La via commerciale tracciata da Samuel poneva il petrolio russo in una posizione competitiva rispetto a quello americano.
Il porto russo di Batum, mediante l’uso del Canale di Suez, distava da Singapore ben 5.000 chilometri in meno rispetto al porto americano di Filadelfia. I mercati asiatici, pur essendo marginali rispetto a quelli europei o americani, garantivano alle compagnie russe un’importante fonte di entrata economica per poter affrontare la feroce concorrenza della Standard Oil sui mercati europei.
La Standard Oil cercò di acquisire la società Royal Dutch, una società olandese operante nell’estrazione del petrolio nelle Indie orientali olandesi dove esistevano interessanti riserve di greggio nel territorio di Sumatra. La vicinanza dei pozzi petroliferi ai mercati di sbocco avrebbe permesso una dura concorrenza alle compagnie russe anche sui mercati orientali.
La “scalata” finanziaria tentata dalla Standard Oil, però, non gli consentì di conquistare il controllo della Royal Dutch poiché la società olandese associò il controllo della società soltanto al possesso di speciali azioni privilegiate. La Royal Dutch godeva del pieno appoggio del governo olandese ed era malvista una sua conquista da parte degli americani.
Il mondo però stava per cambiare ancora sotto la spinta dell’innovazione tecnologica. Da un lato la diffusione dell’elettricità rendeva obsoleto il vecchio sistema di illuminazione delle città tramite il gas o il petrolio, dall’altro avevano fatto la prima comparsa le automobili con motore a scoppio. Tutto doveva essere rimesso in discussione e l’evoluzione dei fatti favorì le compagnie americane.
Alla fine dell’ottocento la spinta dell’innovazione tecnologica mutò gli equilibri petroliferi mondiali. La nascente rete elettrica ridusse il fatturato delle industrie petrolifere fornitrici del gas di città. La precedente rete urbana di illuminazione era basata sull’utilizzo del gas o del petrolio. L’avvento dell’elettricità si presentò come uno spettro del fallimento per molte compagnie petrolifere.
Nello stesso periodo storico si diffusero rapidamente le automobili come mezzo di locomozione privato alternativo alle carrozze. Il motore a combustione interna delle automobili impiegava come carburante la benzina, un sottoprodotto della lavorazione del petrolio fino allora di importanza secondaria. Questo sconosciuto sottoprodotto della raffinazione del petrolio era usato come solvente o per alimentare piccoli fornelli, con l’arrivo delle automobili fece l’ingresso sui mercati mondiali acquisendo un crescente valore aggiunto. La domanda della benzina permise alle raffinerie petrolifere di compensare il calo della domanda nel mercato urbano dell’illuminazione.
Nel 1908, Henry Ford lanciò il suo famoso modello T che, così come recitava lo slogan, era “la macchina di cui ciascuno potrà scegliere il colore, a condizione che sia nero”. All’epoca non erano sufficienti 18 operazioni per costruire un’automobile, ma 7.882. Ford, nella sua autobiografia, precisa che, di queste 7.882 operazioni, 949 necessitavano di “uomini vigorosi, robusti e praticamente perfetti dal punto di vista fisico”, 3.338 richiedevano uomini di una forza fisica “semplicemente normale”, quasi tutto le altre potevano essere affidate a “delle donne e/o a degli adolescenti”. Ford aggiunge freddamente: “Abbiamo constatato che 670 operazioni possono essere realizzate da persone senza gambe, 2.637 da persone prive di una gamba sola, 2 da uomini dalle braccia amputate, 715 da persone monche e 10 da ciechi”. Detto altrimenti, per il lavoro specializzato non occorre un uomo intero: un pezzo di uomo può essere sufficiente. Una constatazione tanto cinica interpreta il lavoro specializzato nei suoi limiti più estremi.
Il mercato delle automobili nacque contemporaneamente in Europa e negli Stati Uniti ma furono soltanto questi ultimi ad assistere a una rapida crescita del mercato. L’introduzione della catena di montaggio di Henry Ford, proprietario fondatore dell’omonima casa automobilistica americana, inaugurò il ciclo di produzione su scala dell’automobile. La crescente scala produttiva ridusse i costi unitari di produzione e pertanto anche il prezzo finale di vendita dell’automobile. In pochi anni tutti i cittadini americani poterono acquistare un’utilitaria e l’automobile divenne il bene di consumo di massa per eccellenza. Due leggende americane si incontrano. A beneficiarne, indirettamente, furono le compagnie petrolifere americane, tra cui l’ormai celebre Standard Oil di Rockefeller, principale produttore e distributore dei prodotti di raffineria negli Stati Uniti d’America. In Europa l’introduzione della catena di montaggio tardò per parecchi anni e il mercato dell’automobile restò appannaggio soltanto per le élite e per i consumatori benestanti. Questa lentezza penalizzò le compagnie petrolifere europee ed asiatiche rispetto a quelle operanti nel territorio americano.
Il mercato dei carburanti non si limitò soltanto alle automobili. Dopo oltre cento anni il motore a vapore delle navi, dei treni e delle caldaie fu sostituito con il motore a gasolio contribuendo a dare un’ulteriore spinta alla domanda mondiale dei carburanti.
La corsa verso gli Stati Uniti. Le innovazioni tecnologiche di fine ottocento trasformarono gli Stati Uniti nel principale mercato di sbocco dei prodotti petroliferi mondiali. Le compagnie europee ed i finanzieri di ogni parte del mondo iniziarono a valutare la localizzazione degli impianti d’estrazione e raffinazione del petrolio direttamente negli Stati Uniti per avvicinare il punto di produzione al punto di consumo ed evitare il peso del costo di trasporto del prodotto finito.
La grande compagnia petrolifera fondata Rockefeller non ha mai goduto della simpatia dei cittadini americani. Il rapido sviluppo economico negli Stati Uniti stava modificando bruscamente il tessuto industriale microconcorrenziale americano soppiantato dalla nascita dei grandi monopoli o trust in quasi tutti i settori economici. Agli inizi del novecento il capitalismo americano stava perdendo la connotazione famigliare-pionieristica dell’emporio azienda per assumere quella moderna del gigantismo industriale. L’opinione pubblica americana visse questa fase storica con la tipica paura per il cambiamento ed i giornali dell’epoca non fecero altro che enfatizzare i mali del nuovo capitalismo auspicando il ritorno all’epoca concorrenziale americana.
Il trust del petrolio era quello che meglio dipingeva la situazione. La politica commerciale aggressiva e senza scrupoli della Standard Oil non era poi così diversa dai trust nel settore industriale. Era il segno di un mondo che stava cambiando in fretta senza dare modo alle generazioni americane di adattarsi. Per questi motivi l’antitrust divenne un obiettivo particolarmente sentito dalla classe politica americana.
Nel 1906 il presidente Roosevelt denunciò la Standard Oil per cospirazione contro il libero commercio americano e nel 1909 la corte federale sentenziò lo smembramento obbligatorio della compagnia di Rockefeller. Il grande impero commerciale venne scorporato tramite un piano presentato nel 1911 dagli stessi vertici della Standard Oil. Dalla divisione della società nacquero le compagnie petrolifere che ancora oggi riempiono di benzina i serbatoi di mezzo mondo come la Exxon (Esso), la Mobil, la Chevron, la Amoco e la Comoco.
I legami della Stantard Oil sopravvissero però allo smembramento. La divisione eliminò il legame di dipendenza tra le compagnie territoriali e la holding ma non riuscì a mutare la politica industriale di ogni singola impresa. Le compagnie petrolifere nate dalla chiusura della holding Standard Oil continuarono a praticare le vecchie politiche e denominazioni commerciali vendendo nei rispettivi mercati territoriali americani e senza interferire negli affari delle ex società del gruppo. Lo spettro della Standard Oil di Rockefeller sopravvisse nei dirigenti delle nuove compagnie che continuarono a sentirsi “cugini” piuttosto che concorrenti. Il valore azionario delle compagnie raddoppiò immediatamente.
Di fatto, lo smembramento della Standard Oil ebbe come risultato un rapido e ulteriore arricchimento patrimoniale degli azionisti di maggioranza.
Rockefeller uscì vincitore anche dalla sua ultima battaglia ed entrò a pieno diritto nella storia del capitalismo mondiale e nella leggenda americana.
Alla fine dell’ottocento il mercato del petrolio in Europa accusò lo shock della diffusione della rete elettrica per l’illuminazione delle strade. L’invenzione di Edison mise lentamente fuori mercato il cherosene e l’illuminazione tramite gas o prodotti petroliferi. Rispetto ai mercati americani il mercato dell’automobile rimase un privilegio per pochi consumatori abbienti. Mancò pertanto quella spinta sulla domanda di petrolio che si presentò negli USA per effetto della rivoluzione introdotta da Henry Ford con la produzione su scala delle automobili.
La Shell e la Royal Dutch controllavano gran parte del petrolio russo e asiatico. La concorrenza tra le due compagnie non favoriva nessuno. I vertici delle due compagnie si accorsero del problema ma non riuscirono a trovare facilmente un accordo per la fusione. A capo della Shell ritroviamo Marcus Samuel mentre ai vertici della Royal Dutch si era insediato Henry Deterding come direttore della compagnia. Samuel e Detering erano leader carismatici nelle rispettive compagnie, nessuno dei due avrebbe rinunciato facilmente al proprio prestigio interno. L’accordo era però inevitabile per affrontare la sfida mondiale con l’americana Standard Oil. Nel 1902 nacque la Shell Transport Royal Dutch, conosciuta come British Dutch. La Shell e la Royal Dutch si trasformarono in holding delle società consociate. Henry Deterding assunse la guida del grande gruppo europeo mentre Samuel ricoprì la figura di presidente.
La Standard Oil cercò immediatamente di acquistare il gruppo anglo-olandese ma la cessione non era tra i piani di Deterding. Tra i due colossi del petrolio si aprì una lunga guerra commerciale sui mercati mondiali. L’americana Standard Oil iniziò a praticare prezzi più bassi sui mercati europei per ridurre il margine di profitto della Royal Dutch/Shell. Henry Deterding rispose acquisendo stabilimenti petroliferi sul territorio americano dove la Standard Oil continuava a praticare prezzi di vendita più alti. Lo scontro si spostò anche sul mercato cinese dell’olio illuminante dove la Royal Dutch/Shell riuscì a battere sul tempo la Standard Oil.
In Russia nei primi anni del novecento l’impero zarista era ormai sull’orlo del definitivo crollo. Il malcontento popolare era alimentato anche da una politica governativa inadeguata ed eccessivamente imperativa. La rivoluzione bolscevica sarebbe stata la logica conseguenza di questi errori. Durante le agitazioni di protesta che portarono alla rivoluzione furono distrutti gran parte dei pozzi petroliferi, divenuti simbolo delle cattive condizioni di vita dei lavoratori russi. La produzione petrolifera era l’anello critico del sistema, gli scioperi degli operai nell’industria petrolifera russa miravano indirettamente a far tracollare il paese nella crisi economica per indebolire il governo dittatoriale dello Zar. Nel 1912 la famiglia dei Rothschild fu costretta dalla crisi a vendere tutti gli stabilimenti russi alla Royal Dutch/Shell. La produzione petrolifera russo continuò comunque a calare. Lo scoppio della prima guerra mondiale segnò il definitivo declino dell’industria petrolifera negli stabilimenti russi di Baku. Tra i fomentatori rivoluzionari che contribuirono alle lunghe manifestazioni e scioperi degli operai dell’industria petrolifera russa si annovera anche il nome del giovane Stalin.
Una studio di alcuni geologi indicava nelle vaste aree della Persia un grande potenziale petrolifero. Le riserve petrolifere nel Medio Oriente erano comunque note fin dall’antichità, quelle in superficie erano utilizzate per attività edili o medicinali.
Agli inizi del novecento fu lo stesso governo persiano a sollecitare l’attenzione delle società petrolifere occidentali offrendo loro le concessioni di ricerca e prospezione. L’investimento era a elevato rischio. Il Medio Oriente era considerato un terreno di conquista dalla Russia e dalla Gran Bretagna. Qualsiasi attività di ricerca petrolifera straniera avrebbe fatto sorgere la pressione di una delle due grandi potenze dell’ottocento. Ai delicati equilibri dello scacchiere politico internazionale si aggiungeva le difficoltà ad operare in un clima fatto di tumulti e proteste popolari degli integralisti religiosi contro l’eccessiva presenza straniera sui territori arabi.
La risposta arrivò nel 1903 da uno speculatore inglese, William Knox D’arcy, abituato ad operare con una rete di intermediari qualificati a trattare affari ad alto rischio. La crisi del governo zarista e il suo impegno bellico nella guerra contro il Giappone ridusse l’attenzione del governo russo nell’area persiana. Per precauzione D’Arcy fece comunque escludere dalla concessione petrolifera le aree settentrionali della Persia confinanti con la Russia. Il governo inglese sostenne l’iniziativa privata di D’Arcy finanziando l’acquisto e la negoziazione della concessione con lo scià Mu-zaffar al-Din.

Le prime prospezioni operate da D’Arcy nei pressi di Baghdad non ebbero successo. Il governo britannico non accettò di rinnovare il finanziamento dell’impresa ma, al contempo, non gradiva l’ipotesi che le prospezioni fossero continuate dalle imprese russe. La soluzione arrivò tramite il coinvolgimento di una società petrolifera scozzese, la Burmah Oil, che rilevò l’impresa di D’Arcy fornendo capitali e mezzi necessari per continuare la ricerca delle riserve petrolifere sui territori persiani.
Le continue proteste popolari provocarono la caduta dello Scià e le grandi potenze si accordarono per una pacifica divisione della Persia in sfere d’influenza geopolitica.
Nel 1908 venne scoperto il primo grande giacimento petrolifero sul territorio persiano, si trovava a Masjid-i-Suleiman. Il consorzio della Burmah Oil si trasformò in Ango-Persian Oil Company (APOC) che si aprì all’azionariato pubblico riscuotendo grande successo e ottenne la protezione ufficiale del governo britannico. La APOC si trasformò nel lungo braccio del governo britannico sulle ricche riserve petrolifere del Medio Oriente.
Nei primi anni del novecento il petrolio diventa una materia strategica. Dalle disponibilità di petrolio di un paese dipendeva la capacità militare di affrontare la guerra e la resistenza agli attacchi esterni. Qualsiasi flotta militare sarebbe stata inutilizzabile senza carburante. Divenne pertanto un affare di Stato da proteggere o conquistare con l’intervento militare se necessario.
Fu comunque un passaggio graduale. Il primo Stato a conferire importanza strategico-militare al petrolio fu la Gran Bretagna. Nel 1912 i venti di guerra iniziavano a spirare sull’Europa. L’espansionismo tedesco sui mari precedentemente dominati dagli inglesi destò preoccupazione. Il governo britannico decise un piano di rapido ammodernamento della flotta britannica dotandole di motori a nafta. L’intera flotta fu riconvertita da carbone a petrolio in soli due anni.
Tutte le flotte delle altre potenze militari erano ancora basate sull’utilizzo del carbone. L’utilizzo del petrolio come carburante nautico conferiva alle navi inglesi della Royal Navy una maggiore velocità di manovra e di spostamento. La decisione del governo inglese si dimostrò vincente nelle future battaglie navali durante la prima guerra mondiale.
Le ragioni dell’adozione del petrolio per le flotte navali aveva origini anche dal punto di vista strategico. Le riserve di carbone inglesi erano insufficienti per rifornire la flotta di sua Maestà in caso di conflitti bellici prolungati. L’Inghilterra avrebbe comunque dovuto cercare una materia prima energetica all’esterno dei propri confini geografici. La via del petrolio era quella più sicura. Gli inglesi occupavano già le riserve in Medio oriente.
L’approvvigionamento di petrolio era pertanto diventato un affare di Stato di vitale importanza per il Regno Unito che, per garantirsi la disponibilità delle riserve petrolifere, decise di trasformare la società petrolifera Anglo Persian Oil Company in azienda controllata a maggioranza assoluta dallo Stato. Il governo inglese acquistò il 51% delle azioni della APOC diventando l’azionista di maggioranza assoluta.
In questo modo il governo britannico si assicurò l’approvvigionamento petrolifero senza sottostare alle leggi di mercato e agli interessi puramente capitalistici degli investitori americani. La nuova gestione dell’azienda petrolifera pubblica doveva invece seguire logiche politico-strategiche al servizio del governo inglese.
La APOC beneficiò del potente apparato politico-diplomatico inglese. Gli interessi del governo inglese, i servizi segreti e l’industria petrolifera internazionale si erano inesorabilmente intrecciati. Ancora oggi, dopo ben cento anni di storia, assistiamo agli scacchieri internazionali fortemente dipendenti dal petrolio e basati sulle stesse logiche nate nel primo novecento.
La decisione inglese di ammodernare la flotta inglese dotandola di motori nafta fu vincente. La Royal Navy ottenne un grande vantaggio in velocità di spostamento rispetto a quelle tedesche. La presenza militare inglese in Medio oriente garantiva un flusso continuo nell’approvvigionamento di petrolio. Il Regno Unito poteva contare sulla presenza militare inglese nel protettorato britannico del Kuwait.
Non fu un caso che le posizioni inglesi e russe trovarono una rapida convergenza politica durante la prima guerra mondiale. La Russia e l’Inghilterra controllavano militarmente le regioni mediorientali divenute riserve strategiche di carburante. Una guerra reciproca sul territorio mediorientale avrebbe danneggiato irreversibilmente anche gli altri fronti bellici in Europa. Un motivo in più per stare dalla stessa parte e Russia e Inghilterra parteciparono come alleati alla prima guerra mondiale.
Lo scoppio della guerra interruppe la collaborazione anglo-tedesca in Mesopotamia realizzata con la Turkish Petroleum Company. La compagnia petrolifera anglo-tedesca nacque nel 1912 per gestire lo sfruttamento dei giacimenti di Mosul e Baghdad.
Nel novembre del 1914 le forze militari britanniche stanziate in Kuwait invasero i territorio meridionali dell’Iraq ottomano. In pochi giorni conquistarono Bassora. La conquista inglese dei territori mesopotamici occupati dai turchi ottomani era ostacolata dalla resistenza delle popolazioni arabe e curde a nord e di quelle sciite a sud. In particolar modo nell’Iraq meridionale le popolazioni sciite avevano inizialmente appoggiato l’invasione inglese contro l’occupazione turca per poi rivoltarsi contro la stessa occupazione inglese in una vera e propria jihad. Il rapporto col mondo arabo era però complesso. Nel 1916 le forze aeronavali inglesi favorirono la rivolta araba alla Mecca e a Taif contro l’occupazione turca. Per dare organizzazione alla rivolta araba venne indviduato un leader in grado di unire le tribù arabe. Era il giovane Feisal. Il governo inglese gli affiancò l’archeologo inglese Lawrence d’Arabia, profondo conoscitore del mondo arabo e pedina importante del servizio segreto britannico. La rivolta araba aprì la strada alle truppe inglesi lungo le piste del deserto che si sarebbero presentate come proibitive per qualsiasi esercito regolare. Nel 1919 la conquista inglese dei territori mesopotamici si completò con l’ingresso delle truppe inglesi a Damasco.
Le riserve petrolifere mediorientali decisero il conflitto a favore degli alleati. Le industrie petrolifere russe di Baku erano ormai al limite della capacità produttiva a causa delle continue proteste degli operai. L’ingresso in guerra diede il colpo di grazia a questi impianti. Il blocco navale allo stretto dei Dardanelli aveva interrotto gli scambi marittimi con il resto del mondo. Le armate tedesche posero gli impianti di Baku tra i primi obiettivi strategici da occupare o distruggere. Così avvenne.
Allo stesso modo la Germania cercò di conquistare le aree petrolifere mediorientali stringendo l’alleanza in guerra con la Turchia. Le truppe dell’impero ottomano attaccarono a più riprese i pozzi petroliferi occupati dalle truppe inglesi in medioriente, senza mai riportare alcun successo.
Col prolungarsi del conflitto le vie di comunicazioni del petrolio furono la vera prima guerra mondiale. Il controllo dell’approvvigionamento petrolifero consentiva l’immobilismo delle armate e delle flotte sempre più dipendenti a carri e macchinari alimentati a nafta. La lunga guerra di trincea avrebbe premiato la nazione in grado di resistere più a lungo. La flotta tedesca mise in azione un’intera flotta di sottomarini per intercettare le navi cisterna alleate. Nel 1917 la guerra tedesca alle rotte commerciali petrolifere provocò ufficialmente l’ingresso degli Stati Uniti nel conflitto. In realtà la guerra tedesca alle rotte petrolifere aveva dato risultati sperati. Le truppe alleate erano in seria difficoltà per la scarsità del petrolio. L’ingresso degli Stati Uniti era pertanto un’ufficializzazione dell’appoggio politico dato degli americani anche negli anni precedenti.
La guerra del petrolio ebbe un ruolo decisivo sull’esito del conflitto mondiale. La prima guerra mondiale si concluse nel 1918 con la vittoria delle forze alleate su quelle tedesche.
La fine della prima guerra mondiale disegnò nuovi equilibri geopolitici. La Germania e la Turchia, uscite sconfitte dal conflitto, persero completamente ogni diritto sui giacimenti petroliferi mesopotamici. Scomparve anche la Russia come antagonista dello scacchiere petrolifero in Medio oriente. La rivoluzione bolscevica aveva destabilizzato il governo russo e la sua capacità nel controbilanciare l’espansionismo inglese.
Le potenze vincitrici del primo conflitto mondiale si divisero il mondo con un’ottica ancora coloniale. Le zone aride del medioriente, un tempo importante crocevie dei commerci con le indie, divennero strategicamente importanti per le riserve petrolifere.
La Gran Bretagna ottenne il pieno controllo dei ricchi giacimenti mediorientali. Il governo inglese riunì tre ex province del decaduto impero ottomano e diede vita allo stato dell’Iraq. Le tre province era completamente diseguali tra loro, sunniti, sciiti, yazidi, ebrei e curdi, gruppi etnici e religiosi diversi che non formarono mai una comune identità nazionale. La guida dell’Iraq fu affidata nuovamente al principe Hashemita Feisel. Era necessario garantire un governo filobritannico che garantisse la stabilità politica nel paese necessaria per proteggere la “via del petrolio” ed i traffici commerciali verso l’Inghilterra. Feisel sembrava la persona adatta per gli interessi inglesi. Il controllo diretto dell’Iraq da parte di un governo inglese avrebbe comportato grandi rivolte popolari. Il territorio iracheno era sotto il controllo degli sceicchi arabi, in continua lotta tra loro ma accomunati dal sentimento nazionalista arabo verso l’invasore straniero. Il governo di Feisel, divenuto re dell’Iraq nel 1921, privilegiò l’ascesa dei sunniti alle cariche pubbliche. La maggioranza della popolazione di origine sciita restò fuori da ogni coinvolgimento di governo. Il nord del paese era caratterizzato dalle continue rivolte della popolazione cuda. Con il regno di Feisel l’Iraq si trasformò in un vero e proprio protettorato britannico. Le imprese britanniche si assicurarono sia le concessioni sia lo sfruttamento dei ricchi giacimenti petroliferi mesopotamici.
La spartizione delle concessioni petrolifere in Medio Oriente tra Inghilterra, Francia e Stati Uniti. Le nazioni vincitrici della prima guerra mondiale chiesero e ottennero la partecipazione allo sfruttamento del petrolio iracheno. Nel 1928 le concessioni di sfruttamento vennero spartite tra la Royal Dutch, l’Anglo Persian, la francese Compagnie Française des Pétroles e l’americana Near East Development Company. Il coinvolgimento americano allo sfruttamento delle riserve petrolifere medioreantali era un atto dovuto. Da un lato rappresentava il prezzo per l’intervento americano nella prima guerra mondiale a fianco degli inglesi. Dall’altro rafforzava la posizione occidentale nel controllo dell’area mediorientale politicamente instabile e ostile alla presenza straniera. L’arrivo dei capitali americani avrebbe infine accelerato le attività di ricerca e prospezione.
Nel 1930 l’Iraq di Feisel ottenne l’indipendenza formale dall’Inghilterra ed entrò come paese indipendente nella Società delle Nazioni. Si trattava di una pura formalità. Le riserve petrolifere del paese erano già sotto il controllo diretto delle società anglo-americane.
La presenza britannica nell’area mediorientale e quella russo dei giacimenti nel Caucaso furono tra le prime preoccupazioni del terzo Reich di Hitler. L’indipendenza dal petrolio straniero era uno dei principali punti del programma quadriennale di Hitler nel 1936. Furono investite grandi risorse e mezzi nella produzione dei carburanti sintetici e nell’idrogenazione. Il programma consentì alla Germania di rifornire i mezzi militari durante l’invasione della Francia e della Polonia senza dover dipendere dall’importazione di petrolio dalla Russia o dal Medio Oriente britannico.
Nel 1939 la Germania e la Russia avevano stretto il patto di non aggressione Ribbentrop-Molotov, prima dell’inizio del secondo conflitto mondiale, che metteva al sicuro la Germania dal dover sostenere l’impegno militare su due fronti opposti. In questo modo le due potenze si spartivano pacificamente i territori polacchi. Eppure fu proprio Hitler nel 1940 a organizzare l’invasione della Russia. Tra i motivi che giustificarono la guerra ci fu anche il petrolio del Caucaso. Le truppe tedesche miravano al controllo dei giacimenti di Baku per sostenere i rifornimenti alle proprie armate. Dalle zone del Caucaso le truppe tedesche avrebbero potuto ricongiungersi con le altre armate italo-tedesche di Rommel in Africa settentrionale e invadere l’area mediorientale britannica. Un progetto ostacolato dalla forte resistenza russa e delle truppe britanniche stanziate in Africa costantemente rifornite di petrolio dalle retrovie mediorientali.
Il controllo del petrolio era al centro degli obiettivi strategico-militari anche del Giappone. Il Giappone dipendeva esclusivamente dall’importazione di petrolio dagli Stati Uniti e dalle Indie Olandesi. Durante l’invasione dei territori cinesi le truppe nipponiche si posero come obiettivo strategico la conquista dei giacimenti petroliferi delle Indie Olandesi. Un piano ostacolato dal governo americano che minacciava l’intervento militare statunitense in caso di aggressione all’Indocina. A tale scopo la flotta militare americana era stata spostata e concentrata nell’avamposto più a occidente degli Stati Uniti, a Pearl Harbor. Il governo americano temeva il ritiro delle truppe inglesi dall’estremo oriente. Un ipotesi che avrebbe consentito al Giappone di avanzare fino alla completa occupazione militare delle risorse petrolifere asiatiche.
Già negli anni ’30 il governo giapponese aveva emanato una serie di leggi per imporre sul mercato interno il controllo diretto del petrolio. Venne imposto alle compagnie petrolifere straniere il mantenimento di ingenti scorte e la totale dipendenza dal governo nipponico per la determinazione dei prezzi di vendita finali. Le compagnie angloamericane protestarono presso i rispettivi governi e il governo britannico propose l’attuazione dell’embargo petrolifero ma gli Stati Uniti decisero di non seguire una linea e preferirono mantenere un dialogo diplomatico con Tokyo. Pertanto gli Stati Uniti continuarono a vendere petrolio al Giappone anche durante l’invasione nipponica della Cina. In cambio veniva chiesto espressamente al Giappone di non invadere l’Indocina.
Soltanto con l’invasione nipponica dell’Indocina nel luglio del 1941 gli Usa, la Gran Bretagna e il governo olandese in esilio decisero l’embargo petrolifero. Il Giappone perse di colpo l’intera fornitura di petrolio. Le trattative diplomatiche tra Usa e Giappone per giungere alla riapertura degli scambi commerciali furono vane. Il giorno 8 dicembre 1941 i vertici militari nipponici attuarono il piano dell’attacco a sorpresa a Pearl Harbour mettendo fuori uso la flotta americana.
La conquista dell’Indocina era il nodo strategico per estendere il controllo giapponese anche sulle Indie Olandesi, ricche di giacimenti petroliferi. Il Giappone giocò la carta del tutto per tutto.
L’entrata in guerra degli Stati Uniti rovescerà le sorti del conflitto anche in Europa dove le forze russe e britanniche, costantemente rifornite di petrolio dalle retrovie, avevano finora ostacolato con successo l’avanzata italo-tedesca in Russia e in Africa settentrionale.
La fine della guerra vide la definitiva uscita dalla scena del Giappone e della Germania. I paesi vincitori della guerra imposero un “nuovo ordine” mondiale. Le compagnie petrolifere americane si estesero nei grandi bacini petroliferi mediorientali dove, per l’occasione, veniva escluso l’accesso ai francesi della Compagnie des Pétroles. La crescita della domanda di petrolio negli USA spinse il governo di Washington ad appoggiare appieno l’interesse delle compagnie petrolifere americane. In breve tempo le Sette Sorelle, principali compagnie petrolifere angloamericane, controllarono oltre l’80% della produzione e della raffinazione mondiale del petrolio. I paesi europei, completamente distrutti dalla seconda guerra mondiale, divennero sempre più dipendenti dal petrolio mediorientale e dalle compagnie petrolifere americane che ne gestivano gli scambi commerciali internazionali.
Ed è in questo contesto che nasce il Piano Marshall, prima applicazione concreta della dottrina Truman. Il Piano di aiuti per la ricostruzione europea fu proposto dal segretario di Stato americano in un discorso all’Università di Harvard nel giugno 1947
“Cambridge 5 GIUGNO 1947 – – Il segretario di stato americano George C. Marshall ha tenuto al circolo dei laureati dell’Università Harvard il suo annunciato discorso sulla situazione economica mondiale.
Nel testo: “Non occorra che io vi dica, signori, che la situazione economica mondiale è molto grave. Nel considerare le esigenze della ricostruzione europea sono state esattamente valutate le perdite di vite umane, le distruzioni, ma è diventato chiaro che esse sono meno gravi dello sconvolgimento dell’intera struttura dell’economia europea. La ricostruzione è stata gravemente ritardata dal fatto che due anni dopo la fine delle ostilità non è stato possibile mettersi d’accordo sulle condizioni di pace con la Germania e con l’Austria. In questo modo si va rapidamente evolvendo una situazione che non promette nulla di buono per il mondo. Il rimedio consiste nello spezzare il circolo vizioso e di dare alle popolazioni europee la fiducia nell’avvenire economico dei loro paesi. Gli industriali e gli agricoltori devono essere in grado di scambiare i loro prodotti contro valuta il cui valore deve essere costantemente fuori discussione. E’ logico che gli Stati Uniti facciano quanto è in loro potere per contribuire a restaurare nel mondo quelle condizioni economiche normali senza le quali non ci può essere stabilità politica, né sicurezza né pace. La nostra politica non è diretta contro alcun paese o dottrina, bensì contro la fame, la miseria, la disperazione o il caos. Ogni governo che è disposto a contribuire al compito di ricostruzione troverà piena collaborazione da parte degli Stati Uniti. I governi, i partiti, o i gruppi politici che cercano di prolungare le sciagure umane per profittarne politicamente, incontreranno l’opposizione degli Stati Uniti. Non sarebbe opportuno che il nostro governo cominciasse ad elaborare unilateralmente un programma destinato a rimettere in piedi economicamente l’Europa. Questo compito spetta agli europei. Il programma dovrebbe essere unico e costituire il risultato dell’accordo fra parecchie, se non tutte le nazioni europee”.
(dal Comunicato Ansa del 5 giugno, 1947, ore 18.20)
Mosca 16 GIUGNO 1947 – La Pravda definisce oggi il piano Marshall per gli aiuti all’Europa “una ripetizione del piano del presidente Truman per esercitare pressioni politiche con l’aiuto del dollaro. Gli Stati Uniti vogliono in tal modo interferire negli affari interni degli altri paesi.
(ib. 16 giugno 1947, ore 16.00)

Washington 19 GIUGNO – L’Italia ha notificato formalmente la sua intenzione di collaborare pienamente al Piano Marshall per gli aiuti al

Apr 27, 2008 - opinioni    No Comments

GEOPONICA

Costantino VII nasce nel 905 dall’unione tra l’imperatore Leone e la quarta moglie, Zoe. Il suo soprannome “Porfirogenito” allude al fatto di essere nato nella “stanza rossa”, quella dove venivano legittimati gli eredi al trono di Bisanzio. Taciturno ed intelligente, aveva una grande varietà di interessi. Non ebbe vita facile a corte nonostante fosse nipote del grande Basilio. Successe allo zio Alessandro nel 913, ma a causa della giovane età, l’impero venne gestito da un consiglio di reggenza fino al 919 e da Romano I di Bisanzio, chiamato a salvare l’impero da un possibile colpo di stato, fino al 944.
Nel 945, all’età di 39 anni, poté finalmente governare in modo autonomo.
In politica interna proseguì quello che Romano aveva iniziato, la lotta contro il latifondo a favore dei piccoli proprietari terrieri. Nel 947 viene redatta una legge che ordinava l’immediata restituzione delle terre illegalmente sottratte dai Dunatoi (potenti) ai contadini liberi senza alcun tipo di indennizzo. Un’altra legge regolamenta i beni dei soldati e stabilisce cosa è inalienabile e cosa invece lo è. Tutto questo fu fatto per mantenere viva la forza di Bisanzio, cioè il potere dei contadini liberi e i soldati: gli stratioti.
Costantino VII era conosciuto come scultore, musico, pittore, scrittore, creò il sistema enciclopedico e progettò insieme a molti dotti del tempo un archivio del sapere, con l’intento di perpetuare le tradizioni religiose e civili che avevano reso grande l’impero. Tra le opere di cui ordinò la raccolta, una particolare fortuna ebbe una “enciclopedia” delle conoscenze agrarie la Geoponica.
Si tratta di testi di difficile collocazione tematica, in quanto costituiti perlopiù da testi appartenenti alla classicità latina e greca e riguardanti la coltivazione, l’allevamento e le altre attività connesse.
In sostanza non ci troviamo di fronte a veri e propri manuali, ma a precetti dell’arte contadina strettamente legati alle condizioni geologiche e climatiche delle zone mediterranee.
Fra le edizioni in italiano si segnalano quella curata da Nicolò Vitelli e stampata a Venezia dal Borgofranco nel 1542, nonché quella dello stesso anno di Gabriel Giolito de’ Ferrari e curata da Pietro Lauro, successivamente ripetuta nel 1549. Anche il testo curato dal Vitelli vide una seconda edizione, nel 1554, sempre a Venezia, stampata da Bartolomeo Imperatore.
Va rilevato che la Geoponica è fra i testi più diffusi all’interno della manualistica cinquecentesca e influenzato molti autori, in particolare l’agronomo padovano Africo Clementi nel suo “Trattato
dell’agricoltura”(1571).
La constatazione su cui si apre il trattato è il dilemma “onde avviene che a questi nostri tempi non si facciano quei soliti raccolti abbondantissimi, che già per l’adietro si facevano, se cioè il terreno sia venuto irreparabilmente deteriorandosi nel trascorrere delle generazioni, o se invece la causa non consista nell’arretratezza colturale”. Africo risponde aderendo, senza incertezze, alla seconda tesi: “non sono dunque i terreni per vecchiaia e fatica diventati manco fertili di quel che già erano, ma sí bene per pura negligentia et mala coltivatione di noi medesimi”. E continua: “Sono molti contadini che si preoccupano più di moltiplicare le arature che non di eseguirle in terra di voglia e ben disposta non sapendo che ogni operatione fatta contro l’espresso volere di chi opera, overo da cose ammalate, non mai succede prosperamente”.
L’ottica del Clementi si differenzia nettamente da quella padronale classica, favorevole all’impiego intensivo della disponibilità di manodopera e si rivolge piuttosto a un aumento della rendita globale.
Dall’introduzione di Janus Cornarius alla Geoponica, sia nell’edizione basileense del 1540 che in quella lionese del 1541, la coltivazione della terra viene definita come: utile per la vita dell’uomo, oggetto di diletto e voluttà, favorevole al godimento estetico, attività nobilitante per l’animo e tonificante per il corpo, strettamente connessa alla medicina.
Si può fare un parallelo con la situazione odierna dove le statistiche commerciali considerano l’agricoltura soltanto un’attività economica. L’agricoltura intesa come stile di vita, come patrimonio, come identità culturale, come antico patto con la natura, invece, non ha prezzo. Tra gli altri importanti contributi non monetari dell’agricoltura si annoverano la tutela degli habitat e dei paesaggi, la conservazione del suolo, la gestione dei bacini idrici, il sequestro di anidride carbonica e la protezione della biodiversità. Ma il ruolo forse più significativo dell’agricoltura è che essa rappresenta, per oltre 850 milioni di persone sottoalimentate, stanziate perlopiù nelle zone rurali, un mezzo per sfuggire alla fame. Queste persone infatti possono accedere al cibo soltanto se lo producono direttamente.
Nei paesi sviluppati la risorsa fondiaria viene vista con molto interesse anche per la produzione di energie rinnovabili che tecnicamente vengono dette quelle fonti che per loro caratteristica intrinseca si rigenerano o non sono “esauribili” nella scala dei tempi “umani” o comunque così sono percepite dall’uomo o dalla società.
La riunione del Consiglio dell’energia a Bruxelles del 29 novembre 2006 ha affrontato il tema delle energie rinnovabili fornendo, in un’audizione pubblica, un’indicazione su come potrebbero svilupparsi e sui limiti imposti dalle singole realta’ nazionali e dalle scelte politiche.
l Commissario europeo per l’energia Andris Piebalgs sostiene la necessita’ di fissare soglie minime obbligatorie perche’ ”e’ il miglior modo di procedere”. Naturalmente si deve trattare, specifica, di obiettivi che vanno giustificati attraverso una valutazione di impatto che ne consideri i costi. Tutti gli stati membri si trovano ormai d’accordo sulla necessita’ di fissare delle soglie minime per le energie rinnovabili si parla del 20% entro il 2020. Alcuni paesi si sono dichiarati a favore di obiettivi indicativi, giudicati da alcuni strumenti necessari per permettere una politica energetica dotata della necessaria flessibilita’ che tenga conto delle specificita’ di ogni paese,
Si è ribadita anche la necessità di un traguardo sul lungo periodo che permette all’ industria di impegnarsi negli investimenti necessari e nello stesso tempo garantisce la concorrenza tra gli stati membri.
Rientrerebbero nelle energie rinnovabili: Energia idroelettrica, Energia geotermica, Energia solare (termica e fotovoltaica), Energia eolica, Energia da biomasse, Termovalorizzazione di CDR.
Non viene considerata rinnovabile, sebbene “non fossile”, l’energia nucleare, in quanto il suo utilizzo dipende comunque da riserve limitate di materiali che non si rigenerano alla stessa velocità con cui vengono consumate.
Per prendere delle decisioni in termini energetici esiste un criterio chiamato “Ritorno Energetico sull’Investimento Energetico,” ovvero “Energy Return On Energy Investment” (EROEI). L’EROEI è il rapporto fra l’energia che un impianto produrrà durante la sua vita attiva e l’energia che è necessaria per costruire, mantenere, e poi smantellare l’impianto (ovvero più grande è l’EROEI maggiore sarà la convenienza dell’investimento in termini energetici). Il termine “EROEI” comincia ad essere utilizzato sempre più di frequente in campo energetico. In effetti, coglie un punto fondamentale che finora né gli economisti né i tecnologi avevano sufficientemente enfatizzato e cioè il fatto che un investimento energetico, ovvero la costruzione di un impianto, ha senso soltanto se l’energia che viene prodotta da quel’impianto durante la sua vita attiva è superiore a quella che è stata necessaria per costruirlo. Nella pratica, calcolare l’EROEI di un sistema energetico non è cosa ovvia. Dobbiamo per prima cosa calcolare l’energia necessaria alla costruzione, per questo bisogna sommare tutti i contributi energetici da tutte le sorgenti. Bisogna considerare l’energia per trasportare estrarre la materia prima dalla miniera e trasportarla in fabbrica; come pure quella per tutti i trattamenti e le lavorazioni. Non possiamo trascurare l’energia che è stata necessaria per costruire la fabbrica stessa, quella per riscaldare gli ambienti, l’energia usata dagli operai e dai tecnici per venire in fabbrica, come pure tutta l’energia che ci vuole per trasportare l’impianto sul luogo di utilizzo e poi montarlo, come pure per la costruzione di tutte le strutture ausiliarie. Dobbiamo anche tener conto dei costi che saranno necessari per smontare l’impianto alla fine del suo ciclo utile e per rimettere l’area utilizzata nelle condizioni iniziali. Questo tipo di calcoli si chiama “analisi di ciclo di vita” (Life cycle analysis, LCA) ed è normato rigorosamente, per esempio, dall ISO (Organizzazione Internazionale per la Standardizzazione). Dopo di che, si procede a calcolare l’energia che l’impianto produrrà durante il suo ciclo attivo previsto. Il rapporto fra le due grandezze, energia ottenuta diviso energia utilizzata, è l’EROEI.
La misura dell’EROEI è la vera pietra di paragone del valore di una tecnologia energetica. Una misura strettamente legata al principio di conservazione dell’energia che ci permette di discriminare fra le tecnologie senza bisogno di andare nei dettagli tecnici. Se una tecnologia ha un EROEI minore di 1, è un’assurdità che possiamo scartare senza neanche bisogno di esaminarla a fondo, per contro, più alto è l’EROEI migliore è l’efficienza della tecnologia.
EROEI molto positivo: Grande idroelettrico fra 50 e 250, Mini idroelettrico fra 30 e 270, Fotovoltaico a film sottile fra 25 e 80..
EROEI certamente positivo: Petrolio fra 5 e 15, Eolico fra 5 e 80, Fotovoltaico convenzionale fra 3 e 9, Carbone fra 2-7 e 7-17, Gas naturale fra 5 e 6, Biomassa fra 3-5 e 5-27.
EROEI potenzialmente minore di 1: Etanolo (da coltivazioni dedicate) fra 0.6 e 1.4, Sabbie bituminose minore di 1.
EROEI con stime divergenti: Nucleare da meno di 1 a 60-100.
Un altro concetto importante è quello del “Energy Payback Time,” (EPT) ovvero tempo di ritorno energetico. L’EPT è cosa strettamente correlata all’EROEI ed è anch’esso un concetto intuitivo: è il tempo necessario perchè un impianto produca una quantità di energia pari a quella che è stata necessaria per costruirlo. E’ anche equivalente al ben noto concetto finanziario di “tempo di ritorno dell’investimento”. Escludendo i costi di gestione dopo che uno ha ripreso i soldi investiti, tutto quello che arriva in più è profitto.
Il petrolio è stato un evento forse irripetibile nella storia umana con la combinazione di un EROEI alto (50-100 fino al 1970 circa) e di un rapido ciclo di ritorno dell’investimento (EPT basso). Fra la scoperta e lo sfruttamento, infatti, il ciclo di vita di un pozzo di petrolio può essere di pochi anni, per cui il punto di pareggio energetico arriva presto e tutto quello che si estrae dopo è rendita. Questo rapido ritorno è accoppiato a caratteristiche tecnologiche eccezionali, quali l’alta densità di energia sia in termini di volume come in termini di peso. Non c’è nulla all’orizzonte che possa produrre caratteristiche comparabili a quelle del petrolio. Tuttavia, già oggi, l’EROEI del petrolio si è molto abbassato (5-15) per via del progressivo esaurimento dei pozzi a buon mercato e potrebbe essere addirittura minore di 1 se si tenesse conto di tutti i costi esterni, incluse le spese militari per il controllo dei giacimenti. Ma anche EPT ha subito una notevole diminuzione divenendo addirittura negativo (transazioni di commesse future).
Il petrolio è una materia prima quotata in dei mercati regolamentati , i suoi contratti (futures) hanno scadenze varie (1 mese , 2 mesi etc…). Tutti i futures a seconda dei casi possono prevedere alternativamente la consegna fisica a scadenza (physically settled) franco oleodotto o raffineria, oppure il regolamento attraverso compensazioni in denaro tra il prezzo future pattuito e il prezzo del greggio a consegna immediata sul mercato (cash settled).
Il petrolio è la risorsa naturale più trattata sulle piazze finanziarie mondiali e tutti gli investitori, anche se non operano direttamente sul mercato delle commodities, sono attenti alle fluttuazioni del prezzo dell’oro nero. Un rialzo dei prezzi può tradursi in maggiori costi di produzione e colpire le stime di crescita delle società quotate oppure in tensioni inflazionistiche spingere le Banche Centrali ad attuare politiche monetarie più restrittive con conseguenze sui listini azionari e su quelli obbligazionari.
Appare chiaro l’interesse delle compagnie petrolifere ad aumentare la domanda e i tempi delle commissioni future di greggio in modo da rendere economica l’estrazione del petrolio anche con EROEI inferiore di 1.
Nel 1974 Lester Brown, grazie ad un finanziamento del Rockefeller Brothers Fund, fonda il Worldwatch Institute (www.worldwatch.org), un ente privato di ricerca senza fini di lucro per l’analisi dei trend ambientali sempre più estesi e preoccupanti che modellano il futuro di una umanità votata all’autodistruzione: economia globale, crescita demografica e contrazione delle risorse procapite, effetto serra, emarginazione economica e ambientale, riduzione delle aree coltivate, deforestazione, estinzione degli ecosistemi.
Nel 1984 L. Brown pubblica il suo primo rapporto annuale State of the World, ricco di dati e informazioni, di interpretazioni e analisi particolarmente innovative che, ormai tradotto in più di trenta lingue da vari anni, diventa un punto di riferimento per chiunque voglia comprendere le interconnessioni delle problematiche ambientali, economiche e sociali presenti sul nostro pianeta.
Dal 1988 il W.I. pubblica anche il bimestrale World Watch. L. Brown è inoltre autore di numerose altre pubblicazioni. Durante la sua carriera ha ricevuto alti riconoscimenti internazionali. E’ un fervido sostenitore delle fonti rinnovabili (sole, idrogeno, vento e biomasse) che, secondo il suo pensiero, rappresentano l’unica l’alternativa possibile all’attuale produzione energetica. Ha tenuto e tiene lezioni e conferenze in tutto il mondo. Nel maggio del 2001 ha lasciato la presidenza del W.I. a Christopher Flavin per fondare l’Earth Policy Institute con lo scopo di approfondire le ricerche e le prospettive sul tema dello sviluppo dell’eco-economia.
All’inizio del suo libro Eco-economy ricorda che “ nel 1543 l’astronomo polacco Niccolò Copernico pubblicò un testo “Della rivoluzione delle sfere celesti” nel quale sfidava l’idea tradizionale che il Sole orbitava attorno alla Terra, affermando al contrario che era il nostro pianeta a girare attorno al Sole. Questa sua visione alternativa a quella tolemaica portò a una rivoluzione del pensiero, a una nuova visione del mondo. Oggi, abbiamo bisogno di una simile mutazione di prospettiva a proposito delle relazioni tra natura ed economia. Di solito, gli economisti tendono a pensare che l’economia sia un sistema operativo generale, del quale l’ambiente non è altro che un sottoinsieme. Nella mente di molti industriali ed economisti l’ambiente è solo la parte inquinata dell’economia: qualcosa da ripulire e tutto torna a posto. Si tratta invece di una cosa molto più fondamentale. Gli ecosistemi terrestri tendono a sopravvivere abbastanza bene senza l’economia, ma l’economia non può vivere senza di essi. Ma se, come affermano gli scienziati dell’ambiente, l’economia è parte degli ecosistemi naturali, ne consegue che l’economia deve essere disegnata, strutturata in modo da essere compatibile con gli ecosistemi”.
Ci da anche un’immagine di come apparirà la eco-economia:”Così, negli Usa possiamo guardare a un futuro nel quale contadini e allevatori, con le turbine a vento installate nelle loro aziende, produrranno non solo gran parte dell’elettricità nazionale, ma anche una buona parte del combustibile che alimenterà le automobili americane. È una prospettiva molto eccitante, che credo si realizzerà velocemente”
Se l’EPT, ovvero tempo di ritorno energetico dell’investimento, è di circa tre anni per l’energia fotovoltaica (EROEI di 9 e vita di 30 anni) e da 1 a 10 anni per un impianto eolico (durata 50-60 anni ed EROEI 5-80), la scelta politica ad investire risorse economiche su questi impianti, sognando un futuro di autosufficienza energetica, avrà come effetto immediato una crescita della domanda di combustibili fossili e la corsa al loro accaparramento, “e questa ristrutturazione rappresenta la maggiore opportunità d’investimento della storia.” secondo Lester Brown.
Il dottor Brown cita anche le biomasse che tra le energie rinnovabili hanno l’EPT più basso in quanto corrisponde al loro ciclo naturale di coltivazione (circa 1 anno), ma va fatta una netta distinzione fra le biomasse cosiddette residuali, ossia quelle che originano da processi agricoli, industriali e civili di trasformazione e di utilizzazione degli alimenti e della sostanza organica in genere (reflui zootecnici, cascami delle industrie alimentari, sottoprodotti della lavorazione del legno, frazione organica dei rifiuti solidi urbani) e le biomasse dedicate, ossia quelle prodotte appositamente in ambito agricolo, in alternativa a quelle alimentari o d’altro uso, per scopi eminentemente energetici (colture da legno, piante erbacee da fibra, colture oleaginose e amidacee, foraggiere). Mentre i trattamenti riservati alle prime hanno una duplice finalità, energetica e ambientale insieme, le seconde sono prodotte principalmente per scopi energetici.
Nell’ambito delle biomasse dedicate si possono distinguere i diversi processi in tre categorie fondamentali:
– colture ligno-cellulosiche per la produzione di massa vegetale secca da destinare alle centrali termoelettriche;
– colture foraggiere per la produzione di biogas.
– colture oleaginose e amidacee per la produzione di biocombustibili (biodiesel e bioetanolo);
Mentre per le colture foraggiere per la produzione di biogas si calcolano valori di EROEI da 3 a 27, per l’utilizzazione di colture oleaginose e amidacee per la produzione di biocombustibili l’EROEI scende da 0,6 a 1,4, quindi a scarsa efficienza energetica. La differenza sostanziale risiede nel fatto che queste ultime sono coltivazioni specializzate (mais, soia, colza) a notevole input energetico (ogm, fertilizzanti, antiparassitari, irrigazioni, etc).
Da un po’ di tempo a questa parte negli USA si moltiplicano gli intereventi a favore dell’etanolo, ovvero l’alcool ottenuto dalla lavorazione (fermentazione) di biomasse (mais), in alternativa al petrolio e al gas naturale.
Bill Ford, presidente della Ford Motors, General Motors e Chrysler ha dato vita ad un progetto “Apollo Alliance”, per la promozione di questa tecnologia finanziato dalla fondazione Rockefeller Financial Services e la Ford Foundation, in collaborazione con altre iniziative come la Alliance for Climate Protection di Al Gore ed altre organizzazioni come la Set America Free coalition che conta su personaggi molto vicini all’attuale amministrazione USA come l’ex direttore della CIA James Woolsey, Daniel Pipes e Meyrav Wurmser. L’iniziativa è sostenuta anche dall’Institute for American Future, finanziata da Soros.
L’Earth Policy Institute dalla voce del suo presidente Lester Brown ci indica quali sono le condizioni perché si instauri una economia sostenibile da un punto di vista ambientale:”La prima sfida è costringere il mercato a dire la verità, la verità ecologica. Ora, se andiamo alla pompa di benzina a rifornire la macchina, paghiamo i costi di estrazione e raffinazione del greggio, il trasporto fino alla pompa, ma non paghiamo per l’inquinamento atmosferico, i mutamenti climatici, le piogge acide e tutti gli altri impatti ambientali causati dal ciclo dei combustibili fossili. Il mercato deve essere più onesto a proposito dei costi reali delle tecnologie disponibili. Ma quello che è più importante è che ci troviamo di fronte alla necessità di ristrutturare l’economia in modo da permettere che il progresso non si arresti.”
Grazie ai sostanziosi sussidi pubblici agli agricoltori, gli Stati Uniti sono diventati il più importante produttore di etanolo al mondo e il prezzo del mais è aumentato esponenzialmente all’elevata richiesta di biocarburanti.
L’aumento del prezzo del mais da etanolo, nel 2006, ha rivalutato di almeno il 15% la proprietà. di un campo di mais in una qualunque parte del mondo dall’Australia agli Stati Uniti passando per Argentina (+27%) ed Uruguay non ci sono eccezioni mentre una villetta nei pressi del centro finanziario di Londra, a Islington, nel 2006 si è rivalutata “solo” dell’11%.
In Messico questo ha comportato che il prezzo del cereale da sette pesos al chilo (0,50 euro) ora superi i 18, problema non da poco considerando che le tortillas, fatte appunto con il mais, sono l’elemento base della cucina messicana.
Nulla da eccepire quindi sul fatto che l’agricoltura dedichi le sue risorse alla produzione di biomasse. Tuttavia, quando l’obiettivo non è la produzione di biomassa alimentare ma bioenergia, i termini della questione cambiano e certe impostazioni di tipo gestionale, che possono andare bene per produzioni alimentari, contrastano fortemente con l’esigenza di massimizzare i rendimenti energetici.
Se veramente vogliamo produrre bioenergia a condizioni economiche vantaggiose dobbiamo prendere in seria considerazione le prime due categorie di biomassa dedicata e in particolare le colture foraggere per la produzione di biogas. Queste coltivazione necessitano di input energetici molto bassi ottenendo valori di EROEI da 5 a 27 secondo la qualità della biomassa e le caratteristiche dell’impianto.
Abbiamo visto che l’agricoltura tradizionale basata sulla rendita fondiaria non è più economica in termini energetici, allora dobbiamo pensare ad un nuovo modo di gestione della energia fotosintetica (unica energia rinnovabile) che chiameremo Geocoltura.
Oggi le società più sviluppate hanno necessità di notevoli quantità di energia di cui la quota alimentare è una piccola parte. L’era del petrolio ha messo a disposizione dell’umanità una quantità di energia mai verificato nella storia con il conseguente straordinario sviluppo della tecnica.
Se come abbiamo visto nella storia la tecnologia ha permesso di scoprire nuove fonti energetiche, adesso è chiamata a svolgere il compito della loro gestione compatibile alla sopravvivenza della specie e alla loro rigenerazione in tempi utili.
Il Sole è la fonte di energia che permette la vita sulla Terra. Le piante sono i principali utilizzatori di questa risorsa, attraverso il meccanismo della fotosintesi. Il cibo che mangiamo, i combustibili
fossili che usiamo sono il prodotto di questo processo, che converte l’energia solare in energia chimica che può essere usata dagli organismi biologici.
La geocoltura o coltivazione della terra utilizzerà tutte le conoscenze scientifiche e tecniche disponibili per ripristinare e mantenere costante la fertilità biologica del terreno.
1- Concetto di proprietà
2- Fertilità economica investire sulla fertilità
3- Ottimizzare l’accumulo di energia fotosintetica
4- Diversificare l’energia prodotta
5- Trasformazione dell’energia fotosintetica.
Mantenere la fertilità dei terreni significa ridurre drasticamente la dipendenza da altre fonti energetiche adottando tecniche basate sulla promiscuità delle colture, l’integrazione della coltivazione con l’allevamento del bestiame e la utilizzazione completa della biomassa prodotta.
In poche parole ritornare al ciclo naturale, ma con approccio economico diverso, in primo luogo conciliare la produzione di energia alimentare, prodotti destinati all’alimentazione umana e produzione di energia elettrica per le diverse attività.
Il digestore anaerobico non si aggiunge, ma si sostituisce alla stalla, creando uno sbocco alternativo a quello zootecnico per colture come quelle foraggiere che altrimenti non avrebbero più mercato.
La digestione anaerobica è un processo biologico per mezzo del quale, in assenza di ossigeno, la sostanza organica viene trasformata in biogas (energia rinnovabile) costituito principalmente da metano e anidride carbonica,la percentuale di metano nel biogas varia a secondo del tipo di sostanza organica digerita e delle condizioni di processo, da un minimo del 50% fino all’80% circa.
Lo sviluppo della tecnologia in Italia inizia alla fine degli anni ‘70 per esigenze ambientali (L. 10/05/1976 (L. Merli), L. 650/’79, etc…). Lo scopo principale che ci si riprometteva era risolvere l’impatto ambientale indotto dagli allevamenti intensivi (suinicoli soprattutto).
Nasce nel 1980 il progetto di ricerca “Biogas” dell’E.R. (CRPA, ENEA, ENI, ENEL,Università) con la costruzione di 5 impianti dimostrativi e 3 impianti sperimentali.
La ricerca evidenzia: l’ insufficiente efficienza depurativa della digestione anaerobica (tab. A, C – L. Merli), costose e complesse le tecnologie utilizzate e la necessità di incentivi che rendano conveniente “gestire” l’impianto (non solo contributi per la costruzione)e la maggiore valorizzazione della energia prodotta e l’insufficiente contenuto energetico dei soli reflui zootecnici per giustificare il costo di impianti sofisticati.
Nel frattempo la CIP6/92: premia la produzione di E.E. da fonti rinnovabili e favorisce ulteriormente la diffusione di tale tipologia di impianto.
Le tecniche di digestione anaerobica possono essere suddivise in due gruppi principali:
Digestione a secco (dry digestion), quando il substrato avviato a digestione ha un contenuto di solidi totali (ST) ³ 20%;
Digestione a umido (wet digestion), quando il substrato ha un contenuto di ST £ 10%.
Processi con valori di secco intermedi (10 – 14% ST) vengono definiti processi a semisecco
La digestione anaerobica può essere condotta o in condizioni mesofile (circa 35°C), con tempi di residenza di 25-30 giorni, o termofile (circa 55°C), con tempi di residenza inferiori ai 14 – 16 giorni.
Con impianti semplificati è possibile operare anche in psicrofilia (10 – 25 °C), con tempi di residenza dell’ordine dei 60 giorni.
Il trattamento del biogas consiste nella essiccazione (nella condensa si concentrano NH3, H2S, polveri ed altre impurità), desolforazione biologica (sulfobacter oxidans) e chimica (FeCl3 o FeCl2) e filtrazione finale su carboni attivi.
Finalmente si arriva alla cogenerazione con: motori a gas rendimenti in Energia Elettrica 35 – 40 % circa, motori a diesel-gas (iniezione pilota) rendimenti in Energia Elettrica 39 – 44 % circa,
turbine a gas rendimenti in Energia Elettrica 30 % circa
Come sotto prodotto abbiamo energia termica che può essere riutilizzata per il riscaldamento del di gestore o per altri usi.
Le nuove tecniche, unite alle attuali normative di incentivazione, hanno la potenzialità per rendere conveniente la produzione di EE da biogas. La loro corretta applicazione ed una attenta gestione sono comunque elementi essenziali perché tale potenzialità diventi reale opportunità.
E per concludere scusate se scomodiamo Pascal “L’uomo non è che una canna, la più debole della natura; ma è una canna pensante. Non c’è bisogno che tutto l’universo s’armi per schiacciarlo: un vapore, una goccia d’acqua basta a ucciderlo. Ma, anche se l’universo lo schiacciasse, l’uomo sarebbe ancor più nobile di chi lo uccide, perché sa di morire e conosce la superiorità dell’universo su di lui; l’universo invece non ne sa niente. Tutta la nostra dignità consiste dunque nel pensiero. E’ con questo che dobbiamo nobilitarci e non già con lo spazio e il tempo che potremmo riempire. Studiamoci dunque di pensare bene: questo è il principio della morale. (“Pensieri”).
 
Apr 26, 2008 - opinioni    No Comments

LA PRIMA RIVOLUZIONE VERDE

Gli esseri umani, come tutti gli altri animali, traggono la propria energia dal cibo che mangiano. Fino al XIX secolo, tutta l’energia proveniente dal cibo disponibile sul pianeta derivava dal sole attraverso la fotosintesi. Sia che mangiaste vegetali, sia che mangiaste animali nutriti con vegetali, l’energia contenuta nel cibo a vostra disposizione alla fin fine derivava dal sole.
Negli anni Cinquanta e Sessanta, l’agricoltura fu soggetta a una drastica trasformazione alla quale comunemente ci si riferisce come Rivoluzione Verde che ebbe come effetto l’industrializzazione dell’agricoltura.
La rivoluzione verde iniziò nel 1944, quando la “Rockfeller Foundation” fondò un istituto per aumentare il prodotto agricolo delle fattorie messicane. Ciò produsse risultati sorprendenti, così che il Messico passò dal dover importare metà del suo grano alla autosufficienza nel 1956, fino al 1964 in cui esportava mezzo milione di tonnellate di grano.
Parte del progresso fu il risultato dell’introduzione di nuove varietà vegetali ibride, che portarono a coltivazioni alimentari più cospicue. Il nome e la fortuna di Borlaug sono legati ad una varietà particolare di frumento, la giapponese Norin 10, portatrice di geni per la taglia ridotta. L’abilità di Norman Borlaug è consistita nell’aver integrato questi geni in varietà resistenti ad alcuni funghi che colpiscono la pianta, con una buona produttività, e con un periodo vegetativo breve adatto a molti paesi tropicali (4-6 mesi). Le sementi ad alta resa dette anche “varietà miracolo” (HYV High, Yiedling Varieties) sono così diventate realtà: le loro caratteristiche distintive sono essenzialmente: taglia ridotta, insensibilità alla durata del giorno e pronta risposta all’uso di maggiori quantità di fertilizzanti e all’irrigazione. Per legittimare questo successo Norman Borlaug ricevette il premio Nobel per la pace nel 1970 “per aver dato pane ad un mondo affamato”, e diventò ufficialmente il “padre” della Rivoluzione Verde.
La Rivoluzione Verde aumentò il flusso di energia verso l’agricoltura in media di 50 volte l’energia necessaria per l’agricoltura tradizionale. Nei casi più estremi, il consumo di energia da parte dell’agricoltura aumentò di 100 volte o anche più.
Secondo dati forniti nel 1994 negli Stati Uniti, 400 galloni, equivalente a circa1514 litri, di petrolio vengono utilizzati ogni anno per nutrire ogni americano. Il consumo di energia è suddiviso come segue:
31% per la fabbricazione di fertilizzanti inorganici
19% per la gestione delle macchine agricole
16% per i trasporti
13% per l’irrigazione
08% per l’allevamento del bestiame (senza includere gli alimenti)
05% per l’essiccamento dei raccolti
05% per la produzione di pesticidi
08% varie[8]
Per dare un’idea delle alte esigenze energetiche dell’agricoltura moderna, la produzione di un chilo di azoto per fertilizzanti richiede l’equivalente energetico di una quantità di gasolio che oscilla tra 1,4 e 1,8 litri. Secondo l’Istituto dei Fertilizzanti [The Fertilizer Institute – http://www.tfi.org], nell’anno compreso tra il 30 giugno 2001 e il 30 giugno 2002 gli stati uniti hanno usato 10.894.837 tonnellate di fertilizzanti azotati. Usando la cifra più bassa di 1,4 litri di gasolio equivalente per chilogrammo di azoto, questa quantità equivale al contenuto energetico di 15,3 miliardi di litri di gasolio, o 96,2 milioni di barili.
Ovviamente, questo è solo un confronto approssimativo per aiutare a capire le esigenze energetiche dell’agricoltura moderna.
In un senso molto concreto, stiamo letteralmente mangiando i combustibili fossili. Ad ogni modo, a causa delle leggi della termodinamica, in agricoltura non esiste una corrispondenza diretta tra l’immissione e la produzione di energia. Lungo la strada, si ha una marcata perdita di energia. Tra il 1945 e il 1994, l’immissione di energia in agricoltura è stata quadruplicata, mentre i raccolti si sono solo triplicati.[11] Da allora, l’immissione di energia ha continuato a crescere senza un corrispondente aumento nei raccolti. Abbiamo raggiunto un punto oltre il quale i ritorni sono marginali. In effetti, a causa del degrado del suolo, delle accresciute esigenze dovute al controllo dei parassiti e ai sempre maggiori costi energetici per la gestione dell’irrigazione, l’agricoltura moderna deve continuare ad aumentare il suo investimento energetico semplicemente per mantenere l’entità dei raccolti attuali.
L’agricoltura, dunque, è uno snodo fondamentale di ogni programma di sviluppo e rappresenta l’asse principale di ogni modello di sviluppo. Se ciò è vero nella sostanza, a dispetto del suo ruolo fondamentale, è oggi marginalizzata dal punto di vista culturale e viene sottoposta alla pressione enorme che viene da un comparto a monte, che comprende l’industria chimica, quella estrattiva e quella meccanica, e da un comparto a valle rappresentato dall’industria alimentare e da quella della grande distribuzione.
Tale situazione rende l’agricoltura un recipiente di scelte strategiche in campo scientifico, politico ed economico che derivano da ambienti a questa completamente estranei ed a volte molto lontani nel tempo e nello spazio dalla cultura del mondo agricolo e dal suo ambiente naturale.
Se fino alla rivoluzione industriale l’agricoltura definiva la struttura sociale, i rapporti di forze economici, la cultura e scandiva persino i tempi della vita quotidiana, in seguito è divenuta strumento di un modello sociale che ha svuotato le campagne, controllato la produzione attraverso la tecnologia senza possedere la terra, utilizzato organismi vegetali ed animali come oggetti di un processo produttivo industriale nel quale il termine “qualità” è divenuto sinonimo di “profitto” ed ha perso il suo irrinunciabile valore biologico.
Per trasformare così profondamente l’agricoltura, dominarla ed omologarla ad un modello di sviluppo industriale, si è chiamata in soccorso la scienza. Il ruolo della scienza in questo caso non è eticamente sostenibile e ricorre, senza pudore, alla creazione di veri e propri “miti” che vengono propagandati come “verità” solo perché sostenuti da cosiddette “rigorose analisi scientifiche”. Tali “miti” oltre ad essere letteralmente imposti agli agricoltori attraverso ricatti economici e commerciali, sono divenuti l’ossatura stessa del sapere scientifico accademico e sono stati trasmessi ad intere generazioni di ricercatori, trasformandoli da potenziali scienziati in una casta di sacerdoti che officiano liturgie basate su dogmi mai messi in dubbio.
E’ la rivoluzione industriale ad imporre un drastico cambiamento all’agricoltura. Si creano lavori salariati in città e si impoveriscono le campagne. Gli effettivi agricoli in Gran Bretagna passano dal 47% della popolazione attiva nel 1830 al 9% nel 1950. Nello stesso periodo in Francia gli effettivi agricoli passano dal 61% al 30% della popolazione attiva.
Questo cambiamento dei rapporti di forza tra città e campagna si realizza grazie all’aumento di produttività agricola reso possibile dalle nuove conoscenze scientifiche e dalla meccanizzazione. Alla metà del XIX secolo la continua emorragia di manodopera verso le città e l’emigrazione fanno aumentare l’importanza delle colonie come produttrici di derrate alimentari ed impone a queste una trasformazione radicale dell’agricoltura
La produzione agricola nelle colonie, la diminuzione del numero di addetti per unità di prodotto e lo sviluppo intenso delle attività industriali provocano un surplus di popolazione attiva che non viene più assorbita nel sistema produttivo. Così dal 1815 al 1915 circa 46 milioni di europei emigrano verso Stati Uniti, Canada, Australia ed America latina, mentre circa 20 milioni seguono la stessa strada tra il 1920 ed il 1970. A questo flusso migratorio verso l’esterno si accoppia un intenso flusso migratorio interno verso le aree fortemente industrializzate che spopola ulteriormente le campagne.
La rivoluzione industriale, le nuove conoscenze scientifiche e la scoperta di territori esotici e le loro piante eduli travolgono l’agricoltura tradizionale europea ed impongono una nuova struttura produttiva. I cambiamenti più radicali si hanno dagli anni ’40 del ‘900 in poi.
La meccanizzazione è senz’altro lo strumento più potente in questo processo. E’ possibile identificare 5 momenti differenti nella conquista delle terre arabili da parte delle macchine agricole. La nostra esemplificazione si riferisce ad aziende localizzate in pianura e specializzate nelle coltura di cereali. Il primo passo nella meccanizzazione agricola (dal 1940 al 1950) incrementa la produzione da 10 ha/addetto a 30 ha/addetto. La seconda tappa (dal 1950 al 1960) fa aumentare questo rapporto da 30 a 50 ha/addetto. L’aumento della potenza delle macchine agricole e la loro più spinta specializzazione fa aumentare il rapporto fino ad 80 ha/addetto (terza tappa, dal 1970 al 1980), mentre dal 1970 al 1980 la quarta tappa della meccanizzazione porta l’efficienza di produzione fino a 100 ha/addetto. La quinta ed ultima tappa, dopo il 1980, grazie all’agricoltura di precisione (tecniche colturali guidate da satellite) porta la produttività potenziale fino a 200 ha/addetto.
Se la meccanizzazione ha portato ad un aumento della superficie coltivata per addetto, l’input chimico e la selezione di particolari varietà vegetali hanno permesso di aumentare la resa in cereali da 10 q/ha a 30 q/ha nel 1950 ed a più di 100 q/ha nel 1990.
L’aumento di produttività agricola non si è limitato alle specie vegetali, ma ha interessato anche quelle animali. All’inizio del ‘900 un addetto poteva mungere non più di 12 mucche al giorno, oggi nei moderni impianti di mungitura meccanizzata si possono mungere fino a 200 mucche per addetto. Inoltre, mentre all’inizio del ‘900 una mucca produceva 2000 litri di latte per anno ed era alimentata con 15 kg di fieno per giorno, oggi mucche selezionate producono 10.000 litri di latte all’anno e sono nutrite con 5 kg di fieno e 15 kg di mangimi altamente nutritivi al giorno.
Un’azienda agricola pre-industriale si basava su di una notevole quantità e varietà di prodotti (forza di trazione animale, foraggio, letame, semi, animali da riproduzione, attrezzi agricoli, ortaggi, legna, ecc.) tutti indispensabili alla produzione. Oggi, in funzione dei successi produttivi, le aziende si sono specializzate ed hanno abbandonato la poliproduzione. Si sono così affermati dei paradigmi produttivi multiregionali specializzati e complementari (regioni di allevamento per carene o latte, regioni di colture intensive, regioni a vocazioni orticola, regioni viticole, regioni con vocazione frutticola, ecc.). Dunque, intere regioni producono in assoluta specializzazione ciò di cui il mercato ha bisogno o ciò che richiedono altre regioni produttive, vicine o lontane. La divisione del lavoro e la specializzazione produttiva delimitano una divisione del lavoro orizzontale, fatta di sistemi regionali specializzati che adottano una altissima divisione dei saperi ed una divisione verticale che attraversa i vari sistemi produttivi regionali partendo dal comparto a monte dell’agricoltura (industria estrattiva, chimica e meccanica) e finendo nel comparto a valle (industria di trasformazione e distribuzione) che prevede un’enorme diversità culturale e di approccio pratico ai problemi.
L’agricoltura occidentale diviene così dipendente dai due compartimenti a monte ed a valle ed è forzata a far propri i principi informatori della realtà industriale, parte esenziale della produzione agricola. E’ semplice a questo punto ripercorrere il paradigma agricolo con la guida dell’approccio meccanicistico e seguire la sua progressiva trasformazione da tecnica di gestione di organismi viventi a tecnica di gestione di macchine biologiche. E’ solo in questo contesto che si può chiarire il ruolo della scienza in tale processo e l’evoluzione di un’idea che riduce gli organismi viventi a macchine da programmare attraverso l’ingegneria genetica.
Gli esegeti della modernità e della industrializzazione agricole indicano nelle nuove tecnologie, sia meccaniche che biologiche la soluzione al problema della diminuzione delle terre coltivate, o coltivabili, dovuta a fenomeni di gravi dissesti ambientali e a modificazioni perenni del suolo a causa della cementificazione di enormi superfici.
Nonostante gli ingentissimi capitali spesi per promuovere l’agricoltura moderna, questa non ha interessato che settori molto limitati dei paesi in via di sviluppo. La grande maggioranza degli agricoltori dei paesi poveri non può permettersi di acquistare macchine agricole e concimi minerali (figuriamoci se può permettersi di acquistare i semi geneticamente modificati, più cari di quelli tradizionali e soggetti a strette regole di utilizzazione). Circa l’80% degli agricoltori africani, dal 40 al 60% di quelli sud americani ed asiatici continuano a lavorare con utensili manuali e solo dal 15 al 30% di loro possiede un animale da tiro.
Con in mente un approccio di tipo tecnocratico, le agricolture povere dei paesi in via di sviluppo sono considerate come marginali, arretrate e destinate alla scomparsa. Si ripropone per queste agricolture l’interpretazione corrente della “stagnazione agricola” dell’Europa settecentesca. Il motivo unico del superamento di dello stato di stallo che raggiunse l’agricoltura alla fine del XVIII secolo è comunemente interpretato in funzione tecnica, nel senso che solo l’agricoltura moderna ha permesso il superamento delle barriere produttive traghettando l’Europa nella modernità.
Come sempre, interpretazioni frettolose sovrappongono gli effetti dovuti a molteplici e diverse cause e non sono in grado di comprendere quali siano le forze in gioco nel complesso mondo agricolo. Questa ipersemplificazione porta di nuovo a considerare la tecnologia come unico punto di riferimento ed unica via per salvare il mondo dalla fame, attraverso un incremento di produttività.
Una banale analisi storica mette invece in luce una situazione del tutto diversa. Per esempio nell’Europa precedente la rivoluzione industriale, una minoranza, probabilmente meno del 5%, di notabili, religiosi, aristocratici, mercanti, militari governava un’enorme popolazione di contadini. Le rendite provenienti dalle terre venivano investite nella costruzione di chiese, monumenti, palazzi, città e per mantenere alto il livello di spesa della minoranza al potere e non venivano reinvestite in agricoltura. La stagnazione dell’agricoltura in quel periodo risente fortemente di questa situazione e del sistema di controllo sociale, che impediva ai contadini l’accesso persino alla cultura tecnica, con gravi riflessi negativi sulla produttività agricola
Nei paesi del terzo mondo si verifica una situazione analoga. Guerre, devastazioni, economie di rapina, analfabetismo, depauperizzazione, marginalizzazione e concorrenza con agricolture occidentali sovvenzionate causano gravissime situazioni, che sfociano spesso nell’emergenza umanitaria. Appare evidente ed ovvio che trasformare queste agricolture in produttrici di organismi geneticamente modificati, non servirebbe assolutamente a nulla.
Il calo dei prezzi al consumo è un altro dei meccanismi puramente economici che distruggono le agricolture dei paesi poveri. Per fare un esempio, un agricoltore europeo ben attrezzato, che dispone di 100 ha di terra, può produrre circa 8.000 quintali di cereali all’anno con un guadagno di circa 120.000 euro. Da questi, dopo aver dedotto l’ammortamento ed i beni e servizi utilizzati, gli rimangono tra 60.000 e 75.000 euro da cui dovranno essere decurtate le tasse, gli eventuali debiti con le banche, l’eventuale fitto del terreno. Il reddito netto di quest’ipotetico agricoltore si aggirerà tra 15.000 e 30.000 euro all’anno. Allo stesso livello dei prezzi un coltivatore del terzo mondo (come abbiamo visto l’80% degli agricoltori africani e dal 40 al 60% di quegli asiatici e sud americani lavorano con utensili manuali), che produce manualmente 10 quintali di cereali all’anno, otterrebbe 150 euro all’anno se vendesse tutta la sua produzione. Poiché deve conservarne almeno 7 quintali per sfamare se e la sua famiglia, il suo reddito arriverà a malapena a 45 euro all’anno, sempre che non debba pagare affitto, interessi, imposte, ecc. In queste condizioni conservando tutto il suo reddito impiegherebbe circa 30 anni per comprare una piccola macchina agricola, circa 300 anni per acquistare un trattore e circa 3.000 anni per dotarsi di un parco macchine completo.
La limitatissima capacità di produzione di questi agricoltori non permette loro di eseguire i necessari lavori di manutenzione dei fondi agricoli, li mette nella necessità di indebitarsi. Poiché di solito dopo il raccolto potrà nutrirsi solo per pochi mesi, si indebiterà ancor più pesantemente. Quando nessuno vorrà più far loro credito l’unica via di uscita è l’esodo verso le bidonville o verso i paesi ricchi.
Anche per comprendere appieno il mito della produttività agricola bisogna fare un passo indietro e cercare di inquadrare il problema storicamente. A questo proposito mi sembra istruttivo ricordare cosa successe tra il 1876 ed il 1902 alla periferia dell’impero britannico. In quegli anni si sono avute tre terribili carestie di cui l’ultima, tra il 1876 ed il 1902, ha causato non meno di 60 milioni di morti in un mondo che aveva circa un sesto dell’attuale popolazione. Il conto approssimativo dei decessi causati dalla crisi del 1896-1902 riporta 19 milioni di morti in India, 1 milione in Brasile, 10 milioni in Cina e circa 1 milione in Marocco e Corno d’Africa. Questa spaventosa crisi fu causata da due eventi concomitanti. Il primo dovuto ad una sfavorevole contingenza meteorologica ed il secondo alla politica economica britannica nei confronti delle colonie.
Se è vero che nei periodi indicati si sono avute gravissime crisi ambientali è pur vero che la burocrazia imperiale forzò l’apparato produttivo coloniale a stravolgere il suo sistema agricolo a favore delle esigenze economiche britanniche. Gli agricoltori delle colonie inglesi si trovarono all’improvviso “globalizzati” a loro insaputa.
Infatti, la Gran Bretagna modificò la sua politica economica intorno al 1846, passando da un’epoca di protezionismo ad una di libero commercio. La Gran Bretagna adottò il cosiddetto Golden Standard nel 1821 e tutte le nazioni occidentali l’adottarono nel 1871. Questi accordi commerciali basati sull’oro come riferimento per il valore delle diverse monete, è paragonabile agli accordi realizzati nell’ambito del moderno Uruguay Round Trade Agreement.
L’applicazione del Golden Standard depauperò le colonie e spinse le potenze occidentali a drenare le risorse dei paesi che dominavano. In particolare, l’Inghilterra obbligò le sue colonie a convertire la loro agricoltura in modo da soddisfare le sue esigenze. Alla vigilia della tremenda crisi alimentare del 1896-1902, l’Inghilterra ridusse della metà il raccolto di grano, a causa della velocissima riconversione economica verso la produzione industriale, e raddoppiò l’esportazione di grano dall’India. La crisi dei monsoni di quell’anno mise in ginocchio l’autonomia alimentare indiana, la quale fu strangolata tra esportazioni, rimborso del debito e costo dell’ British India Office. Il magro surplus di grano si esaurì quasi completamente. Tutto ciò portò ad una catastrofe alimentare senza precedenti nella storia.
A questo aggiungiamo i rapidissimi progressi nelle tecnologie di trasporto (navi a vapore e treni), che resero le coltivazioni da esportazione ancora più vantaggiose aggravando ancor di più le squilibrate condizioni dell’apparato agricolo. La deliberata distruzione dei sistemi agricoli tradizionali a favore di coltura da esportazione rese l’emergenza climatica una tragedia mai vista prima.
La deregolamentazione degli scambi commerciali, l’improvvisa globalizzazione dell’agricoltura, le necessità alimentari della Gran Bretagna in fase di rapidissima industrializzazione, le nuove tecnologie nei trasporti sono state le cause del disastro umanitario e dell’assoggettamento delle agricolture dei paesi poveri a logiche commerciali occidentali. Tali logiche sono tutt’ora in vigore e le terribili difficoltà vissute dai paesi in via di sviluppo hanno oggi esattamente le stesse cause del periodo tardo vittoriano.
In queste condizioni è difficile pensare che la tecnologia agricola da sola ed il solo incremento delle rese per ettaro possano debellare la fame dal mondo. La povertà e la fame sono risultato di politiche commerciali di rapina e non dell’arretratezza dell’agricoltura dei paesi poveri.
A questo proposito vale la pena di ricordare che non esiste “l’agricoltura”, ma esistono al mondo decine e decine di “agricolture”, tutte diverse e tutte calibrate in funzione dei sistemi agro-alimentari (vedi il capitolo Nutrizione), delle differenti situazione pedo-climatiche e delle diverse colture patrimonio delle diverse culture del mondo.
Persino le agricolture più povere sono in evoluzione continua e partecipano alla creazione della modernità. Mazoyer e Roudart (1997) osservano a questo proposito: “Tenuto conto del ruolo che dovranno giocare tutte le agricolture del mondo nella conservazione di un avvenire durevole per l’umanità, è inquietante constatare a che punto l’opinione degli spiriti illuminati dei nostri tempi sia lontana dalle realtà agricole e fino a che punto anche coloro che sono chiamati a gestire l’agricoltura ignorino tutta la ricchezza dell’eredità agraria dell’umanità”.
Ignoranza, superficialità, mancanza di prospettiva storica, arroganza ipertecnologica, spregio per le culture indigene ed indifferenza per le evidenze ecologiche e biologiche sono il patrimonio di chi prospetta un luminoso futuro a tutti quelli che sapranno convertirsi ai dettami dell’agricoltura “moderna”.
A parte di disastri causati da un aumento della produttività per ettaro a cui abbiamo più sopra accennato ed ai costi proibitivi connessi a questa trasformazione, cerchiamo ora di esaminare la validità scientifica dei miti relativi all’aumentata produttività delle sementi della “rivoluzione verde”, la rivoluzione agricola che dice di sé di aver salvato il mondo dalla fame nell’ultimo dopoguerra.
Questo miracolo è avvenuto grazie a tre motivi principali 1) meccanizzazione, 2) concimazione minerale, 3) uso delle cosiddette sementi “ibride” dette anche High Yelding Varieties (HYV) o “varietà ad alta resa”.
Si tratta di un’impostura scientifica che ha dell’incredibile. In primo luogo queste varietà non sono ad alta resa, ma ad alta risposta. Ciò significa che rispondono bene alle tecniche agricole ad alto input energetico e chimico, ma nulla si sa della loro resa in condizioni agricole diverse da quelle occidentali e non esiste nessuna misura oggettiva o neutrale in grado di dimostrare la superiorità di queste colture rispetto a quelle tradizionali. Cercheremo di spiegare in breve questo punto di vista, ma prima vediamo in cosa consistono questi semi miracolosi.
Nei primi anni del ‘900 si cominciarono ad accumulare informazioni sul cosiddetto “vigore dell’ibrido”, in sostanza si tratta di piante particolarmente rigogliose che derivano da due genitori non particolarmente brillanti sotto il profilo della produzione. A questo punto si incomincia a costruire un mito tecnologico e si comincia a fornire una sostegno scientifico, che invece tutto è tranne che scientifico, alla presunta superiorità degli ibridi. Lewontin (1993) osserva a questo proposito “Quelle che vengono presentate come scoperte fondamentali sulla natura della vita spesso nascondono semplici relazioni commerciali che danno un potente impulso alla direzione ed all’oggetto della ricerca.
Il caso degli ibridi è paradigmatico in quanto questi derivano dalla fusione di due linee parentali rese geneticamente omogenee da autoincroci. Il caso più noto è quello del mais, pianta con fiore maschile e femminile sulla stessa pianta. Quando il mais si riproduce la pianta figlia è il risultato della fecondazione avvenuta tra il fiore maschile di una pianta ed il femminile di una pianta diversa. Il selezionatore, una volta trovata una pianta promettente, la autoincrocia (fecondazione del fiore femminile a carico di quello maschile presente sulla stessa pianta). Due linee parentali di questo tipo vengono poi fatte incrociare tra loro e nasce così l’ibrido. Questo dovrebbe essere dotato di straordinario vigore sia rispetto alle piante progenitrici che alle varietà tradizionali. Il contadino che si affida a questi ibridi ha il suo avvenire assicurato. La verità è tutt’altra.
Gli ibridi sono stati prodotti per obbligare il contadino a comprare le sementi ogni anno, invece di conservare parte del raccolto e seminarlo di nuovo l’anno successivo. La caratteristica principale dell’ibrido riguarda l’impossibilità di piantare un seme di mais ibrido ed ottenere di nuovo mais ibrido. Le linee parentali sono autopropaganti (autofecondate), mentre l’ibrido non lo è (visto che nel campo sarà eterofecondato). Per cui lo sprovveduto agricoltore che semina l’ibrido l’anno dopo il raccolto ottiene una mescolanza di varietà omogenee ed eterogenee e nel suo campo ci sarà una popolazione di piante con diversi gradi di ibridismo. Il risultato è che il raccolto sarà inferiore a quello dell’anno precedente. L’agricoltore è dunque costretto ad acquistare le sementi ibride ogni anno.
Schull, il pioniere delle ricerche sugli ibridi, studia dal 1905 al 1908 gli ibridi e nel suo articolo del 1909 osserva che la sua “invenzione” costringe l’agricoltore a rifornirsi di semi ogni anno e non menziona assolutamente la pretesa superiorità produttiva degli ibridi di mais. E’ solo più tardi che Schull comincia a suggerire che il suo metodo potrebbe migliorare il mais. L’”invenzione” nasce dunque come tecnica di espropriazione e non di selezione. In un articolo del 1919 East e Jones scrivono “Gli ibridi sono qualcosa alla cui produzione i mercanti di semi potrebbero facilmente dedicarsi; infatti, è la prima volta nella storia dell’agricoltura che un mercante di semi è in condizione di conseguire l’intero profitto da una sua creazione o da qualcosa che ha acquistato (…). L’uomo che dà origine ad una nuova pianta che può portare incalcolabili benefici a tutto il paese non ottiene nulla – neanche la fama – per le sue fatiche e la pianta può essere propagata da chiunque. (…) L’utilizzazione degli ibridi di prima generazione consente a colui che l’ha creata di conservare i tipi parentali e di cedere solo i semi incrociati, meno validi agli effetti di un’eventuale propagazione. Dunque, risulta chiaro come la molla che ha spinto verso l’utilizzazione degli ibridi sia il miraggio, poi concretizzato, di ricavare enormi profitti da questa tecnica.
L’impeto straordinario all’utilizzazione degli ibridi fu impresso da Henry Wallace, nominato nel 1932 Segretario all’Agricoltura dal Presidente americano Franklin D. Roosevelt. Wallace, figlio di un altro Segretario all’Agricoltura, è un esperto di ibridi e fonda nel 1926 la Pioneer Hybrid Seed Company. Questa ditta parte in sordina, ma l’intera industria degli ibridi inizia a decollare nel 1934 e nel 1944 aveva un fatturato tra i 60 e 70 milioni di dollari. La Pioneer è oggi una delle principali ditte sementiere del mondo.
In gergo scientifico “eterosi” significa “rigoglio dell’ibrido” e dovrebbe essere la base genetica della superiorità delle varietà HYV. Il problema è che nessuno sa cosa sia. Berlan (2001) riporta alcune delle conclusioni del Congresso mondiale sull’eterosi organizzato dal Centro Internazionale per il Miglioramento del Mais e del Frumento nell’agosto del 1997:
1-Le cause dell’eterosi a livello fisiologico, biochimico e molecolare sono oggi oscure come al momento della conferenza sull’eterosi del 1950
2-Le basi genetiche esatte dell’eterosi forse non saranno né mai conosciute né comprese.
Nelle conclusioni finali del Congresso si legge che le incertezze scientifiche e la mancata comprensione del fenomeno non devono spingere ad abbandonare questa tecnica.
Lewontin (1993) riporta i risultati eseguiti con piante di mais non ibridi, risultati mai contestati, che dimostrano come le tecniche classiche di miglioramento genetico possano dare piante molto produttive che conservano, generazione dopo generazione, le loro caratteristiche. Il problema è che nessun riproduttore intraprenderà una simile ricerca che non darebbe nessun tornaconto economico.
Tra il 1921 ed il 1946, periodo di sviluppo esclusivo degli ibridi, il mais (pianta ibrida) aumenta il rendimento del 18%, mentre il frumento (pianta non ibrida) aumenta il rendimento del 32%. Questo solo dato dovrebbe mettere in discussione il valore della presunta superiorità degli ibridi e sottolineare come l’utilizzo degli ibridi abbia di fatto frenato il miglioramento del mais. In più, in un importante articolo del 1956 Robinson et al. studiano le rese di 6 varietà ibride di mais e riportano che la media di produttività degli ibridi è pari al 111,5% della media dei genitori migliori. Se a questo si aggiunge che l’errore standard delle differenze tra i valori percentuali di ciascun ibrido e la media dei genitori è pari al 7,3%, si capisce facilmente come la pretesa superiorità dell’ibrido sia ben lontana dall’essere dimostrata e, nel caso esista, è lungi dall’essere una straordinaria ed irraggiungibile produttività.
Ciò che i dati dimostrano è che una linea parentale particolarmente buona (ricavata con tecniche di miglioramento genetico tradizionali) incrociata con un’altra linea particolarmente buona danno una progenie altrettanto buona. Per sapere questo non c’era bisogno di ricorrere all’eterosi. Si tratta di tecniche di selezione vecchie di almeno due secoli a cui si è solo aggiunta la particolarità del decremento di produttività, dovuto al rimescolamento dei caratteri, per conferire alle nuove varietà un valore aggiunto supplementare di carattere commerciale.
L’utilizzazione degli ibridi ha portato ad un aumento dei costi di produzione del mais. Se un agricoltore che risemina il suo mais ibrido ha, nel secondo anno di produzione, un calo di produzione dovuto alla rottura dell’ibrido, le sementi ibride avranno un costo che incorpora il guadagno in produttività. In altri termini, se il rendimento medio del mais è di 75 quintali l’ettaro, l’agricoltore spende l’equivalente di 15 quintali per ettaro per acquistare le sementi ibride, il che fa scendere la produttività degli ibridi a 60 quintali per ettaro. Questo rendimento effettivo è ben lontano dall’essere esaltante.
Berlan (2001) sottolinea come le sementi HYV abbiano il solo vantaggio di avere una struttura genica in grado di proteggere biologicamente la varietà dalla copia. Chiunque voglia utilizzare le HYV deve acquistare i semi ogni anno. Quest’idea è passata senza mediazioni dalle tecniche classiche di selezione varietale all’uso di organismi geneticamente modificati. L’idea è sempre quella che apparve remunerativa all’inizio del secolo scorso: poter disporre di un genoma vegetale caratterizzato da una restrizione d’uso. Le HYV hanno una protezione biologica dalla copia, il passo successivo, la soia geneticamente modificata della Monsanto, ha una protezione legale dalla copia (visto che la soia non è e non può essere “ibrida” nel senso sin qui visto, l’agricoltore all’atto di acquisto delle sementi firma un contratto nel quale si impegna a non conservare i semi del suo raccolto per riseminare l’anno successivo.), l’ultima nata nel campo di queste tecnologie, la cosiddetta Terminator technology (la produzione di semi che danno origine a piante con semi sterili), rappresenta di nuovo una protezione biologica dalla copia, visto che in caso di risemina i semi non saranno in grado di germinare. Qui l’idea delle varietà prigioniere raggiunge il culmine della perfezione. Se per le HYV il germoplasma è accessibile per chiunque abbia voglia, soldi e capacità tecniche per utilizzarlo ai fini di altri e successivi incroci, nel caso della Terminator technology il germoplasma è inaccessibile e diviene di unica ed assoluta proprietà di chi detiene il brevetto di tale varietà.
A questo punto viene naturale chiedersi in qual modo queste tecnologie dovrebbero essere di aiuto ai paesi poveri. Se i paesi ricchi hanno potuto permettersi il lusso di pagare di più, ed inutilmente, delle sementi che non hanno nulla di particolarmente più utile di buone sementi ottenute con tecniche tradizionali che non portano alla produzione di “ibridi”, e che mantengono le loro caratteristiche stabili nel tempo, non si vede come i paesi più poveri della terra potrebbero permettersi questo inutile lusso. Inoltre le HYV fanno parte di un paradigma agricolo che bisogna accettare in toto e non può essere preso a piccole dosi. Mi riferisco al fatto che le HYV sono sementi produttive solo nell’ambito di un’agricoltura ad alto input chimico ed energetico, sono specifiche delle monocolture, hanno bisogno di grandi superfici per essere coltivate, non sono compatibili con i sistemi agricoli policolturali, ma si inseriscono solo ed esclusivamente in una particolare struttura produttiva ad altissima specializzazione.
La scomparsa di varietà locali soppiantate dalle HYV, l’aumento vertiginoso nel consumo di fitofarmaci e concimi minerali, l’incremento della dipendenza delle deboli economie agricole locali dai giganti occidentali dell’agrochimica (gli stessi che posseggono tutti i brevetti sulle sementi OGM) sono altrettanti corollari della rivoluzione verde.
Se tutto ciò non bastasse per sottolineare i danni della cosiddetta “agricoltura moderna” e del suo corollario rivoluzionario (la “rivoluzione verde”), vale forse la pena di ricordare che all’inizio degli anni ’90 del secolo scorso i nutrizionisti si sono incominciati ad interrogare su quella che è stata definita come “sindrome da fame occulta”. Questa si manifesta con carenze alimentari dovute più alla qualità nutrizionale degli alimenti che alle calorie giornaliere ingerite per capite. In altri termini si tratta dell’incremento di malattie debilitanti connesse con carenze vitaminiche e di sali minerali.
Francamente non so cosa aggiungere a questa puntuale denuncia dei guasti della rivoluzione verde, se non la lista dei danni da carenze di ferro che i paesi più poveri stanno sopportando. La FAO stima che il ferro sia pericolosamente diminuito nella dieta dei paesi in via di sviluppo tra il 1970 ed il 1980. Il problema di ampiezza planetaria è particolarmente grave in Asia meridionale e sud orientale. Le stesse regioni che hanno visto aumentare l’apporto calorico grazie alle varietà della rivoluzione verde. Dunque, secondo la FAO, nel mondo è in atto una pandemia di anemia che colpisce nei paesi poveri il 40% delle donne non gravide, il 50% delle donne gravide e 1,5 miliardi di bambini provocando gravi ritardi nello sviluppo intellettuale. Il 40% dei decessi legati al parto (circa 500.000 all’anno) sono dovuti a forme acute di anemia. Tutto ciò diminuisce l’efficienza fisica e la sopravvivenza delle donne ha enormi ripercussioni sulla produttività dei paesi poveri. Infatti, nei paesi in via di sviluppo le donne forniscono il 100% della forza lavoro non salariata ed il 30% della forza lavoro salariata. Tutto ciò è relativo al solo ferro, ma le carenze riguardano altri micronutrienti e vitamine.
E’ in questo contesto che le nuove tecnologie genetiche si candidano a risolvere disastri delle improvvide tecnologie agricole che vanno sotto il nome di “rivoluzione verde”. E’ in questo contesto terribile di “tecnopatie” (malattie causate da tecnologie) che brillanti scienziati propongono ancora una volta di salvare i poveri dalla fame modificando, ad esempio, il genoma del riso per produrre una “meravigliosa” varietà ad alto contenuto del precursore della vitamina A.

Apr 26, 2008 - opinioni    1 Comment

EFFETTO SERRA

Le radiazioni solari riflesse dalla terra sono in parte trattenute da alcuni gas dell’atmosfera che costituiscono una barriera alla loro fuoriuscita, generando il così detto “effetto serra”.
L’effetto serra è un fenomeno naturale che assicura il riscaldamento della terra grazie a gas naturalmente presenti nell’atmosfera come anidride carbonica, ozono, protossido d’azoto, vapore acqueo e metano. Senza l’effetto serra, la temperatura media terrestre potrebbe essere inferiore anche di 30 gradi centigradi rispetto a quella attuale.
Con la rivoluzione industriale, e con l’uso massiccio di combustibili fossili, la presenza di questi gas capaci di trattenere il calore è però molto aumentata nell’atmosfera, causando un anomalo riscaldamento.
I gas ritenuti i principali responsabili dell’effetto serra sono i seguenti:
• anidride carbonica (CO2)
Negli ultimi 10.000 anni il livello della CO2 nell’atmosfera è aumentato di circa il 10% per effetto degli scambi naturali che avvengono fra atmosfera, oceani e vegetazione terrestre, mentre, negli ultimi 200 anni di sviluppo industriale si è avuto un aumento del 32% . Durante l’inverno si verifica un aumento della concentrazione perché nelle piante a foglia caduca prevale la respirazione; mentre durante l’estate la concentrazione di CO2 atmosferica diminuisce per l’aumento totale della fotosintesi. Le emissioni naturali sono circa 150 GtC/anno (miliardi di tonnellate di carbonio). Quelle invece legate all’attività umana sono circa 8,3 GtC/anno (pari a circa 30 GtCO2/anno), di cui 6,3 legate all’uso di combustibili fossili (petrolio, carbone, legna e gas naturale), la restante parte dovuta a fenomeni di deforestazione e cambiamenti d’uso delle superfici agricole. Di essi circa il 60% viene riassorbito dagli alberi, dalle piante e dagli oceani, il restante 40% porta ad un aumento nel livello atmosferico di gas serra che intensifica l’effetto serra naturale, producendo l’aumento del riscaldamento globale valutato in circa il 70% del totale.
Un aspetto poco studiato è l’incidenza della CO2 proveniente dai terreni coltivati, infatti i terreni contengono grandi quantità di sostanza organica sotto forma prevalentemente di humus, questo ha un basso indice di mineralizzazione (trasformazione della sostanza organica, ad opera dell’ossigeno e dei microrganismi, nei componenti originari: CO2, acqua e sali minerali) pari all’ 1-3% annuo. Scorrette pratiche agricole (lavorazioni frequenti e o profonde del terreno, bruciatura dei residui colturali, terreno nudo nelle stagioni calde, ecc.), provocano un incremento della mineralizzazione e un aumento delle emissioni di CO2.
• metano (CH4)
La concentrazione del metano nell’atmosfera sta aumentando in modo costante da alcuni secoli, insieme all’aumento della popolazione mondiale e all’espansione dell’economia globale. Le principali fonti di emissione sono: gli allevamenti dei ruminanti (i cui sistemi digerenti producono metano), le risaie, la decomposizione anaerobica di materiale organico nelle zone paludose, le discariche urbane, l’estrazione e l’uso del metano e dei prodotti petroliferi. I livelli di metano crescono oggi ad una velocità dimezzata rispetto a 20 anni fa, ma le ragioni di questo fenomeno non sono chiare. Si valuta che il metano eserciti un effetto serra pari a un terzo di quello della CO2, cioè circa il 23% del totale.
La molecola del metano, che è ritenuto il combustibile più “pulito” grazie al fatto che durante la sua combustione non vengono rilasciati altri prodotti inquinanti oltre all’inevitabile anidride carbonica, ha un effetto serra circa 21 volte superiore a quello di una molecola di CO2.
Il caso del metano ci deve far riflettere sul fatto che attività, come l’agricoltura e l’allevamento, che a prima vista potrebbero essere considerate ecologicamente “pulite”, comportano anch’esse delle emissioni nell’atmosfera il cui impatto non deve essere trascurato.
• protossido d’azoto (N2O)
Si forma principalmente da processi anaerobici di denitrificazione dei terreni e da ossidi d’azoto liberati dall’uomo in atmosfera. Le attività umane legate alla produzione di N2O vanno ricercate nell’agricoltura, principalmente nell’uso di fertilizzanti azotati, e in una serie di produzioni industriali. Le emissioni antropiche mondiali sono intorno a 8 milioni di tonnellate/anno, che vengono assorbite principalmente dagli oceani. É il gas serra a maggior potenziale climalterante, poiché la sua capacità nel trattenere calore è 310 volte quello della CO2. La concentrazione media è superiore a 0,3 ppm e sta aumentando con un tasso annuo di quasi lo 0,3% (IPCC), che è sicuramente minore rispetto ad altri gas serra, ma assai rilevante tenendo conto del fatto che il suo tempo medio di persistenza è di circa 120 anni: se anche le emissioni fossero mantenute costanti, ci vorrebbero molti anni per stabilizzarne le concentrazioni. Inoltre, essendo un gas molto volatile può giungere nella stratosfera e, legandosi con l’ozono per reazione fotochimica, contribuire alla diminuzione di questo gas.
• idrofluorocarburi, perfluorocarburi, esafluoruro di zolfo
Questi gas, a differenza dei precedenti, non esistono in natura e sono stati creati sinteticamente per l’uso come solventi, per la produzione di schiume isolanti, per l’impiego nei cicli di refrigerazione, ecc,. I clorofluorocarburi, scoperti da Midgley nel 1928, erano sostanze chimiche considerate miracolose per i processi di refrigerazione e per molti anni furono ritenuti un grande successo industriale. In atmosfera presentano concentrazioni di per sé basse, ma egualmente capaci di dare forti effetti radiativi. La concentrazione di CFC è aumentata molto a partire dagli anni ’60 fino all’inizio degli anni ’90 quando, grazie al Protocollo di Montreal per la Protezione dello strato di ozono, si è riusciti a stabilizzarne le emissioni. La concentrazione CFC-11 che era di 0.175 parti per miliardo (ppb) alcuni anni fa, sta aumentando con un tasso medio annuo del 5,7%, quella di CFC-12, che era di 0,300 ppb una decina di anni fa, sta aumentando con un tasso medio annuo di circa il 6%.
Le principali fonti di emissione dell’ esafluoruro di zolfo (SF6) sono l’industria elettrica, che lo adopera come isolante, la produzione di materiali fonoassorbenti e le fonderie di magnesio. In tutti i casi è possibile l’utilizzo di tecniche alternative per diminuire questa fonte di inquinamento. Le sue concentrazioni sono fortemente aumentate negli ultimi dieci anni, raggiungendo un tasso d’incremento annuo di circa il 7%. La sua persistenza nell’atmosfera è di 3200 anni.
Nell’atmosfera sono attualmente presenti 800 miliardi di tonnellate di CO2, che divise per la superficie delle terre emerse, danno circa 5,5 kg di CO2 per mq, pari a 2 kg di carbonio. In un mq di terreno vi sono in media 8 kg di S.O., corrispondenti a 4 kg di carbonio: nel terreno vi è quindi un quantità di C due volte quello presente nell’atmosfera come CO2. La percentuale si innalza ulteriormente se viene conteggiato il C che costituisce la biosfera (piante, animali, insetti, funghi, batteri ecc.), da cui tramite processi naturali, deriva la sostanza organica del terreno. Questi calcoli medi, pur essendo teorici, danno una sufficiente indicazione sull’ordine di grandezza dei fattori in esame.
All’innalzamento del contenuto di CO2 nell’atmosfera ha contribuito, per una parte stimata fra il 6 e il 25%, l’attività agricola, soprattutto con l’approfondimento della lavorazione del terreno, che determina una maggior ossigenazione e mineralizzazione della sostanza organica, con l’uso di trattrici e macchine operatrici, con la deforestazione per ottenere superfici coltivabili, con l’applicazione di tecniche sempre più esasperate.
Il terreno viene normalmente considerato un semplice supporto per le attività umane ed il posto su cui crescono le piante e vivono gli animali. In realtà è esso stesso ambiente per la vita di una miriade di organismi viventi (funghi, batteri, alghe, lombrichi, insetti ecc.), per un peso che raggiunge facilmente i 2.000 kg ad ettaro. Per fare un confronto si consideri che in un paese densamente popolato come l’Italia, con 191 abitanti per Km2, su di un ettaro vivono mediamente poco più di 100 kg di esseri umani.
La microflora costituisce la parte più cospicua della biomassa del terreno, sia per quantità che per funzioni biologiche svolte, infatti in un grammo di terreno sono presenti da un milione a 10 e più miliardi di batteri. La classificazione nutrizionale permette di distinguerne tre grandi gruppi in funzione della fonte di energia utilizzata: i fotoautotrofi in grado di derivare l’energia dalla luce, tramite la clorofilla, analogamente alle piante superiori; i chemioautotrofi che traggono l’energia da reazioni di trasformazione (ossidazione) di sostanze inorganiche (zolfo, ammoniaca, nitriti, ferro e manganese ); gli eterotrofi, i più numerosi, vivono nutrendosi della sostanza organica del terreno, che decompongono con produzione di energia. Altro importante componente della microflora sono i funghi la cui azione è fondamentale per la degradazione di molti materiali organici ed in particolare della lignina; spesso si associano alle radici formando le micorizze che estendono sia la superficie assorbente che le capacità nutrizionali delle piante. Gli attinomiceti, microrganismi intermedi tra batteri e funghi, hanno in generale una buona attività di degradazione di particolari molecole organiche difficilmente attaccabili (es. amminoacidi), inoltre svolgono un notevole ruolo nella produzione di sostanze vitaminiche, antibiotiche, ormoniche ed ormonosimili. Le alghe, presenti soprattutto sulla superficie del terreno, formano sostanza organica e fissano l’azoto. Classificabili tra la microflora, i virus, sono talora patogeni per le colture, ma più spesso fattori di limitazione ed equilibrio per gli altri microrganismi. La macroflora è rappresentata essenzialmente dalle radici delle piante superiori e dai licheni, importanti soprattutto nei terreni in formazione o poco evoluti.
Il terreno è quindi sia un immenso ambiente vivente che detiene grandi quantità di carbonio sotto forma organica. La sostanza organica, che deriva direttamente sia dagli esseri viventi nel terreno che dai vegetali, la cui percentuale varia mediamente dall’1 al 3%, cioè (per 30 cm di profondità) 30.000-120.000 kg/ha. Solitamente il primo attacco alla sostanza organica che arriva al terreno, viene esercitato dalla macrofauna che la disgrega, la umidifica e la porta in profondità. La meso e microfauna continuano nell’attività, contemporaneamente e di seguito intervengono i diversi gruppi di batteri, funghi ed attinomiceti, che si nutrono delle molecole specifiche. L’aggiunta di sostanza organica dà quindi il via ad un’esplosione di vita, il cui processo all’inizio è lento ma accelera bruscamente con la rapidissima crescita della microflora, e cala repentinamente col venire meno delle condizioni favorevoli. I diversi ceppi di microrganismi sono infatti estremamente specializzati sia per quanto riguarda le fonti alimentari che le condizioni ambientali e di conseguenza in caso di crisi muoiono o passano a stadi di vita latente. Evento frequentissimo, favorito anche dalla loro scarsa mobilità che non gli permette di raggiungere le zone di terreno dove potrebbero continuare a svilupparsi
Tutti i residui organici che giungono nel terreno subiscono così una lenta trasformazione per azione meccanica, chimica e chimico-biologica operata dai numerosi microrganismi umificanti.
L’humus è costituito da un complesso di sostanze contenenti più carbonio e meno ossigeno ed idrogeno rispetto alla materia originale (cellulosa, lignina, proteine ecc.). Materiale derivato da un processo di parziale decomposizione, ma soprattutto di sintesi, sfociante nella produzione di sostanze caratterizzate da una complessità notevolmente superiore a quella del materiale di partenza, è il prodotto della policondensazione di molecole aromatiche, eterocicliche, alifatiche. Inoltre l’humus si lega ai minerali argillosi complessando le particelle in unità sempre più grandi strutturando così il terreno e rendendo disponibili i sali minerali; se da una parte quindi la sua molecola tende a diventare sempre più complessa, grazie a nuove reazioni di condensazione, coinvolgenti anche macromolecole organiche e argillose, dall’altra soggiace ad un lento ma continuo processo catabolico, sia ossidativo che demolitivo, liberando così carbonio sotto forma di CO2 e gli elementi nutritivi che gli erano associati. L’humus ha quindi caratteristiche uniche nella materia organica, è l’unico caso in cui complesse molecole organiche si trovino ad essere direttamente e strettamente unite con il mondo minerale, avendone al contempo continui scambi e mantenendo una struttura relativamente stabile e però evolvente nel tempo. La composizione chimica elementare dell’humus è nella media costituita dal 5% di carbonio, 36% di ossigeno, 5% di azoto e 4% di idrogeno, ed è perciò caratterizzato da un rapporto fra carbonio e azoto pari a 10 ed in peso il carbonio rappresenta il 50% .
.I primi 30 cm di un terreno in un ettaro pesano mediamente 4.000 tonnellate; considerando un contenuto medio del 2% di S.O., si hanno 80 tonnellate/ha di S.O., che, con una mineralizzazione del 2%, diminuiscono di 1,6 t/anno, pari a 0,8 t di carbonio, che torna nell’atmosfera sotto forma di CO2: pertanto, in mancanza di apporti di sostanza organica, il contenuto teoricamente si dimezza ogni 35 anni. L’indice di mineralizzazione può essere molto più elevato se si praticano tecniche agricole scorrette quali lavorare il terreno a profondità eccessive, lasciare il terreno privo di vegetazione, specie nei mesi più caldi, bruciare i residui colturali ecc.. Questo può portare alla scomparsa in pochi anni della S.O., come avviene nei processi di desertificazione o di laterizzazione, in seguito alla rimozione della copertura vegetale e alla messa a coltura dei terreni tropicali. Si calcola che è dell’ordine delle centinaia di milioni di tonnellate annue la CO2 emessa nell’atmosfera per quest’ultima causa.
Come abbiamo già visto, oltre a creare e mantenere la struttura del terreno, rendere solubili i sali e liberare tramite la propria mineralizzazione l’azoto, l’humus grazie alla sua bassa densità (il 2% in peso occupa il 6-8% in volume) permette il passaggio ed il ricambio dell’aria nel terreno, fondamentale sia per le radici che per gli organismi aerobici. La sua natura colloidale consente inoltre di trattenere grandi quantità d’acqua ostacolando l’erosione e rilasciandola poi gradualmente alle colture. Agisce come un serbatoio-volano dell’acqua nel terreno, funzione che diventerà sempre più indispensabile visto il previsto aumento delle precipitazioni e la loro accentuata variabilità in seguito all’effetto serra.
.Ai fini della riduzione delle emissioni di gas di serra non va tenuto conto solo dei rilasci in atmosfera dei gas di serra provenienti dalle attività umane, ma anche della sequestrazione che viene effettuata dall’atmosfera attraverso idonei assorbitori che eliminano tali gas e li immagazzinano opportunamente, in modo da non aumentare l’effetto serra naturale. Uno dei principali assorbitori di gas serra, ed in particolare dell’anidride carbonica, è costituito da piante, alberi e, in generale, dall’accumulo di biomassa attraverso la crescita della copertura vegetale.
I vegetali sono molto sensibili ai cambiamenti climatici perché molte specie sono caratterizzate da nicchie ecologiche con ambiti di tolleranza, rispetto alla temperatura, molto ristretti: un aumento di 1°C è sufficiente ad eliminare molte specie.
Se in pianura le specie devono migrare di circa 150 Km verso nord per neutralizzare l’aumento di 1°C, in montagna basta salire di 150-200 metri di quota per avere lo stesso effetto. I fianchi delle montagne sono caratterizzati da un’ampia variabilità di habitat e di nicchie climatiche che si sviluppano una accanto all’altra: si dovrebbe quindi verificare uno spostamento verso l’alto delle specie, proporzionale all’aumento locale della temperatura. Con un aumento di 4°C avremo spostamenti verso l’alto di 600-800 metri con la conseguenza che le specie endemiche delle cime sarebbero a grave rischi di estinzione; dal momento che le montagne alle quote maggiori hanno superfici più limitate rispetto alle quote inferiori, le popolazioni delle specie che si rifugeranno verso l’alto sarebbero per forza destinate a diminuire.
L’ipotetico aumento di temperatura nel prossimo secolo potrebbe far spostare le zone climatiche di 160-640 km verso il polo, con tale rapidità che molti vegetali non avrebbero la possibilità di migrare e alcuni tipi di foreste potrebbero sparire del tutto. In alcune zone delle latitudini temperate si potrebbero verificare forti siccità, che favoriranno gli incendi forestali e la proliferazione di insetti nocivi. Anche ai tropici l’aumento di temperatura, e soprattutto le variazioni nella piovosità, potrebbero indurre forti rischi nella sopravvivenza delle foreste, e poiché esse rappresentano uno dei maggiori depositi di carbonio, tale funzione potrebbe essere scardinata e una gran quantità di carbonio potrebbe passare dalla terra all’atmosfera sotto forma di CO2.
Si ipotizza che il ciclo idrologico sarà più veloce perché le temperature più elevate farebbero aumentare l’evaporazione: pioverà di più soprattutto nelle regioni costiere, mentre nelle regioni più interne, specialmente ai tropici, le piogge diminuiranno. Generalmente cambiamenti anche modesti del regime delle piogge determinano una forte variabilità del flusso favorendo inondazioni di portata inusuale. Con un aumento di 3-4 °C l’85% delle zone umide dell’Europa meridionale scomparirebbe e le grandi foreste paludose del Borneo rimarrebbero asciutte per alcuni periodi dell’anno, favorendo gli incendi della torba. Particolarmente gravi sarebbero gli effetti nella tundra e nelle regioni artiche, dove gli strati di permafrost impediscono il drenaggio del terreno; se questi si sciogliessero vaste aree di torba si seccherebbero e l’attuale copertura di abete nero, sfagno e licheni, sarebbe sostituita dall’erba. Per i territori montani, ove il bosco difende il suolo dall’erosione e contribuisce al regolare deflusso delle acque, tutto ciò rappresenta motivo di serio pericolo. Per l’Italia un grosso rischio sarebbe quello dell’innalzamento del livello del mare, che potrebbe far scomparire molte delle più belle zone costiere del Paese.
Da quanto detto in precedenza si deve ricordare come, da studi dell’IPCC, che il disboscamento ed altri usi della terra ai tropici, emettono nell’atmosfera 1,6 i miliardi di tonnellate di CO2 (valutati come peso in C): rappresentano quasi il 50% dei 3,3 miliardi di tonnellate di CO2, che ogni anno rimangono aggiunte nette all’atmosfera. É quindi dalla corretta gestione a livello mondiale della biosfera, presente sia sopra la superficie terrestre che dentro il suolo, che si potrà avere nel medio periodo un rilevante contributo per la soluzione, o perlomeno l’attenuazione dell’effetto serra. Si tratta perciò di invertire il processo e trasformare una parte significativa della CO2 in humus, utilizzando le tecniche agricole opportune.
In agricoltura si coltiva per ottenere una produzione vendibile, o comunque utilizzabile nel contesto aziendale. Con medodologie biologiche, o comunque più conservative ed ecocompatibili, al fine di migliorare le future produzioni, si mira ad un incremento della fertilità senza apporti esterni, introducendo nella rotazione colture finalizzate al sovescio (la massa vegetale viene prima triturata quindi lasciata appassire alcuni giorni e poi interrata). Tecniche analoghe possono essere impiegate con lo scopo primario di “immagazzinare” la CO2 sotto forma di humus nel terreno, incrementandone nel contempo la fertilità.
Oltre ad apportare nuovo humus dobbiamo conservare quello già presente, utilizzando tutti gli accorgimenti atti a tenere il più basso possibile l’indice di mineralizzazione e l’erosione del terreno (evitare, quanto possibile, le lavorazioni, non lasciare mai il terreno nudo, cioè privo di copertura vegetale, coltivare colture intercalari e o consociate ecc.). Vanno utilizzate colture che producano la maggior massa verde possibile, triturate quando il rapporto fra massa vegetale e lignificazione sia ottimale (dalla lignina si ha la maggior resa e si ottiene l’humus più duraturo), interrate superficialmente e subito di seguito va seminata un’altra specie che se anche per motivi climatici non arriverà a maturazione, produrrà comunque della biomassa e terrà così coperto il terreno durante l’inverno o l’estate. Evidentemente va proposta una trasformazione dell’agricoltura a livello mondiale che avrà inoltre grandi ricadute positive sia per l’agricoltura che per il territorio
In questa prospettiva il terreno va quindi visto come un ecosistema planetario interagente in modo sostanziale, non solo con la biosfera ma anche con l’atmosfera e sul quale l’uomo può intervenire correttamente, modificando così anche l’atmosfera. Questo principio generale va evidentemente adattato alle realtà pedoclimatiche locali.

Pagine:«12