Skip to Content
| Segui QualEnergia.it su Facebook Twitter LinkedIn

Le rinnovabili non traumatiche per il sistema elettrico

Come la digitalizzazione delle reti può consentire di affrontare la questione della non programmabilità della produzione di elettricità da fotovoltaico ed eolico e perché domanda e offerta del mercato elettrico potranno essere gestite con sempre maggiore flessibilità. Un articolo di GB Zorzoli pubblicato sulla rivista bimestrale QualEnergia.

versione articolo in pdf

Tutto ha inizio il 18 dicembre 2006, con l’approvazione, da parte dell’Autorità per l’energia, della Delibera n. 292/06, contenente “Direttive per l’installazione di misuratori elettronici di energia elettrica predisposti per la telegestione per i punti di prelievo in bassa tensione”.

A distanza di otto anni i contatori elettronici funzionanti in Italia superano i 36 milioni, di cui circa il 90% installati da Enel. È la digitalizzazione delle reti di distribuzione, che pone il nostro Paese all’avanguardia a livello mondiale. Le conseguenze pratiche e le implicazioni di questo aspetto della rivoluzione digitale spesso sfuggono anche a molti addetti ai lavori. Grazie alle informazioni che il contatore elettronico è in grado di fornire e all’ausilio di altri apparati elettronici, il distributore può effettuare la telegestione dell’utenza. Si tratta dei primi passi verso la realizzazione delle smart grid, che non sono, come spesso si crede, un sistema predefinito di hardware e software da installare tal quale nelle reti di distribuzione, bensì un processo continuo di adeguamento delle prestazioni della rete. E quelli compiuti sono passi già rilevanti.

In questo modo le reti di distribuzione, progettate per svolgere una funzione passiva - veicolare il flusso monodirezionale di energia, che arrivava dalla rete di trasmissione, ai clienti finali, dove le informazioni sui consumi avvenivano esclusivamente attraverso la lettura, da parte di un dipendente del distributore, dei dati del contatore elettromeccanico - si sono trasformate in reti attive, in grado di gestire flussi di energia e di informazione bidirezionali e, in misura crescente, anche flussi di energia, anche loro diventati bidirezionali in seguito alla crescita sostenuta della generazione distribuita.

Un tipico esempio dell’insufficiente comprensione di quanto già si è realizzato in termini di digitalizzazione delle reti viene fornito dal modo con cui, a livello di analisi e di proposte, si sta affrontando il tema della non programmabilità delle due tecnologie che maggiormente hanno contribuito alla crescita delle rinnovabili (eolico e fotovoltaico) e dei suoi effetti sul dispacciamento.

Molto, troppo spesso la situazione attuale viene descritta come “drammatica” e le sue conseguenze come “estremamente onerose”. Un’autorevole smentita a questa ridda di voci è venuta il 15 ottobre scorso dall’amministratore delegato dell’Enel, nel corso dell’audizione alla X Commissione del Senato. Secondo Starace, la crescente digitalizzazione delle reti italiane possedute da Enel ha, fra l’altro, reso possibile assorbire in modo non traumatico la veloce penetrazione delle rinnovabili, soprattutto del fotovoltaico. I flussi di energia provenienti da questi impianti, che sono essenzialmente allacciati alla media e bassa tensione delle reti di distribuzione, vengono oggi gestiti in modo tale da non creare particolari problemi al sistema elettrico.

Su questo punto Starace è stato molto esplicito: le rinnovabili vanno considerate come le altre tecnologie di produzione, purché vengano trattate come le altre. Oltre tutto le cosiddette non programmabili lo sono sempre meno, perché i sistemi previsionali, anche nel caso più complesso (l’eolico), hanno progressivamente ridotto l’errore medio, portandolo praticamente in linea con l’errore previsionale della domanda elettrica.

Un contributo notevole alla programmabilità può venire dall’aggregazione delle produzioni da rinnovabili in ambiti territoriali omogenei. Non a caso il riferimento è alla loro produzione, in quanto l’aggregazione può essere solo virtuale (è l’ipotesi più probabile per gli impianti già in esercizio) e non fisica, cioè esclusivamente finalizzata a presentare sul mercato un’offerta elettrica con caratteristiche sostanzialmente non dissimili da quelle della produzione tradizionale. Per la legge dei grandi numeri, l’effetto della stocasticità di alcune fonti rinnovabili sulla generazione elettrica diminuisce infatti al crescere del numero di impianti installati e della loro distribuzione territoriale. È intuitivo che le cose vadano così, ma grazie a studi in materia è possibile quantificarne l’effetto, che già si manifesta quando il numero di impianti associati è limitato, come ho avuto occasione di illustrare nel numero di settembre-ottobre 2011 di QualEnergia ne “Il paradigma che cambia”.

Uno studio dell’Energy Lab dell’Università di Berkeley, utilizzando i dati solari relativi alla media minuto per minuto dal 2004 al 2009 in 23 siti diversi in una vasta area dell’Oklahoma, distanti fra loro da 20 a 440 km, ha calcolato l’andamento della potenza fotovoltaica resa disponibile in rete in una giornata parzialmente nuvolosa da un solo sito, da cinque siti adiacenti e da tutti i ventitré siti presi in esame. Come mette in evidenza la figura 1, l’aumento delle installazioni, benché modesto, porta a una rilevante riduzione dell’aleatorietà.

La possibile partecipazione all’aggregazione anche delle bioenergie, del mini-idro e degli impianti geotermici eventualmente presenti contribuirebbe a stabilizzare ulteriormente l’offerta di elettricità. L’aggiunta di back-up (cicli combinati flessibilizzati, accumuli) renderebbe ancora più prevedibile l’offerta. Con un vantaggio aggiuntivo: nel caso dei cicli combinati, invece del capacity payment, meccanismo che continua a incontrare riserve a livello europeo e oltre tutto è definito per via amministrativa, si avrebbe di fatto un flexibility payment, il cui valore sarebbe determinato dalla convenienza dell’integratore, quindi in ultima istanza dal mercato.

In quest’ottica, l’aggregatore ha il compito di gestire l’insieme degli impianti in un dato ambito territoriale, partecipando al mercato elettrico su mandato e per conto dei singoli operatori e, successivamente, di governarne la produzione in modo da soddisfare gli impegni contrattuali. L’aggregatore può essere un consorzio fra operatori nell’ambito territoriale, ma questa funzione potrebbe essere utilmente svolta anche dalle utility, in coerenza con le loro nuove strategie di allargamento alle attività di servizio, o da importanti trader. Fra le funzioni dell’aggregatore quasi automaticamente rientra la gestione attiva della domanda.

Parliamo di 15-20 anni fa, ma sembra un’altra era geologica. Allora si discuteva sulla possibilità o meno di utilizzare in un mercato liberalizzato la pianificazione energetica integrata, convenzionalmente abbreviata in IRP (Integrated Resource Planning). A partire dalla prima crisi petrolifera, negli Stati Uniti l’IRP era richiesto alle società elettriche dalle Commissioni regolatrici dei singoli Stati, all’inizio con lo scopo di dare impulso alla conservazione dell’energia e alla gestione attiva della domanda, successivamente anche per promuovere le fonti rinnovabili.

Sostanzialmente si trattava di una pianificazione dinamica, che teneva conto della storia, dell’ambiente e del territorio in cui operava l’azienda elettrica, e prendeva in considerazione molti aspetti finalizzati al migliore utilizzo dell’energia, quali per esempio:

  • i vari tipi di risorse disponibili dal lato sia dell’offerta sia della domanda;
  • i criteri per la selezione delle  risorse;
  • il rischio nell’utilizzo delle singole risorse e quindi l’affidabilità del sistema energetico complessivo;
  • i cambiamenti esterni, fra cui principalmente l’evoluzione delle condizioni economiche e finanziarie;
  • gli impatti e i costi ambientali;
  • i prezzi dell’energia;
  • le nuove tecnologie;
  • i cambiamenti nelle politiche fiscali e in quelle regolatrici.

Sulla base dell’IRP, un’utility era orientata a selezionare, per ogni settore di utilizzo, le tecnologie più convenienti e a stabilire i relativi programmi di Demand Side Management (DSM). Concepito e attuato quando ancora i mercati elettrici erano strettamente regolati, l’IRP attirò l’attenzione della Commissione europea, che a metà degli anni ‘90 emise una Comunicazione nella quale si proponeva di promuoverlo e incentivarlo anche in Europa. Tipico esempio della mano destra che ignora cosa stia facendo la sinistra, paradossalmente questa indicazione viene resa pubblica proprio quando si sta per concludere la trattativa tra gli Stati membri sulla liberalizzazione del mercato elettrico. Anche l’Autorità per l’energia non è da meno, quando, pochi anni dopo, annuncia una proposta per lo sviluppo di un sistema di promozione di interventi di DSM (Documento di consultazione su “Regolazione delle tariffe del servizio di fornitura dell’energia elettrica ai clienti vincolati”, 27 novembre 1999). Naturalmente non se ne fece nulla.

A rendere il problema non solo risolubile, ma parte ineludibile di una modalità complessiva di gestione del sistema elettrico, sono stati i contestuali sviluppi delle rinnovabili e dell’ITC, ai quali si aggiungono oggi le Direttive sull’efficienza energetica del 2010 e 2012, la cui attuazione non può prescindere dalla diffusione della domotica, per gestire in modo ottimale (quindi efficiente) l’insieme degli apparati presenti in un appartamento, in un ufficio, in un esercizio commerciale.

Questi dati di fatto mettono fra l’altro in evidenza che sarebbe ora di rendere giustizia alle rinnovabili. Come nessuno disconosce il ruolo innovativo a tutto campo della rivoluzione digitale (le riserve e le preoccupazioni riguardano il suo impatto economico e sociale), un analogo effetto - non così esteso, ma non per questo trascurabile - lo producono le rinnovabili, a livello sia tecnologico che industriale.

Lo sviluppo di reti di distribuzione attive (smart grid), in grado di gestire in modo flessibile domanda e offerta di energia, richiede infatti l’inserimento di:

  • infrastrutture di telecomunicazione e protocolli per lo scambio di informazioni, nonché sistemi informatici (simulatori, sistemi di controllo, sistemi di gestione delle informazioni, sistemi di previsione);
  • sistemi di misura (il contatore elettronico rappresenta di per sé la base per lo smart metering presso i carichi passivi);
  • sistemi di supporto all’operatore (per esempio gestione del rischio, previsioni).

Molte delle tecnologie per la rete telematica sono già disponibili ma, data la numerosità dei componenti richiesti da una smart grid, questi devono avere costi contenuti senza penalizzazioni in termini di affidabilità, condizione essenziale per lo sviluppo commerciale delle reti attive. Di qui importanti sviluppi tecnologici e industriali, in parte già attuati, altri in via di realizzazione.

Anche prodotti apparentemente tradizionali non sfuggono a questa ondata innovativa. Così il temporaneo eccesso di produzione rispetto alla domanda di un impianto fotovoltaico può essere utilizzato per accumulare frigorie in un frigorifero smart, che le restituirà quando la produzione sarà scesa sotto la domanda. Si tratta di un esempio, particolarmente innovativo, dell’ultima componente della triade richiesta per una gestione flessibile dei futuri sistemi elettrici: l’accumulo.

La primogenitura spetta indubbiamente alla trazione elettrica su strada che, per imporsi come alternativa credibile ai veicoli alimentati da carburanti, doveva disporre di batterie con sufficiente autonomia, buona affidabilità e costi contenuti. Questo obiettivo si è però sinergicamente intrecciato con quello di un’adeguata flessibilità nella gestione dei sistemi elettrici, indotta dalla penetrazione delle rinnovabili, che in prospettiva non può prescindere dalla disponibilità di sistemi di accumulo sia integrati con gli impianti eolici o fotovoltaici, sia connessi alla rete di distribuzione.

In più l’esigenza di ricarica dei veicoli elettrici o ibridi plug-in offre alle reti di distribuzione il contributo di accumuli diffusi che, se ben gestiti, possono contribuire efficacemente all’esigenza complessiva di storage. Questa sinergia si sta materializzando sotto i nostri occhi così rapidamente che fatichiamo a seguirne l’evoluzione. È infatti possibile che, per la convergenza di questi impulsi, l’andamento dei prezzi degli accumuli elettrochimici segua lo stesso trend di quelli degli impianti fotovoltaici, che fra il 2007 e il 2014 in Italia sono diminuiti di quasi quattro volte, un calo reso possibile dal fatto che gli impianti sono realizzati assemblando un numero variabile di moduli. Poiché la potenza del singolo modulo è di norma pari all’incirca a un quarto di kW, anche un impianto piccolo, da 3 kW, per uso domestico, richiede una dozzina di moduli. Nella sola Italia, dove fra il 2007 e il 2013 è stata installata una potenza totale di quasi 18 milioni di kW, in pochi anni sono stati acquistati circa 70 milioni di moduli. I programmi di sviluppo del fotovoltaico mettono quindi in moto una domanda rapidamente crescente di moduli, la quale, a sua volta, consente la realizzazione di impianti su larga scala per la loro produzione.

L’unica tecnologia per la generazione elettrica realizzabile con processi produttivi simili a quelli di molti beni di consumo durevole, e altrettanto automatizzabili, non poteva non essere caratterizzata da analoghi, drastici cali dei costi unitari in tempi relativamente brevi. In più il modulo fotovoltaico, come l’inverter, è caratterizzato da un tasso di innovazione tecnologica incrementale ancora elevato. Questi fattori, insieme all’effetto del tradizionale learning by doing, hanno consentito agli impianti fotovoltaici di diventare in pochi anni competitivi in un numero non piccolo di situazioni specifiche.

Rispetto al fotovoltaico, i sistemi di accumulo elettrochimico più promettenti hanno un tasso di innovazione tecnologica incrementale mediamente più elevato e, in caso di robusta crescita della domanda, anche alcuni dei loro componenti possono essere realizzati con processi produttivi simili a quelli di molti beni di consumo durevoli.

Questa comparazione qualitativa trova riscontro nelle previsioni di importanti istituzioni finanziarie, come Bloomberg New Energy Finance (Energy storage valuation study: UK, gennaio 2012), CITI (Battery storage – the next solar boom?, 30 aprile 2013) e più recentemente UBS, che prevede un drastico calo dei costi delle batterie al litio: più del 50% fra il 2013 e il 2020, circa il 75% nei prossimi dieci anni (Fig. 2).

Una previsione identica (100 $/kWh fra dieci anni) è stata fatta dal Chairman di Tesla, Elon Musk, ed è sostanzialmente condivisa da un analista di Bloomberg (Whitney McFerron, Giant Energy Storage Project Aims at Renewable Energy’s Holy Grail, 15 ottobre 2014).

Se queste sono le prospettive secondo le analisi effettuate non da ambientalisti radicali, ma da autorevoli istituzioni finanziarie internazionali, sorge spontaneo un interrogativo: come giudicheremo fra non molti anni le proposte sul capacity payment, di cui stiamo discutendo oggigiorno? Probabilmente sembreranno reperti archeologici come i tentativi, nei tardi anni ‘90, di introdurre norme di DSM nel neoliberalizzato mercato elettrico.

L'articolo è stato pubblicato sul n.5/2014 della rivista bimestrale QualEnergia, con il titolo "L'elettrone flessibile"





Commenti

In tutta sincerità non è

In tutta sincerità non è possibile trattare la questione della "sicurezza energetica" in modo statistico, almeno non con probabilità come quelle citate.

In pratica viene detto che "a causa dei tanti produttori di energia non programmabile, mediamente qualcuno produce sempre". Ma chi è che ne risponde se non accade? Se qualcuno a causa di questo azzardo rimane chiuso in ascensore (per dirne una) e muore, chi è che può essere penalmente perseguito?

E' un problema relativamente piccolo, ma molto pratico. Occorre garantire che anche se vento e sole producono ZERO per qualche ora, c'è qualcosa o qualcuno che compenserà questa mancanza.