Projektantom dawnych technologii energetycznych nigdy nie przyszłoby do głowy, jak będą pracować bloki w końcówce swojego istnienia, bo pierwsze założenia pracy były nieco inne niż dziś. Technologia produkcji energii poprzez przekształcenie energii chemicznej paliwa w parę ma swoje praźródła w wynalazkach tzw. bani Herona (już 140 lat p.n.e.) i pierwszych zastosowaniach w starożytności. Następnie w 1681 roku, francuski wynalazca- Denis Papin, którego uważa się umownie z ojca wynalazku kotła energetycznego, zaprezentował tzw. „kociołek Papina”. Potem poszło już szybciej i w XIX wieku powstały koncepcje budowy kotłów, w których woda podążała rurami i odbierała ciepło od spalanego węgla, a w 1856 Stephen Wilcox – potem jeden z założycieli Babcock & Wilcox – opatentował mechanizm kotła wodnorurowego.

Na początek węgiel długo spalano „taki jaki był” z kopalni, w odpowiednikach, wciąż stosowanych kotłach rusztowych, aby na początku XX wieku przejść w erę kotłów pyłowych – wykorzystując pomysł mielenia węgla na drobny pył w celu spalania mieszanki pyłowo-powietrznej. Pierwszy blok w tej technologii zbudowano w latach 1918-20 w Qneida Street Power Plant – w The Milwaukee Electric Railway & Light Company- obecnie jest to korporacja Wisconsin Electric właśnie w stanie Wisconsin. Okazało się, że wstępne mielenie węgla pozwala prowadzić proces spalania w sposób znacznie bardziej efektywny jak również pozwala na wykorzystywanie znacznie gorszych jakościowo węgli. Taka konstrukcja okazała się zwycięska w światowej energetyce węglowej. Kolejne poprawki tej technologii doprowadziły do obecnego standardu budowy bloków, gdzie stopniowo podwyższano parametry pary (do ultraktytycznych obecnie) i skutecznie obroniono dominację kotłów pyłowych przy atakach technologii fluidalnych czy też prób zgazowania węgla.

Co ciekawe, zaraz na początki drogi „pyłowego” spalania, próbowano także użyć ten koncept w węglowych lokomotywach albo na statkach (niemiecki „Nicea” w latach 30-tych). Jednak tu wymogi ciągłych, szybkich zmian obciążenia (a szczególnie pracy na niskim obciążeniu) stały się barierą i wkrótce technologie węglowe w transporcie zostały wyparte przez wygodniejszą w użyciu benzynę lub olej napędowy i rozwijały się już tylko w energetyce. Bowiem w dawnej energetyce, proces produkcji energii w dużych blokach uważano raczej za stosunkowo stały, samo uruchomienie kotła energetycznego (ze stanu zimnego) trwa około 10-12 godzin, bo niemożliwe jest szybkie nagrzanie metalowych elementów grubościennych, więc raczej próbowano produkować energie (po uruchomieniu) już w sposób ciągły i zwykle na jednym, wysokim poziomie obciążenia. Taki (znamionowy) wysoki poziom pracy kotła (i bloku energetycznego z kotłem pyłowym) jest zwykle optymalny sprawnościowo, aczkolwiek da się zmieniać moc i zakres regulacyjności tego typu bloków do ok. 55-100% obciążenia- zejść jeszcze niżej nie jest łatwo z uwagi na problemy ze stabilnym spalaniem w kotle.

Ewolucja polskiego systemu energetycznego.

Gwałtowne przyspieszenie w polskiej energetyce zaczęło się w latach 60-tych, kiedy forsowana industrializacja wymusiła gwałtowne zapotrzebowanie na energię elektryczną. Około roku 1960 wystarczało niewiele ponad 7,5 tys. MW w elektrowniach, ale już wkrótce, w latach osiemdziesiątych nawet ok. 33 tys. MW polskiej energetyki, nie wystarczało i pojawiały się chwilowe ograniczenia w dostawach (stopnie zasilania). W praktyce wszystkie moce poszły w węgiel i w dominującą właśnie technologię kotłów pyłowych. Kiedy budowano elektrownie, nikt nie zdawał sobie sprawy z tego, że bloki trzeba będzie zatrzymywać z innych powodów niż stany awaryjne i remonty, bo energii zawsze brakowało, a regulacje zakładano jako zjazd na niższe obciążenia w części bloków podczas tzw. doliny nocnej.

Powoli sytuacja się zmieniała.

Z czasem, w latach 90-tych i później, mało oszczędne wykorzystanie energii w przemyśle ciężkim odeszło do lamusa- bo i ten przemysł padł- a polski system energetyczny zaczął pokazywać nieoczekiwane nadwyżki mocy. Dodatkowe modernizacje z lat 90-tych (m.in. w kierunku ograniczenia emisji substancji szkodliwych – NOx, SO2, pyły) jak i środki z tzw. Kontraktów Długoterminowych (ówczesnego wynalazku, który jak nic przypomina obecny, europejski „capacity market”) pozwoliły na upgrade i nowe życie starych jednostek i tak w nowy wiek wkroczyliśmy z flotą kotłów pyłowych i elektrowni węglowych.

Przez chwilę próbowano wprowadzić pewną dywersyfikację za pomocą elektrowni gazowych (na ich potrzeby była planowana m.in. druga nitka gazociągu jamalskiego, który potem poszedł w Nordsteam), ale wysokie ceny gazu, załamały pierwszą falę budowy bloków gazowo-parowych, które opanowany tylko 2% mocy w systemie. Jednak to była tylko przygrywka. Nikt nie przewidywał w okolicach roku 2000, że wszystko zmieni się tak diametralnie. Na początku przyszła liberalizacja rynku energii- koncepcja rynkowej sprzedaży, a nie centralnego sterowania produkcją. Okazało się, że nie ważne jak się produkuje, ale jak się sprzedaje, wobec czego bloki energetyczne musiały się przystosować do wymogów kontraktów sprzedażowych- a więc różnego poziomu obciążenia i nawet odstawień. Dalej, jak w dobrym horrorze, było już tylko straszniej i przyszła europejska polityka klimatyczna (gdzie też nikt nie przypuszczał ze będzie aż tak „dekarbonizacyjna”) i powolna, a następnie gwałtowana ofensywa źródeł. Wymagania dotyczące wprowadzania energii odnawialnej i preferencje (zarówno w formach subsydiowania np. zielonymi certyfikatami, a przede wszystkim w dostępie do sieci – obligatoryjny odbiór zielonej produkcji) skurczyły rynek i gwałtownie zmieniły sposób pracy węglówek. Nagle okazało się, że takich bloków jest nawet „za dużo” (poza kilkoma dniami największych obciążeń w mroźne zimowe dni lub w czasie ekstremalnie wysokich letnich upałów), a na dodatek muszą pracować bardzo regulacyjnie (właściwie na minimum technicznym w godzinach nocnych), a często nawet odstawiać się do stanu ciepłego na kilka, kilkanaście godzin a nawet na dni weekendowe lub świąteczne o małym zapotrzebowaniu. Typowe obciążenie polskiego bloku energetycznego jest więc bardzo zmienne – poniżej wykres jednego z 200 MW (upgrade`owanego do 225 MW) w ciągu roku.

obrazek1

Zarówno ilość rozruchów jak i intensywność zmian obciążenia (gradient zmian) są dużo większe niż dawniej. Elastyczność pracy staje się najbardziej wymaganym parametrem. Wobec coraz większej ilości energii z wiatru (w niektóre wietrzne dni) wymagane jest coraz niższe zejście z mocą w nocy oraz jak najszybsze podjazdy (za którą to regulacyjność płaci operator systemu).

Będzie już tylko gorzej.

Wygląda na to, że jest to stan permanentny, a nawet można oczekiwać tylko pogorszenia. Kolejne moce energetyki odnawialnej – cały czas z pierwszeństwem w dostępie do sieci, będą zmuszały elektrownie do jeszcze większej regulacji, a może i powodowały więcej odstawień. Polski system nie posiada właściwie typowych mocy regulacyjnych (poza elektrowniami szczytowo-pompowymi w ograniczonym zakresie). Całość zmian muszą przyjąć na siebie elektrownie węglowe. Będą się ścigać na coraz bardziej kurczącym się rynku i chwytać się kurczowo dodatkowych przychodów z regulacji, obniżać swoje minima techniczne i pracować coraz bardziej dynamicznie. Tymczasem , jak pokazała już historia kotłów węglowych na samym początku ich powstania, są one elastyczne i regulacyjne, ale nie aż tak, żeby uczynić z tego ich podstawowy reżim pracy. Elektrownie węglowe chciałyby produkować (o ile możliwe na nominalnym poziomie obciążenia) a jeśli mają ciągle zmieniać swoją moc i ciągle się zatrzymywać i uruchamiać – na pewno będą musiały też pracować bardziej awaryjnie.

Poniżej – tydzień bez odstawienia dla bloku 200 (225) pracującego w ARCM, ale jak widać przez większą część czasu musiał on pracować w okolicach minimum technicznego (140 MW) na niskich mocach.

obrazek2

Starsze bloki są bardziej odporne… ale też wiekowe.

Żadna maszyna nie lubi nagłych zmian obciążenia, mogą jedynie znosić to lepiej lub gorzej. Bloki węglowe mają odpowiednią liczbę uruchomień (i przekroczeń parametrów dopuszczalnych, które zdarzają się w takich stanach) i wcześniej czy później następują problemy materiałowe. Pojawiają się pęknięcia, a następnie awarie o mniejszym lub większym nasileniu. Paradoksalnie, starsze bloki są technologicznie bardziej przystosowane do zmian obciążenia, bo parametry pary nie są wygórowane. Niektóre z bloków są też praktycznie niezniszczalne, jak wyjątkowe w polskiej energetyce kotły w Elektrowni Połaniec dostarczone z syberyjskiej fabryki w Taganrogu, a więc projektowane z zapasem, większe i spalające wszystko co się tam wrzuci. Dla niektórych bloków wprowadzane są nawet kolejne rozwiązania umożliwiające zaniżanie mocy (dla popularnych 200-tek nawet zjazd do 90 MW ale na węglu kamiennym). Niestety, w większości bloki są już prawie doszczętnie wyeksploatowane. Ilość godzin pracy idzie w setki tysięcy przekraczając powoli dozwolone resursy, a ich dzisiejsza praca oparta jest o wielokrotne modernizacje. Niestety zwykle nie jest znana dokładnie historia eksploatacji (przy takim okresie pracy – czasami nawet ponad 30 lat trudno to zrobić) wobec czego nie znany jest tak naprawdę stan urządzeń, ale na pewno jest słaby. Teraz, coraz większe wymagania elastyczności na pewno nie pomogą im w dojściu do zasłużonej emerytury. Można oczekiwać tylko większej ilości awarii i pogorszenia współczynników dyspozycyjności. Dokładnych wyliczeń dla całego systemu niestety nie ma. Każdy z koncernów (spółki wytwórcze) raportuje oczywiście wewnętrznie parametry niezawodnościowe i koszty remontowe, ale chyba sam dodatkowy koszt spowodowany dużymi zmianami obciążenia i większą liczna odstawień, umyka w zestawieniach. Tymczasem w następnych 5 latach można spodziewać się wzrostu tych kosztów i to niekoniecznie tylko liniowo.

Paradoksalnie-im bardziej nowoczesny, tym gorzej.

Wydawałoby się, że problem rozwiążą nowobudowane, nowoczesne bloki… ale wcale tak nie jest. Postęp technologiczny doprowadził do znacznego podwyższenia parametrów pary (przejście na bloki nadkrytyczne) oraz dzięki lepszym technikom projektowania (komputery i obliczenia) , zoptymalizował dostawy. Projektuje się więc i dostarcza bloki „szyte dokładnie na miarę”, mające znacznie mniejsze współczynniki bezpieczeństwa, niższe zapasy w grubościach ścianek czy dopuszczalnych nieprężeniach- jednak wszystko to będzie tylko szkodzić w przypadku pracy o zmiennych obciążeniach. Przykładowo, dzisiaj typowe, chińskie, duże, węglowe bloki pyłowe mocy są skrojone na pracę w podstawie obciążenia i niechętnie zmieniają moc w krótkim czasie. Tak samo będzie pewnie i w nowych polskich konstrukcjach. Pewne wyniki mamy też z uruchomionych po 2010 instalacji – wszystkie nowe konstrukcje cierpią na stosunkowo dużą ilość awarii – niewątpliwe ma na to wpływ fakt, że są projektowane na nowe, dużo wyższe parametry, ale pewnie też dlatego, że nikt nie przewidywał, że będą zmieniały swoją moc tak często i tak dynamicznie. Czarna seria dotkliwych awarii dotyka zarówno bloku fluidalnego jak i największego pyłowego, na pewno w części dzięki tak dużym wymaganiom pracy w regulacji.
Można więc prawie w ciemno założyć, że każdy nowy blok klasy 1000 MW będzie musiał często pracować częstokroć bardzo nisko (na minimum technicznym) i… że będzie miał dużo więcej awarii niż się spodziewamy.

Nowe technologie węglowe wcale nie będą się lepiej zachowywać.

Dodatkowo – presja na węgiel nie pomaga. Dekarbonizacja wymusza nowe pomysły i nowe technologie, a to znowu ogranicza możliwości pracy na częściowych obciążeniach i gwałtowne zmiany mocy. Przykładowo – wzmiankowana w wypowiedziach Ministerstwa Energii, koncepcyjna technologia korzystania z gazu ze zgazowania węgla (IGCC) kompletnie nie nadaje się do dynamicznej pracy. Zarówno technologia chińska jak i japońska to bloki do pracy absolutnie w postawie na 100% obciążenia, mają jedynie możliwość krótkiego zejścia niżej, ale tylko po to żeby naprawić ewentualne, małe awarie. Nie widać tu żadnej możliwości, aby mogły działać tak jak tego wymaga nowy, polski system energetyczny – zmiennie i szybko. Paradoksalnie wprowadzanie nowego u nas nie pomaga, bo albo taki blok natychmiast będzie miał trudności eksploatacyjne, albo będzie musiał jechać na stałym obciążeniu (a więc dodatkowo wymusi większe wahania w innych blokach w systemie).

A może jednak silnie regulacyjne jednostki?

Patrząc na nowe trendy – może jednak wrócić do koncepcji dobrych, regulacyjnych jednostek, zaprojektowanych właśnie do tego celu. Praca szczytowa, szybkie uruchomienia, regulacyjność w szerokim zakresie i szybkie zmiany mocy – naturalnie preferuje to turbiny gazowe i technologie gazowe. Dodatkowo patrząc na explicite europejskie ograniczenia 550 gCO2/kWh pokazywane w nowych propozycjach europejskiego rynku – powoli staje się to nieuniknione. Przedstawiona niedawno koncepcja prof. Mielczarskiego, aby nie budować już więcej wielkich bloków, a zwrócić uwagę na jednostki dedykowane do regulacji – wydaje się przewidywać nowe trendy. Może więc zamiast do końca w okopach bronić nowych, wielkich bloków energetycznych na węgiel, warto uczyć się na historii, a nawet na historii techniki i energetyki. W końcu węgiel (kocioł pyłowy) nie przebił się do napędu lokomotyw i statków, bo wymagania ruchowe były zupełnie inne. Może więc warto wrócić do koncepcji zbudowania porządnych zasobów mocy szczytowej i regulacyjnej (nawet potencjalnie droższej w produkcji energii), aby nasze, nowe, węglowe jednostki doprowadzić do pracy w podstawie obciążenia, a nie płacić w przyszłości wielkie koszty remontowe?

8 komentarze do “Trudna praca bloków węglowych w polskim systemie energetycznym.”

  1. Świetny artykuł, cieszę się że ktoś w końcu o tym napisał. Często spotykam się z ludźmi którzy nie wiedzą jak to wszystko działa, są nieświadomi, dla nich prąd to gniazdko i włącznik na ścianie. Mam nadzieję, że to przeczytają. Pozdrowienia z EP (POL).

  2. Bardzo ciekawe, właśnie uczę się do egzaminu dyplomowego i trafiłem tu przez przypadek szukając informacji na temat „Rozruchu i odstawiania bloku energetycznego”.

    Pozdrowienia z Politechniki Wrocławskiej

  3. Mam przyjemność pracować na takim bloku w pełni regulacyjnym kiedyś ARCM bujam kotem w dzień i w nocy a teraz tylko w nocy 🙂

    J

  4. Ponad to, co w artykule, jest jeszcze jeden aspekt. Tak jak napisano – energię elektryczną należy produkować w sposób ciągły. To dobre nie tylko dla bloków produkcyjnych. Ale też i do tego są dostosowane sieci elektroenergetyczne. One, może nawet bardziej jak nowoczesne bloki węglowe, nie znoszą skoków i spadków mocy. Powoduje to szereg awarii. Tzw. „zielona energia” to energia periodyczna. Pojawia się i znika – jak jest albo słońce, albo jak jest wiatr. Wtedy powoduje skoki napięcia w sieciach elektroenergetycznych. A jak wiatr lub słońce znikają, to jest nagły spadek.

    Fikcją jest, że ta energia, którą dostawcy energii muszą odkupywać, trafia do jakiegokolwiek klienta. Ona generuje straty. Fluktuacje w sieci i szereg awarii. Prawodawca jednak, wbrew logice i fizyce (sic!) nakazuje ją wprowadzać do systemu elektroenergetycznego i rozliczać po absurdalnych cenach. W efekcie, powstaje kuriozum. Póki jeszcze nie jest to powszechne, to jakoś to działa. Ale właściciel np. takiej małej elektrowni słonecznej na swoim dachu, dostaje prąd gratis – choć de facto nie generując żadnej mocy dla sieci a jedynie fluktuację mocy, która generuje straty i skoki napięć. A gros pobieranej przezeń energii pochodzi z energetyki węglowej.

    Póki jeszcze jest mało takich elektrowni na dachach póty ten system jakoś się trzyma. Ale im więcej takich periodycznych skoków mocy będzie, to te nowe elektroniczne liczniki będą po prostu odcinały dopływ energii do sieci – aby nie powodować kosztownych awarii. W efekcie, ktoś, kto ma solary na dachu, będzie konsumował prąd węglowy, a licznik produkcji będzie rozliczał urojoną wartość energii jaką rzekomo oddał do sieci – przed którą ta sieć się będzie bronić, aby nie powodować strat. On będzie miał jednak energię dzięki tej „nadprodukcji” za darmo. A za jego drogą fanaberię zapłacą zwykli konsumenci w blokach, którzy nie mogą lub nie stać ich na podobną elektrownię na dachu.

    Reasumując, autor bloga nie poruszył najważniejszego problemu moim zdaniem – wrażliwości sieci elektroenergetycznych na skoki mocy…

  5. Jako laik niezbyt rozumiem, dlaczego artykuł ma tak negatywny wydźwięk w kwestii zastępowania węgla przez odnawialne źródła energii. Czy „Będzie już tylko gorzej” odnosi się do tego, że inwestorzy i właściciele elektrowni węglowych będą mieli zmniejszone przychodzy lub nawet będą musieli wycofać się z rynku, ewentualnie kosztownie się zmodernizować w celu obniżenia produkcji? Jeśli tak, to takie stwierdzenie może być mylnie odbierane jako „polska energetyka upada”, podczas gdy przejście na źródła odnawialne jest w gruncie rzeczy dobrym pomysłem (pomijając oczywiście specyficzne szczegóły oraz skrajnych fanatyków).

  6. Przeczytałem ten tekst i jestem jako ten przeciętny zjadacz chleba dla którego prąd to tylko gniazdko i włącznik.
    Jednak nawet będąc laikiem dostrzegam w tym tekście skrajny brak rzetelności.
    Być może się mylę, nie wykluczam tego. Widzę że autor stara się podchodzić do zagadnienia całościowo – mówi o kontekście historycznym, mówi o zmianie warunków działania branży, mówi o problemach technologicznych.
    JEDNAK poświęcając tylko dosłownie kilka słów systemom magazynowania energii – dał dowód swojej albo niekompetencji, albo nierzetelności.
    Są od dawna dostępne systemy magazynowania energii, zdolne do magazynowania dużych ilości energii, i można je zainstalować dosłownie wszędzie, nawet NASA z nimi eksperymentowało NA ORBICIE.
    Te systemy to FESS, czyli systemy magazynowania energii oparte o koło zamachowe.

    https://youtu.be/_QLEERYS5C8

    Brak wzmianki o tym rozwiązaniu to dowód na mierną jakość tego tekstu.

    Jak widać rozwiązanie problemu jest w zasięgu ręki. Problem nie leży w technologii, ale w braku kompetentnych, zdeterminowanych ludzi.

Zostaw komentarz:

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *