Springe zum Hauptinhalt Springe zum Hauptmenü Springe zur SiteSearch

Zu einfach? Zu kompliziert?

Leserbrief von Dieter Wolff

Seit Beginn meiner beruflichen Laufbahn 1980 ist das Thema Heizungsoptimierung eines meiner Steckenpferde. Deshalb habe ich mit Interesse die Artikel zum Schwerpunkt Heizungsoptimierung im GEB 06-2019 gelesen, zwei davon inhaltlich analysiert und mit dem eigenen Erkenntnisstand verglichen.

Ergebnis: Ich bin ziemlich frustriert, was heute so alles als Stand der Technik bzw. der Wissenschaft an die Öffentlichkeit verbreitet wird. Dabei stehen einerseits eine unnötig hohe Komplexität und andererseits eine unzulässige Vereinfachung im Wettbewerb. Geht es um die Darstellung von Ergebnissen, Zusammenhängen und Handlungsanweisungen aus Normen, Verordnungen, Gesetzen und aus wissenschaftlichen Studien, fehlt häufig das richtige Augenmaß für einen Ausgleich zwischen wissenschaftlich erforderlicher Fachlichkeit und notwendiger Vereinfachung, um Lösungsvorschläge für die Praxis anwendbar zu machen.

An den Maßstäben des Pareto-Prinzips überprüfe ich deshalb seit vielen Jahren immer wieder die Effektivität und die Effizienz von neuen aber auch bekannten Anforderungen und Anwendungsrichtlinien, die sich aus Gesetzen, Normen und wissenschaftlichen Arbeiten ergeben.

Das nach Vilfredo Pareto (1848 – 1923) benannte Prinzip, auch 80-zu-20-Regel genannt, besagt, dass 80 % der Ergebnisse mit 20 % des Gesamtaufwands erreicht werden. Die verbleibenden 20 % der Ergebnisse erfordern mit 80 % des Aufwands die quantitativ meiste Arbeit. So die aktuelle Wikipedia-Beschreibung. Mit der für mich wichtigsten Erkenntnis: Meist sind die letzten 20 % Ergebniserzielung gar nicht erforderlich.

Um kurzfristig Erfolge in der Lösung der wichtigsten Aufgabe unserer Zeit zu erreichen, der Minderung der Treibhausgasemissionen, sollten wir uns auf die wichtigsten Aufgaben und Maßnahmen mit einem angemessenen Aufwand konzentrieren.

Dazu gehört das Thema Heizungsoptimierung. Im Artikel von Bernd Scheithauer „Wege zur Massenstromregulierung“ (  Webcode 877344) wird die Frage am Ende der Ausführungen: „Welche Abgleichlösung für welchen Anwender?“ aus meiner Sicht nicht beantwortet. Obwohl diese Antwort aus dem von der Fachhochschule Wolfenbüttel begleiteten Projekt Optimus ( www.bit.ly/geb1615 ) vor mehr als fünfzehn Jahren bereits gegeben wurde. Die Heizungsoptimierung – und zwar nur nach dem Verfahren B der VdZ – lohnt sich in Gebäuden ab der ersten Wärmeschutzverordnung, bei jeder umfassenden Modernisierung der Gebäude- und Anlagentechnik und selbstverständlich sollte sie für alle Neubauten in einem neuen Gebäudeenergiegesetz gesetzlich vorgeschrieben werden.

Die Heizungsoptimierung setzt immer Planung voraus. Eine Selbstverständlichkeit, die aber immer wieder betont werden muss. Da kann es nicht weiter ein schwammiges „Wischi-Waschi-Verfahren A nach VdZ“ geben. Dieses Verfahren A soll nach Scheithauer eine Energieeinsparung von 5…8 % ergeben, was in keiner mir bekannten seriösen Studie bisher messtechnisch belegt wurde. Die Abschaffung des Verfahrens A war sogar der einvernehmliche Meinungsstand der Branche in der VdZ im Jahre 2014. Das Verfahren A sollte nur bis Ende 2016 für die Förderung zulässig sein. Dann wurde – initiiert von wem auch immer (ZVSHK, BAFA, KfW???) – alles wieder aufgeweicht. Bis heute und so auch für die weitere Zukunft.

Die wichtigsten Einflussgrößen auf den Erfolg einer Heizungsoptimierung werden in dem Artikel leider nicht an erster Stelle genannt: Die geplante und „optimierte“ Abstimmung von zentraler Vorlauftemperaturregelung, korrekter Regelpumpeneinstellung und einer sorgfältigen Thermostatventilauswahl mit möglichst kleinen und angepassten kVS-Werten, ohne große Voreinstellwiderstände, mit ausreichender Ventilautorität und einem angepassten XP-Bereich.

Heizungsoptimierung setzt immer Planung voraus. Und wer mit den zuletzt aufgezählten Kriterien nichts anfangen kann, sollte auch keine Heizungsoptimierung durchführen dürfen. Punkt!

Da helfen auch keine von der Industrie und von einzelnen Interessensgruppen – teilweise auch aus der Wissenschaft – neu eingeführten Begriffe wie dynamischer oder sogar automatischer Abgleich. Bei letzterem weiß ich nicht, ob damit nicht mehr eine Einzelraumregelung als eine Volumenstrombegrenzung beschrieben wird.

Solange die Armaturenindustrie für die neuen druckunabhängigen – besser differenzdruckunabhängigen – Ventile keine vernünftigen Kennlinien in ihren Datenblättern zur Verfügung stellt, kann auch nicht vernünftig geplant werden. Die „neuen(?)“ Thermostatventile arbeiten dann genau so gut oder besser schlecht wie ein Zweipunktregler mit entsprechend hoher Regelabweichung, also verminderter Regelqualität und Mehrverbrauch an Energie.

Werden sogar elektronische Ventilantriebe für den sogenannten automatischen Abgleich empfohlen, sollte selbstverständlich auch eine gleichprozentige Ventilkennlinie vorausgesetzt werden. Und warum soll das nur bis 20 Heizkörper gehen? Nur weil die Softwareprogramme einzelner Anbieter der Armaturen- bzw. Pumpenindustrie die einzelne Stromkreiswiderstände noch nicht umfassender berechnen können?

Wie wenig informativ und verständlich einzelne Aussagen sind, zeigt sich in dem Kapitel „Berechnungsbedingte Qualitätsstufen“, u. a. mit der Wiederauferstehung des Verfahrens A der VdZ. Verfahren A setzt voraus, dass die Verhältnisse zwischen Heizkörpernormleistung und Raumheizlast in allen Räumen annähernd gleich sind. Das gilt dann auch für die Spreizung zwischen Vor- und Rücklauftemperatur an jedem Heizkörper (!). Genau das ist in der Praxis nicht gegeben, wie die Optimus-Studie bereits vor 15 Jahren belegen konnte.

Diese Fehleinschätzung, die auch vollkommen der zwar ebenso umstrittenen Auslegung von Heizkörpern nach VDI-Richtlinie 6030 widerspricht, wurde für ein derzeitiges Normungsvorhaben zur Heizungsoptimierung noch einmal ausführlich herausgearbeitet und dokumentiert. Übrigens: Frage an Herrn Scheithauer: „Warum wird ein aktuelles Normungsvorhaben zum Thema Heizungsoptimierung mit keinem Wort in dem Artikel erwähnt?“ Soll das Normungsverfahren – wie häufig praktiziert und von manchen Industrievertretern zugegeben – möglichst lange hinausgezögert werden? Grund: Noch sehr viel länger fließen dann Fördergelder aus BAFA- und KfW-Programmen für Maßnahmen, die von sich aus wirtschaftlich sind, deshalb gesetzlich gefordert werden müssten (GEG) und nicht länger den Steuerzahler belasten dürften.

Wie stark – neben vielen anderen Branchen – auch die Heizungsbranche in den letzten beiden Jahrzehnten seit den ersten Überlegungen zur EnEV vom Pareto-Prinzip durch überflüssige Komplexität abgewichen ist, zeigt sich in folgender Feststellung von Bernd Scheithauer. „Keine nennenswerte Verbesserung erbringt hingegen die (…) Berechnungsart, die eine Heizlastberechnung exakt nach DIN EN 12831 (…) einschließt.“

Da muss ich dem Autor ausnahmsweise Recht geben, obwohl das wahrscheinlich gar nicht von ihm beabsichtigt war. Der im GEB 06-2019 gleichzeitig erschienene Artikel „Überarbeitung der Heizlastnorm“ von Bernadetta Winiewska und Bert Oschatz (  Webcode  877323 ) beschreibt die Verkomplizierung der seit 1929 eingeführten (früher Wärmebedarfs-, heute) Heizlastberechnung.

Benötigen wir Planer tatsächlich 8200 postleitzahlengenaue meteorologische Datensätze für die Raum- und Gebäudeheizlast mit einer auf eine Dezimale genau anzugebenden Normaußentemperatur? Die dann in ihrer vermeintlich vorgetäuschten Genauigkeit von Höhenlage, Zeitkonstante des Gebäudes und in ihrer Wirksamkeit auch noch durch eine neu eingeführte aber überflüssige Komforttemperatur beeinflusst wird.

Obwohl alle Fachleute wissen, dass in neuen Gebäuden die Fremdwärmegewinne – auch im Auslegungsfall – einen mindestens gleich hohen Beitrag zur Heizlastdeckung beitragen können wie die einzelnen Temperaturkorrekturmöglichkeiten. Die Berücksichtigung von innerer und solarer Fremdwärme wird aber in der deutschen DIN EN 12831 SPEC nicht erlaubt, in einer Heizlastberechnung mit dem Passivhaus-Projektierungspaket aber zugelassen.

Warum wird dem verantwortlichen Planer nicht die Freiheit gegeben, die Festlegung der Heizlast mit Berücksichtigung innerer und solarer Wärmeeinträge abzuschätzen, wenn er beispielsweise eine investitionskostenintensive Wärmepumpenanlage plant?

Die im Artikel „Überarbeitung der Heizlastnorm“ erhobenen Ansprüche:

  • Vereinfachungen durch stationären Ansatz (ohne Berücksichtigung innerer und solarer Wärmeeinträge)
  • eindeutige Zuordnung von Klimadaten und Gebäudestandort
  • einfache Handhabung (?!)
  • hinreichend genaue Beschreibung der klimatischen Verhältnisse

werden in vielen Teilen der Norm in das Gegenteil verkehrt:

  • Wärmebrückeneinflüsse mit teilweise drastischem Einfluss bei Passivhäusern
  • Annahmen zur Luftdichtheit, die eigentlich immer über Messungen festgestellt werden können.

Die Liste weiterer, aus meiner Sicht weitgehend überflüssiger Eingabeparameter, die nur für spezielle Planungen benötigt, aber immer „mitgeschleppt“ werden müssen, ließe sich beliebig fortführen.

Fazit

Beide Artikel belegen das eigentliche Dilemma in der Energie- und Gebäudetechnik, aber auch in vielen anderen Fachdisziplinen. Vieles wird – ohne Not – immer komplexer dargestellt, anderes soweit vereinfacht, dass man es auch gleich lassen könnte.

Obwohl viele Zusammenhänge einfach zu analysieren und darstellbar sind. Aus meiner Sicht läuft die Behandlung der aktuellen Themen der Energieeinsparung, der Effizienzsteigerung und des Ausbaus erneuerbarer Energien dem Prinzip „Mit wenig Aufwand hohen Nutzen erreichen“ leider genau entgegen. Ein Paradebeispiel für ein falsches Verständnis des Pareto-Prinzips: die Entwicklung des Energiesparrechts und der zugehörigen Normung der letzten 20 Jahre, vor allem seit Einführung der EnEV im Jahre 2002.

Heute wissen wir: Eigentlich reichen für kurzfristige Energieeinsparungen und CO2-Minderungen einfache Einzelanforderungen an die Gebäude- und Anlagentechnik sowie an die Qualität der Planung, der Ausführung und des Betreibens vollständig aus.

Ein hierfür zu empfehlender Leitfaden sind die Leitlinien wirtschaftliches Bauen der Stadt Frankfurt.

Warum müssen wir auf der einen Seite vieles immer komplexer und komplizierter machen, obwohl es mit dem gesunden Menschenverstand und natürlich mit entsprechenden Fachkenntnissen einfach zu lösen ist? Und auf der anderen Seite wird anderes so weit vereinfacht, dass kaum noch Fachlichkeit gegeben ist. Steckt dahinter eine bestimmte Absicht? Das Pareto-Prinzip wird demgegenüber immer weniger angewandt. Kehren wir zu ihm zurück!

Antwort von Bernd Scheithauer

Guten Morgen Herr Prof. Wolff,

besten Dank für Ihre Stellungnahme, ich schätze ehrliche und sachliche Kritik!

Zum Artikel: Wir beide wissen, dass man dieses Thema unter vielen Gesichtspunkten betrachten kann. Was ja auch gemacht wird – leider mit bescheidenen Erfolg über die letzten 10 … 15 … 20 Jahre. Der Artikel im GEB 06-2019 ist eine Momentaufnahme zu einem bestimmten Thema.

In meinen Schulungen verfolge ich strikt eine Strategie, die gut funktioniert: Die Gliederung in drei Hauptpunkte:

  • Das Systemverständnis (Abhängigkeit zwischen raumweiser Heizlast und Wärmeverteilung/Wärmeerzeugung)
  • Der rote Faden (die praxisgerechte und effiziente Vorgehensweise)
  • Das Werkzeug zur Umsetzung (da wären wir bei der 20/80 Regel, vielleicht erst auf den zweiten Blick erkennbar, dazu später mehr).

Alle drei Bausteine sind wie ein Regelkreis zu sehen und bauen aufeinander auf. In vielen Veranstaltungen habe ich festgestellt, dass die Teilnehmer, wenn ihnen diese Abhängigkeiten aufgezeigt werden, auf einmal verstehen möchten, was statisch und dynamisch in der vierten Dimension – der Zeit – passiert.

Deshalb habe ich zur ISH den Versuchsballon gestartet, das Thema hydraulischer Abgleich in sinnvolle Teilbereiche zu zerlegen: den statischen, den dynamischen und den automatischen Abgleich. Das Ziel: eine einheitliche Interpretation der Begrifflichkeiten, damit jeder versteht was der andere sagt. Der Versuch wurde sehr gut angenommen. Auch das Feedback aus den ersten beiden Webinaren zu diesem Themenblock war prima. Ziel des Artikels im GEB war, konkret einen Teilbereich innerhalb einer Systembetrachtung zu beleuchten.

Anmerkung: Eigentlich sind es vier Methoden, die noch klarer die Funktion der Komponenten und den Prozess der Auslegung beschreiben sollen. Mehr dazu unter www.bit.ly/geb1616.

Zu ihren Anmerkungen kurze Statements.

Verfahren A

Wir sind uns einig. Heizlast = Heizleistung ist eine reine Annahme, die mit der Realität nichts oder wenig zu tun hat. Von meiner Seite könnte das Verfahren sofort gestrichen werden und Verfahren B durch ein B+ (Systemoptimierung) ergänzt werden. Nur gibt es in der Branche noch andere „Player“. Außerdem stelle ich fest, dass in Schulungen, getrieben durch die KfW-Förderung, sowieso nur noch Verfahren B angefragt wird.

Einsparpotential

Schauen Sie mal unter www.bit.ly/geb1617. Ich glaube, der Forschungsbericht ist aktuell die beste Zusammenfassung zum Einsparpotenzial des hydraulischen Abgleichs. Nach der DIN 14366 liegen wir bei einem statischen Abgleich im Vergleich zu Anlagen ohne Abgleich bei einer Temperaturschwankung von 0,2 bis 0,4 K – entsprechend 2 bis 4 % Einsparung, dynamisch noch mehr.

Die wichtigsten Parameter / Pareto-Prinzip

Ja, die wichtigsten Parameter und das Pareto-Prinzip werden in diesem Artikel nicht genannt, was auch nicht das Ziel war. Wir setzen es aber konsequent um. Das größte Hindernis für eine einfache, schnelle und sinnvolle Berechnung ist die fehlende Software für eine NACHrechnung von Bestandsanlagen. Wir berechnen diese Anlagen schon seit einigen Jahren mit der DanBasic V. In der neuen Version, der DanBasic 6 ( www.bit.ly/geb1618 ), habe ich versucht, Folgendes konsequent und einfach umzusetzen:

  • Raumweise Heizlast (leider mit der neuen Norm, was aber der Berechnung nicht schadet),
  • Heizkörper-/Ventilauslegung nach Praxiswerten,
  • Ausgabe der Überdimensionierungsfaktoren und realen Rücklauftemperaturen,
  • Gegenüberstellung der Ergebnisse,
  • Optimierung in Bezug auf den Wärmeerzeuger (nicht nur die max. Vorlauftemperatur),
  • Optimierung der Druckverhältnisse im System in Bezug auf die betrachtete Zone/Bezugspunkte,
  • keine (sinnlose, oder besser auswirkungslose) Rohrnetzberechnung.

Mit dieser Software lassen sich schnell Ergebnisse produzieren. In jeder Schulung kommt die Frage: Geht das Programm auch mit anderen Ventilen außer Danfoss? – Ziel erreicht!

Dynamische Ventile

Ich denke, dynamische Ventile sind schon ein Fortschritt bezüglich des Themas „unbekanntes Rohrnetz im Bestand“. Keine Berechnung wird so exakt sein wie eine Einmessung in einer realen Anlage und ich frage mich oft, wie hoch (oder niedrig) die wahre Ventilautorität bei druckabhängigen Ventilen in Kombination mit viel zu großen Förderhöhen integrierter oder falsch eingestellter Pumpen ist.

Zur Berechnung

Wir forcieren zurzeit aktiv den neuen VDI 3805/2-Datensatz inkl. der druckunabhängigen Thermostatventile und Volumenstromregler. Jetzt sind die Softwarehäuser an der Reihe, diese auch richtig auszulegen. Bei unserer Software geht das schon. Leider wird im VDI 3805/2-Datensatz unter dem Armaturentyp 12 funktional kein Unterschied zwischen Differenzdruckreglern und Volumenstrombegrenzern gemacht.

Maximal 20 Heizkörper

Nein, die Beschränkung auf max. 20 Heizkörper liegt nicht an der Berechnung. Beim automatischen Abgleich gibt es zwei „Systeme“. Mit und ohne Rückmeldung auf die zentrale Regelung. Das können wir (noch) nicht und ist auch nicht ganz unkritisch. Denn nur mit einer Adaption auf die Vorlauftemperatur wäre eine wirkliche Optimierung möglich. Aber: Wo ist hier die Grenze, wer legt die Grenzwerte fest, wie dynamisch ist die Anlage dann noch, …? Viele Fragen. Deshalb: Erstmal Erfahrungen sammeln, wie sich kleine Anlagen verhalten.

Ich freue mich auf eine intensive Diskussion.

Viele Grüße nach Wolfenbüttel

Bernd Scheithauer

Antwort von Bert Oschatz

Lieber Kollege Wolff,

Ihr Brief liest sich ein wenig nach „früher war alles besser“, was schon allein begrifflich nicht stimmt - der physikalisch falsche Begriff Wärmebedarf sorgt immer noch dafür, dass Leistung und Energie verwechselt werden, ein lästiges Erbe früherer Normen. Die bisherigen Klimadaten sind so alt, dass sie mit unserer Lebensrealität leider nicht mehr zusammenpassen. Postleitzahlengenaue meteorologische Datensätze sind einfacher und klarer in der Anwendung. Es gibt, anders als bei den bisherigen Datensätzen – immerhin auch 500 – keinerlei Zuordnungsprobleme. Nur am Rande: Wärmepumpenhersteller und VDI bemühen sich um eine Übernahme der Daten in die VDI 4650, weil sie die Daten für besser geeignet halten. Eine Höhenkorrektur der Außentemperatur erfolgt nicht, wenn die Höhendifferenz weniger als 200 m beträgt, sodass für die Mehrzahl der Fälle die Ermittlung der Höhe des Gebäudestandortes entfällt und damit keine Verkomplizierung gegenüber dem bisherigen Ansatz erfolgt. Mit dem PHPP ausgerechnete Heizlasten führen im realen Leben regelmäßig zu Heizungsanlagen, die den Nutzererwartungen nicht entsprechen, Passivhäuser werden genau deshalb mit „richtigen“ Heizungsanlagen ausgestattet. Die eingeforderten Freiheiten bei der Heizlastberechnung führen letztendlich zu Unsicherheiten und Rechtsstreitigkeiten, daran haben weder Planer noch Installateure ein Interesse. Rückmeldungen der Softwarehersteller bestätigen, dass schon jetzt – vor dem Erscheinen der finalen Fassung des Nationalen Anhangs der Norm – hunderte Projekte zur Zufriedenheit der Anwender mit der neuen Norm gerechnet werden.

Ob wir mit dem Pareto-Prinzip einen klimaneutralen Gebäudebestand erreichen können, ist fast schon eine philosophische Frage, ich teile Ihre diesbezügliche Auffassung nicht. Sicher ist jedoch, dass Gebäude, die vor einigen Jahrzehnten mit dem damaligen Normstand geplant und errichtet wurden, heutige Erwartungen an Neubauten nicht erfüllen würden.

Für eine tiefergehende Diskussion lade ich Sie gern in den Normenausschuss ein, aus Platzgründen habe ich hier nur ein paar wenige Aspekte angemerkt.

Herzliche Grüße aus Dresden

Bert Oschatz