Menü

Bei dem Thema herrscht Konsens: Integrales Planen, Bauen und Betreiben führt zu einer ganzheitlichen Betrachtung von Gebäuden und Quartieren und somit zu praxistauglichen, kosten- und energieeffizienten Lösungen. Doch das ist noch keineswegs Planungsalltag. Deshalb gibt es in der Forschungsinitiative ENERGIEWENDEBAUEN verschiedene Ansätze, solche Prozesse zu unterstützen und zu optimieren. Geklärt werden soll konkret, welche Konzepte und Maßnahmen helfen, Nutzerkomfort, Funktionalität und Nachhaltigkeit, aber auch Wirtschaftlichkeit zu verbessern. Außerdem wird an modernen Planungswerkzeugen gearbeitet, welche integrale Planungsprozesse unterstützen.

Unter dem Leitthema „Integrales Planen, Bauen und Betreiben“ trafen sich am 22. und 23. Mai 2017 mehr als 120 Forscher in Lüneburg zum 2. Projektleitertreffen ENERGIEWENDEBAUEN. Tagungsort war das erst kürzlich eröffnete Zentralgebäude der Leuphana Universität, dessen markantes Erscheinungsbild die Handschrift des Architekten Daniel Libeskind trägt. Mit Impulsvorträgen wurden Ideen und Konzepte aus Forschung und Planungspraxis vorgestellt. In fünf parallelen Workshops wurden diese Ideen zu einzelnen Themenschwerpunkten vertieft.

Ein Veranstaltungsbericht von Uwe Friedrich und Johannes Lang
 

Der Auftaktvortrag war ein praxisfundiertes Plädoyer für das integrale Planen und Bauen. Jan Oliver Weisel von Dr. Schönheit + Partner Engineering konnte am Beispiel von Industriebauten zeigen, dass das Prinzip integrale Planung kein Schlagwort sondern vielmehr wichtiges Erfolgskriterium für Bauprojekte ist, gerade in Zeiten starker Spezialisierung und Vernetzung. Es vereinfache Prozesse und minimiere Kosten. Darüber hinaus birgt es nach Weisel auch Chancen, die Potenziale für Energieeffizienz und Ressourcenschonung zu identifizieren und zu nutzen. Denn energetische Aspekte sind oft nicht im Fokus privater Bauherren. Weisel beschrieb, welche Aufgaben und Verantwortlichkeiten die Architekten und Projektsteuerer als „Integratoren“ in dem Planungs- und Bauprozess haben: Mit Hilfe ihrer übergreifenden Fachkenntnisse binden sie alle Beteiligten in den Gesamtprozess ein − vom TGA-Planer und Bauphysiker bis hin zum Bauherrn, mit dessen verbindlichen Vorgaben. Die Integratoren führen durch das Dickicht der verschiedenen Planungs- und Bauphasen und synchronisieren die einzelnen Themen, Tätigkeiten und Geschwindigkeiten.

Die Formsprache von Daniel Libeskind setzt sich auch am Kasernenkonversionsstandort in Lüneburg mit der Zeit des Nationalsozialismus und dem Aufbrechen starrer Strukturen auseinander.

© Johannes Lang, BINE Informationsdienst

Das Gebäude soll für Seminare, Vorlesungen, Büroarbeitsplätze, ein großes Audimax und für Ausstellungen und Veranstaltungen Flächen bereitstellen.

© Johannes Lang, BINE Informationsdienst

Der große Hörsaal war für das Projektleitertreffen mit etwa 130 Teilnehmern deutlich unterhalb der Auslastungsgrenze – und dennoch beeindruckend.

© Johannes Lang, BINE Informationsdienst

Qualitätssicherung durch technisches Monitoring und Inbetriebnahme-Management

Mit dem technischen Monitoring kann die energetische Performance von Gebäuden überwacht und optimiert werden.

© IGS, TU Braunschweig

"Jedes Gebäude – nicht nur die Forschungsobjekte – braucht ein angemessenes Monitoring, also eine kontinuierliche Überwachung seines Betriebs und ein Nachführen von Anlagenparametern“, betont Dr. Stefan Plesser von der synavision GmbH gleich zu Beginn seines Vortrags. Im Folgenden skizzierte er mögliche Werkzeuge zur Qualitätssicherung in der Praxis. Einen wichtigen Schritt in diese Richtung könne die geplante VDI-Richtlinie 6041 bringen, in der das "Technische Anlagenmonitoring" geregelt wird. Denn fehlende normative Vorgaben sind nach Plesser das größte Hemmnis für einen optimalen Gebäudebetrieb. Planern wie Bauherren fehlt hier Rechtssicherheit bei der Planung eines technischen Monitorings. Und in der Praxis gelänge es zu selten, die Beteiligten Experten und Gewerke unter einen Hut zu bringen. Dieses Problem haben inzwischen mehrere Bundesländer erkannt. Beispielsweise fordert die Staatliche Vermögens- und Hochbauverwaltung in Baden-Württemberg ein technisches Monitoring zur energetischen Optimierung für größere Bauprojekte. Als weiteres Problem sieht Plesser ungenaue Definitionen zentraler Begriffe wie „Funktionsbeschreibungen von RLT-Anlagen“ oder „Probebetrieb“. Weder detaillierte Ziele noch Prozesse wie Prüfprozeduren seien einheitlich festgelegt.

Inbetriebnahme-Management bei Prestigeprojekt

Samuel Rischmüller und Maik Wussler von SIZ energie+ stellen das Inbetriebnahme-Management für das Zentralgebäude der Leuphana Universität vor. Das Projekt startete in schwieriger Ausgangslage. Denn Zieldefinitionen und Nutzeranforderungen wurden zum Teil unvollständig oder nicht „vertragsfest“ dokumentiert. Probebetriebe waren zwar formal ausgeschrieben, die Vorgehensweise, Umfang und Inhalte waren jedoch nicht definiert. Eine abgeschlossene Inbetriebnahme (nach HOAI/VOB) ist jedoch Voraussetzung für spätere Probebetriebe. Im Fall des Zentralgebäudes gehörten dazu stichprobenartige Prüfbegehungen und die Sichtung sowie Bewertung von Protokollen der Errichter gebäudetechnischer Anlagen. Damit konnte das bestehende Mess- und Monitoringkonzept aktualisiert werden. Wichtig waren auch Workshops mit Fachplanern, Errichtern, dem Bauherrn Leuphana und der Projektsteuerung zur Klärung offener Fragen aus der Planung. Gleichzeitig konnte das weitere Vorgehen der Inbetriebnahmen und Abnahmen abgestimmt werden. Für das Lüneburger Zentralgebäude wird es ein zweijähriges technisches Intensiv-Monitoring geben. Es startet in Kürze.

Die wissenschaftliche Begleitung des Zentralgebäude-Betriebs führte zu wichtigen Erkenntnisse, die in die VDI-Richtlinie 6039 "Inbetriebnahmemanagement für Gebäude“. Die Richtlinie erläutert die entsprechenden Methoden und Planungsschritte für gebäudetechnische Anlagen. Monitoring- und Inbetriebnahme-Konzepte sollten sehr früh in den Bauprozess integriert und deshalb zwingend Eingang in die Leistungsverzeichnisse der Fachplaner und Errichter finden.

Planung und Steuerung dezentraler Energiesysteme in Gebäuden

Methodik des im Forschungsprojekts WaveSave entwickelten Projektierungssystems.

© UdK Berlin, Institut für Architektur und Städtebau

Gebäudeenergiesysteme werden immer komplexer. Daher reicht es nicht mehr aus, diese erst im Betrieb von bereits gebauten Anlagen zu optimieren. Bereits in der Planung oder Projektierung müssen die Systeme mit Blick auf einen optimalen Betrieb ausgelegt werden. Moderne Anlagenmodelle, Software und Informationstechniken bieten hier neue Möglichkeiten. Im Forschungsprojekt WaveSave werden aufeinander abgestimmte Planungs- und Optimierungstools für Gebäudeenergiesysteme zur dezentralen Strom- und Wärmeversorgung entwickelt: ein modular aufgebautes System zur Projektierung und eine adaptive Betriebsführung. Geeignete Planungs- und Steuerungstechniken sollen die verschiedenen Energiesystemkomponenten für den späteren Betrieb optimal aufeinander abstimmen. Darüber hinaus wollen die Forscher neue Managementlösungen für die Integration und Steuerung dezentraler Energiesysteme in der Gebäudeautomatisierung bereitstellen.

Dr. Armin Wolf vom Fraunhofer FOKUS und Prof. Dr. Christoph Nytsch-Geusen von der Berliner Universität der Künste schilderten auch die konkrete Anwendungsmöglichkeiten: So wurden der Nutzen und die Vielseitigkeit des WaveSave-Systems in verschiedenen Anwendungsszenarien nachgewiesen, beispielsweise für die Lastoptimierung einer Wärmepumpenheizung. Darüber hinaus erfolgt derzeit eine Erprobung an realen Gebäuden, so am Energieversorgungssystem einer Plusenergie-Schule sowie eines prototypisches Solargebäudes, dem Solarhaus Rooftop der UdK Berlin. Es stammt aus dem internationalen Wettbewerb Solar Decathlon Europe 2014. Hierfür wird das System angepasst und in einem Probebetrieb evaluiert.

Gebäudesanierung wird zum Geschäftsmodell

Im Forschungsprojekt EDLIG wurden in Fallstudien verwendete Geschäfts- und Finanzierungsmodelle auf das zentrale Erfolgskriterium der Einsparinvestition hin untersucht.

© KEA Klimaschutz- und Energieagentur Baden-Württemberg

In einem Forschungsprojekt zur Umsetzung energetischer Sanierungskonzepte im Nichtwohngebäudebestand beschäftigt sich die KEA Klimaschutz- und Energieagentur Baden-Württemberg aktuell mit der Entwicklung von Energiedienstleistungen bis hin zu angepassten Geschäftsmodellen. Projektleiter Rüdiger Lohse schilderte zunächst, welche Hindernisse in der Gebäudesanierung überwunden werden müssen und wie geeignete Maßnahmen zur Steigerung der Energieeffizienz aussehen können. Das Forschungsprojekt EDLIG könnte einen Lösungsansatz bieten. Hier wurden integrale Sanierungen öffentlicher Gebäude in 26 Fallstudien analysiert - hinsichtlich erreichter Zielgrößen und spezifischen Investitionskosten, aber auch unter Kosten-Nutzen-Aspekten sowie Plan-Ist-Abweichungen.

Die in den Fallstudien verwendeten Geschäfts- und Finanzierungsmodelle wurden erstmals auf das zentrale Erfolgskriterium der Einsparinvestition hin untersucht. Dabei kam die Unternehmensanalyse-Methode Canvas zum Einsatz. Erforderlich war ein modellbasierter Umbau bekannter Geschäftsmodelle wie dem des Anlagen-Contractings aus der Technischen Gebäudeausrüstung für die Sanierung der Gebäudehülle. Umfassende integrale Sanierungskonzepte zu modellieren, war dann der nächste Entwicklungsschritt. Fünf repräsentative Gebäudetypen innerhalb des öffentlichen Gebäudebestands waren die Basis dafür. Als Demonstrationsmodell diente das Studierendenwohnheim Ludwig Frank in Mannheim. Dort erfolgt durch Einsatz des Finanzierungsmodells "DER Einsparcontracting" eine Vergütung des Contractors durch das Studierendenwerk anhand von Kosteneinsparungen.

Ermittlung der Minimalkosten in der Vorplanung

Dr. Reinhard Jank von der Volkswohnung GmbH in Karlsruhe stellte anschließend das Tool DEROM (Deep Energy Retrofit Optimization Model) als Planungswerkzeug zur energetischen Optimierung in der Vorplanungsphase vor. Seine Stärken hat das Tool vor allem in der Minimalkosten-Ermittlung für komplexe Maßnahmen in der Sanierung. Mit der Einbindung von DEROM in den Planungsprozess wird nicht nur die Finanzierung und Durchführung projektspezifischer Korrekturen möglich, sondern auch ein strukturierter Vergleich von Sanierungsvarianten sowie die Ermittlung eines Kosten- bzw. energetischen Optimums. DEROM wurde bereits im Rahmen der Sanierung des Karlsruher Quartiers Rintheim-West entwickelt und zur nachfrageseitigen Optimierung eingesetzt.

Workshops mit Impulsen

Im Zentrum des Projektleitertreffens stand die inhaltliche Vertiefung in fünf Themenschwerpunkten in parallelen Workshops. Mit Impulsvorträgen wurden die Diskussionen jeweils eröffnet:

1. Integrales Planen, Bauen und Betreiben: Faktor Mensch

Wie beeinflusst der Mensch als wesentlicher Faktor das Planen, Bauen und Betreiben von Gebäuden? Das diskutierten die 22 Teilnehmer dieses Workshops.

© Wissenschaftliche Begleitforschung

In technologieorientierter Forschung und Entwicklung werden technische Systeme meist isoliert von sozialen Systemen betrachtet. In der Realität hingegen interagieren Menschen mit der Technik und schaffen Regeln dafür. Deshalb braucht es neben neuen Technologien selbst auch deren Einführung in deren Gebrauch und die Einpassung in die Marktbedingungen. Der Mensch beeinflusst die Effizienz eines Gebäudes durch seine Investitionsentscheidungen und durch sein Verhalten. Die Planungs- und Investitionsentscheidungen beruhen nicht ausschließlich auf technischer Qualität und den Kosten für Anschaffung und Betrieb. Hinzu kommen weitere ökonomische Faktoren, zum Beispiel Informationskosten, Risikokosten, Externalitäten und geteilte Anreize zwischen Mietern und Eigentümern. Eine große Rolle spielen darüber hinaus Einflussgrößen wie Umweltbewusstsein, Erfahrungen und das soziale Umfeld.

Interessenkonflikte als Hemmnisse

Der Workshop diente dem Austausch über die vielfältigen nicht-technischen Einflussfaktoren, die innerhalb der Projekte zu Hemmnisse werden, Erfolgsfaktoren darstellen oder zusätzlichen Mehrwert generieren. In einer kurzen Einführung benannte Prof. Dirk Müller,  vom Institut E.ON ERC an der RWTH Aachen die unterschiedlichen Akteure, die als „Faktor Mensch“ mit der Technik interagieren: Investoren, Eigentümer, Betreiber, Nutzer und Quartiersbewohner. Das bekannteste Konfliktfeld ist das Eigentümer-Nutzer-Dilemma. Darüber hinaus relevant sind der Betreiber-Nutzer-Konflikt und die Performance-Lücke. Der Betreiber-Nutzer-Konflikt besteht darin, dass der Betreiber Kosten und Energie einsparen soll, der Nutzer hingegen keine Einschränkungen akzeptiert. Dieses Problem tritt beispielsweise bei Schulgebäuden auf. Die Performance-Lücke bezeichnet die Differenz zwischen berechneter und gemessener Energieeinsparung.

Nutzerkomfort versus Energieeffizienz?

Marcel Schweiker vom Karlsruher Institut für Technologie präsentiert in seinem Impulsvortrag erste Ergebnisse aus dem Forschungsprojekt ValMoNul. Hier werden die Wechselwirkung zwischen thermischem und visuellem Komfort untersucht. Forschungsstätte ist das Laboratory for Occupant Behaviour, Satisfaction, Thermal Comfort and Environmental Research am KIT (LOBSTER). Hierbei handelt es sich um einen drehbaren Kubus, dessen Oberflächen einzeln temperiert und dessen Fenster alle geöffnet werden können. Außen- und Innentemperatur sowie ihr Einfluss auf das Nutzerverhalten lassen sich separat bestimmen. Laut Schweiker müsse das Öffnen der Fenster möglich sein, da andernfalls die Nutzerzufriedenheit so stark sinke, dass andere Einflussfaktoren nicht mehr untersucht werden könnten. Die Versuche werden seit einem Jahr durchgeführt, mit bisher etwa 50 Testpersonen. Betrachtet wird ausschließlich das Verhalten im Büro. Es besteht keine Kleiderordnung. Die Probanden können Temperaturen zwischen 19 und 25 Grad Celsius einstellen und sowohl Innen- als auch Außensonnenschutz verwenden. Zur Validierung der Umfrageergebnisse wurde umfangreiche Messtechnik installiert. Vorläufiges Fazit der Studie ist, dass visuelle und thermische Faktoren sich gegenseitig beeinflussen und zusammen betrachtet werden müssen. Dieses Ergebnis soll Gebäudeplanern vermittelt werden.

Mark Wesseling vom Institut E.ON ERC an der RWTH Aachen ergänzte mit weiteren Ergebnissen aus dem Projekt ValMoNul. Der Fokus liege auch hier auf dem Spannungsfeld Nutzerkomfort versus Energieeffizienz. Entwickelt werden soll ein System, das die Anwesenheit des Nutzers erkennt und ihm einen Nutzertyp zuordnet. Anhand des Nutzertyps erfolgt eine automatische Komfortmaximierung mit Feedback des Systems an den Nutzer.

Nutzerzufriedenheit und Feedbacksysteme

In der anschließenden Diskussion geht es um den Nutzen von Technologien und Feedbacksystemen. Angesichts der erheblichen Eingriffe von Nutzern in die Technik fragt man sich, ob diese Technik vielleicht nicht gewünscht oder nicht benötigt wird. Es herrsche Unsicherheit darüber, ob von Nutzereingriffen tatsächlich auf Unzufriedenheit der Nutzer geschlossen werden kann. Berichtet wurde von einem Projekt, in dem Beschwerden von Mitarbeitern aufgenommen und anschließend die Technik erläutert wurde. Außerdem wurden die Bedingungen in dem betreffenden neuen Gebäude mit denen anderer Gebäuden verglichen. Diese Informationen trugen zur Nutzerzufriedenheit bei.

Folgende Thesen wurden in der Diskussion vorgetragen:

  • Für den Nutzer ist Selbstbestimmung wichtig. Wie diese Eingriffsmöglichkeit konkret aussieht, ist zweitrangig.
  • Viele Nutzereingriffe geschehen aus Gewohnheit, sind also sozial erlernt.
  • Feedbacksysteme geben Nutzern die Möglichkeit ihre Gewohnheiten selbstbestimmt zu verändern.
  • Wichtig ist, dass diese Systeme verlässlich funktionieren, ansonsten verliert der Nutzer schnell das Vertrauen.
  • Schulungen und Feedbacksysteme schließen sich nicht aus.

2. Wärmenetzbasierte Konzepte und integrale Planung

Wie können wärmenetzbasierte Konzepte von dem Prinzip integraler Planung profitieren? Das diskutierten die 27 Teilnehmer dieses Workshops.

© Wissenschaftliche Begleitforschung

Der Workshop beschäftigte sich mit der integralen Planung und Umsetzung wärmenetzbasierter Konzepte. Carsten Beier, Fraunhofer UMSICHT, zeigte im einleitenden Impulsvortrag den Zusammenhang von integraler Planung und wärmenetzbasierten Konzepten auf und betonte, welch hohe Anforderungen solche Konzepte an die Integration der Akteure und dem Abgleichihrer Ziele und Interessen stellen. Mit der Vielzahl an Versorgungsobjekten, Effizienzmaßnahmen und Versorgungsvarianten, die miteinander kombiniert werden können, ergibt sich eine komplexe Planungsaufgabe: Aus den vielen Lösungsmöglichkeiten müssten die besten Konzepte ausgewählt werden, die aus Sicht der beteiligten Akteure erfolgversprechend und umsetzbar sind. Dabei ist die Qualität der Ergebnisse stark von der verfügbaren Datenbasis abhängig. Geeignete Planungshilfsmittel können diesen Prozess der integralen Planung unterstützen. Der Komplexität wärmenetzbasierter Konzepte in Stadtquartieren steht eine Reihe an Potenzialen gegenüber. Denn mit Wärmenetzen können erneuerbare Energien leichter in den Strom- und Wärmesektor integriert werden. Die Zentralisierung der Wärmeversorgung hat zur Folge, dass größere Anlagen zur Energieversorgung und -speicherung eingesetzt werden können. Dadurch steigt die wirtschaftliche Effektivität der Investition sowie anschließender Maßnahmen der Betriebsoptimierung. Darüber hinaus können die Anlagen besser zur Problemlösung im übergeordneten Energiesystem genutzt werden.

Bewertung von Quartierskonzepten

Zunächst wurde die Bewertungskriterien diskutiert: Ein wichtiges Kriterium zur Bewertung von Quartierskonzepten ist die Wirtschaftlichkeit. Doch einerseits stellen die unklaren künftigen wirtschaftlich-rechtlichen Rahmenbedingungen ein großes Problem für die Bewertung dar. Andererseits ist gerade das Kriterium der Wirtschaftlichkeit oft durch individuelle Sichtweisen geprägt. Oder anders ausgedrückt: Was für den einen wirtschaftlich nicht vertretbar ist, kann für andere wirtschaftlich sinnvoll sein. Weitere wichtige Kriterien wie Finanzierbarkeit und Finanzierungsrisiken, die energetische Qualität sowie ökologische Aspekte sollten zusätzlich berücksichtigt werden.

Eine Bewertung von Konzepten anhand des Primärenergiebedarfs, dem Endenergiebedarf oder den entstehenden CO2-Emissionen ist nach Ansicht der Teilnehmer zukünftig nicht mehr ausreichend. Bei einer Energieversorgung mit hohem Anteil erneuerbarer Energien und Volatilität der Stromerzeugung gewinnen andere Probleme und Einflussgrößen an Bedeutung. Weiterhin führt die Dezentralisierung des Energiesystems zu anderen Systemeigenschaften und einem anderen Systemverhalten. Zukünftig werden also der Systemnutzen und die Systembelastung ausschlaggebend für die Qualität eines Lösungsansatzes sein. Um eine wirtschaftliche und sichere Energieversorgung zu gewährleisten, ist es daher erforderlich, entsprechende Kriterien wie Netzbelastung, Energieausgleich oder Steuerbarkeit von Anlagen in die Bewertung von Versorgungskonzepten einzubeziehen. In der Diskussion wurde angeregt, dass auch für Wärmenetze die Bewertung der Netzdienlichkeit interessant sein könnte. Trotz technischer Notwendigkeit werden derzeit jedoch noch zu wenig wirtschaftliche Anreize gesehen.

Integrale Planung als Erfolgsfaktor

Wärmenetzbasierte Konzepte sind in Zukunft eine wichtige Grundlage für die Sanierung des Altbaubestands. Im Gegensatz zu Stromnetzen bieten Wärmenetze eine Vielzahl kostengünstiger Speichermöglichkeiten und haben daher ein großes Potenzial für die Sektorkopplung zwischen Strom- und Wärmeversorgung. Darüber hinaus können Mobilitätskonzepte besser integriert werden. Im Zusammenhang mit Neubaugebieten besteht allerdings das Problem, dass die Nutzung eines Wärmenetzes bereits zu Erstellung des Bebauungsplanes feststehen muss, der Nachweis einer wirtschaftlichen Nutzung zu diesem Zeitpunkt aber nicht möglich ist. Bei sinkenden Wärmebedarfen stellen die Nutzung von Niedrig-Exergie-Netzen mit niedrigen Temperaturen und die Integration industrieller Abwärme wichtige Lösungsansätze dar.

3. Betreiben von Gebäuden und Quartieren aus Sicht der Energiebereitstellung

Welchen Einfluss haben Konzepte aus der Energieversorgung für Gebäude und Quartiere? Die Teilnehmer dieses Workshops diskutierten über Power-to-X-Konzepte und Demand-Side-Management-Maßnahmen.

© Wissenschaftliche Begleitforschung

Die Teilnehmer dieses Workshops befassten sich primär mit Fragestellungen mit Blick auf die Stromnetze. So wurde in einem ersten Themenblock der Fokus auf Gebäude und die Optimierung des Anlagenbetriebs gelegt. Der zweite Themenblock konzentrierte sich auf den Quartiersbereich mit Blick auf Potenziale für die Einspeisung erneuerbarer Energien und das Demand Side Management (DSM) als Konzept zur Laststeuerung. Das Ziel des Austauschs war es, neue Ideen und Perspektiven für künftige Geschäftsmodelle von Stadtwerken und Energieversorgern zu entwickeln. Hierzu wurden folgende Fragen diskutiert:

  • Ist Netzneutralität, Netzdienlichkeit oder gar Autarkie anzustreben?
  • Ist eine Kopplung von Wärme und Strom sinnvoll?
  • Sollte eine verstärkte Einbindung erneuerbarer Energien oder industrieller Abwärme im urbanen Raum erfolgen?
  • Können Nutzer durch Mieterstrommodelle einbezogen werden?
  • Wie stark ist der Einfluss der EEG-Umlage und anderer rechtlicher Rahmenbedingungen?
     

Power-to-Heat-Anlagen wirtschaftlich betreiben

David Schröder von der TU Berlin unternahm in seinem Impulsvortrag eine Bewertung des Einsatzes von Power-To-Heat und Power-To-Gas in Quartierskonzepten Nordostdeutschlands. Anschließend stellte er die pilothafte Umsetzung im Wirtschafts- und Wissenschaftsquartier Berlin-Adlershof vor. Die Motivation für das Forschungsprojekt P2X@BerlinAdlershof sieht er in der bestehenden Versorgungslücke im Wärmebereich. In diesem Projekt werden Betriebskonzepte und Planungshilfsmittel für Power-to-Heat- und Power-to-Gas-Technologien entwickelt. Eingebettet in ein Quartierskonzept soll am Standort Berlin-Adlershof mithilfe der bestehenden Power-to-Heat-Anlage demonstriert werden, wie sich die Integration von erneuerbarem Überschussstrom in den Wärmemarkt technisch und organisatorisch umsetzen lässt. Denn langfristig sollen Power-to-X-Anlagen als Nachfrager auf dem Strommarkt auftreten können und in Zeiten hoher erneuerbarer Einspeisung Strom aufnehmen. Abgaben und Umlagen auf den Stromverbrauch machen diese Sektorkopplung jedoch momentan noch wirtschaftlich unattraktiv.

In der anschließenden Diskussion wurde der Nutzen von Power-To-Heat thematisiert sowie die Festlegung der Bilanzräume für eine systemische Bewertung. Ein Großteil der Teilnehmer akzeptierte hierfür das Gebäude als kleinste Einheit. Dies führte zu der Grundfrage, ob eine einheitliche Beschreibung von Strom und Wärme benötigt wird. Den im Strombereich existiert durch Bilanzkreise aus der Energiewirtschaft ein standardisiertes Verfahren. Für den Wärmesektor gibt es nichts Vergleichbares. Für eine intelligente Kopplung von Strom und Wärme fehlt ein Bewertungssystem. Hier wurde die CO2-Emission als mögliche Kenngröße zur Bewertung beider Sektoren genannt. In jedem Fall sollten Power-to-X-Anlagen noch gezielter eingesetzt werden, um Synergien zwischen Strom- und Wärmebereitstellung zu erzielen.

Neutrales Plusenergie-Quartier Landshut

Ein weiterer Impulsvortrag von Dr. Volker Stockinger, Hochschule München, wurde das Prinzip der saisonalen Regelung von Gebäuden und Quartieren anhand erster Erkenntnisse aus dem Forschungsprojekt Neutrales Energie+-Quartier aufgezeigt. Ziele des Forschungsprojekts sind die elektrische Neutralität und die Entkopplung von Erzeugung und Verbrauch. Dazu wird eine hybride Wärmeerzeugung mit saisonaler Regelung entwickelt, die eine laufende Betriebsoptimierung integriert und die Nutzer einbezieht. Netzneutralität bedeutet in diesem Kontext die Maximierung der Eigendeckung und somit eine Reduzierung von Überschusseinspeisung und Netzbezug.

Vor dem Hintergrund des Vortrags wurden die Leitfragen des Workshops erneut diskutiert. Dabei wurde deutlich: Ein wichtiges Hemmnis der systemischen Bewertung von Strom- und Wärmebereitstellung sind die unterschiedlichen Interessen der verschiedenen Akteure. Ideal wäre eine Kenngröße für alle Bilanzräume, die sich für höhere Ebenen wie dem Quartier umrechnen lässt. Und: Das Gebäude- oder Quartiers-Energiekonzept sollte die Komplexität der einzelnen Bewertungs- und Bilanzierungsmethoden verringern und damit für sämtliche Akteure wie die breite Fachöffentlichkeit verständlich und nachvollziehbar sein.

4. Integrales Planen, Bauen und Betreiben mit digitalen Planungsmethoden

Welche Chancen bieten digitales Planungsmethoden und welche Schwierigkeiten sind dabei zu überwinden? Das diskutierten 20 Teilnehmer in diesem Workshop.

© Johannes Lang, BINE Informationsdienst

Können digitale Werkzeuge und Methoden das integrale Planen beflügeln? Grundsätzlich ja, das ist weitgehend Konsens. Denn im Zeitalter dreidimensionaler Gebäudemodelle, umfassender Datenbanken, Kollaborationssoftware, universeller Austauschformate und Webplattformen gibt es eigentlich genügend Ansätze, um integrales Planen, Bauen und Betreiben zu organisieren und über die verschiedenen Phasen hinweg zu verzahnen.

Mit Blick auf die traditionelle Rolle von Architekten wird deutlich, dass eine integrale Planung nur gelingen kann, wenn es in dem Planungsgeschehen integral denkende Gestalter gibt. Sie müssen die analoge Welt ebenso kennen wie die digitalen Dimensionen von Planung. Architekten sollten diese Rolle übernehmen und die interdisziplinäre Kommunikation im Projektteam moderieren.

Komplexität digital gestalten – aber bitte unkompliziert

Dabei sind Werkzeuge notwendig, die es erlauben, Komplexität gestaltbar zu machen – ohne durch Kompliziertheit zu überfordern. Ein umfassender Ansatz ist das Building Information Modeling (BIM). Es ist inzwischen stark in der Diskussion, wird jedoch eher selten angewendet.

BIM ermöglicht die Planung, Konstruktion und den Betrieb von Gebäuden durch Erstellung und Verwendung intelligenter 3D-Modelle – auf Basis eines konsistenten und allen zugänglichen digitalen Bauwerksmodells, das im Laufe des Planungsprozesses von allen Beteiligten schrittweise mit Informationen angereichert werden kann.

Digitale Informationslücke zwischen Planung und Betrieb

Generell gilt, dass hohe Wertschöpfungspotenziale erst dann entstehen, wenn die Lücke zwischen der digitalen Planung und dem digitalen Betrieb geschlossen wird. Aktuell kann ein kontinuierlicher Datenfluss nicht gewährleistet werden, da einheitliche Standards fehlen. Wichtig sind dabei einheitliche Merkmalsdefinitionen und Klassifikationen sowie offene Standards für Automation und Funktionsbeschreibungen.  Teilnehmer im Workshop empfehlen einen Transformationsprozess der kleinen Schritte, um die beteiligten Planer und Akteure nicht zu überfordern. Wichtig sei dabei zu klären, wo die Daten nach dem Abschluss des Projektes landen, wie diese attributiert und weiter verwertet werden können.

Ein großes Problem ist der Kostendruck in der Baubranche. Und: IT-spezifische Aufgaben sind nicht so einfach auf einzelne Projektbeteiligte zu übertragen. Zur Digitalisierung der Wertschöpfungskette müssen also projektspezifische Rollen grundsätzlich definiert und digitale Qualitätsprozesse auf Spezialisten verteilt werden. Aufgrund der Granularität und Fragmentierung der Baubranche können digitale Planungsprozesse mit integralem Anspruch letztlich nur vom Gesetzgeber oder von den Bauherren eingefordert werden. Öffentliche Bauherren praktizieren dies zunehmend.

Die Chancen und Risiken digitaler Planungsmethoden

Als wesentliche Ergebnisse der Diskussionen im Workshop lässen sich zusammenfassen:

1. Integrale Planung
Digitalisierung kann helfen, eine gemeinsame Sprache für die integrale Planung zu finden. Integrale Planung bleibt aber eine große Herausforderung, weil auch sozio-kulturelle, strukturelle und ökonomische Aspekte eine große Rolle spielen. Denn Planung ist nicht in erster Linie ein designgetriebener Prozess. Vielmehr kann der Architekt zum Moderator in einem komplexen Prozess werden.

2. Komplexität und Werkzeuge
Welche Lösungen aus der Informatik sind angemessen, um die Informationsvielfalt zu verwalten und zu organisieren? Schießt man nicht manchmal mit Kanonen auf Spatzen? Komplexität überfordert die Planungsbeteiligten oftmals. Bezahlbarkeit, Bedienbarkeit, Ausbildung und Qualifizierung sowie Qualitätssicherung sind wichtig. Ebenso spezifische Nutzeroberflächen.

3. Schnittstellen
Wie müssen Daten organisiert sein, um die Komplexität abzubilden und zu beherrschen? Das neutrale Datenaustauschformat IFC wird vielfach als Container verstanden, der alles beinhalten muss. Vielmehr müssen Datenübergabepunkte für die Planung, die Ausführung, den Betrieb definiert werden und welche Informationen überhaupt tatsächlich relevant sind. Und es muss nicht notwendigerweise alles in diesem Datenformat transportiert werden.

4. Datenbanken
Es fehlen interdisziplinäre Datenbanken. Digitales Planen ist weniger die Nutzung eines 3D-CAD-Werkzeugs sondern vielmehr das vernetzte und strukturierte Organisieren von Informationen. Proprietäre Datenformate behindern Austausch, Vernetzung und Kooperation.

5. Standardisierung & Klassifikation
Hersteller- und Produktdaten sind leider nur über eine Vielzahl von Plattform verschiedener Anbieter verteilt verfügbar. Zudem folgen diese nicht einer einheitlichen Bezeichnungslogik, was eine Zusammenarbeit bei integraler Planung deutlich erschwert. Die fehlende Standardisierung der Daten, also der Datenstruktur, ist also das Kernproblem.

6. Wertschöpfungskette
Was bringt überhaupt digitales Planen? Die Wertschöpfungskette Planen – Bauen – Betreiben ist entscheidend. Digitales Planen und Bauen lohnt sich nur, wenn die gesamte Wirtschöpfungskette digital nutzbar ist.

7. Qualität
Digitalisierung bietet neue, bei weitem noch nicht ausgeschöpfte Möglichkeiten zur Qualitätssicherung. Zugleich profitieren auch Terminsicherheit, Kostensicherheit etc. So wird auch ein Gebäude-TÜV denkbar, der die Performance von Gebäuden im realen Betrieb messen könnte, um damit die bedarfsorientierten, kalkulatorischen Energieausweise zu ersetzen.

8. Haftung
Digitales Planen und Bauen sollte aufgrund der damit verbundenen Vorteile belohnt werden, damit die Wertschöpfungskette überhaupt entstehen kann. Doch auch Haftungsfragen müssen im digitalen Umfeld neu geklärt werden. Hier gilt es, eine Balance zu finden.

5. Monitoring und Betriebsoptimierung als Baustein der integralen Planung?

Wie werden Monitoring und Betriebsoptimierung ein echter Baustein von integraler Planung? Das diskutierten 25 Teilnehmer in diesem Workshop.

© Wissenschaftliche Begleitforschung

Das Monitoring von Gebäuden wird häufig kostenintensiv, wenn es erst nachträglich eingeplant und installiert wird. Eine rechtzeitige Integration des Monitoring-Teams in den Planungsprozess sei daher sinnvoll. Zu diesem Ergebnis kommen die Teilnehmer des Workshops, in dem Erfahrungen zur Einbindung von Monitoring-Teams und Monitoring-Systemen in den Planungsablauf diskutiert wurden. Ziel war es, konkrete Handlungsempfehlungen für andere Projekte abzuleiten.

Für eine erfolgreiche Integration des Monitorings in die Gebäudeplanung schlug Johann Reiß vom Fraunhofer IBP ein Vorgehen in elf Schritten vor, siehe unten. Es basiert auf Erfahrungen im Modellprojekt Kinderhaus Höhenkirchen-Siegertsbrunn. Das wissenschaftliche Monitoring sollte dort helfen, das Zusammenspiel einiger innovativer Komponenten und Systeme genauer unter die Lupe zu nehmen und die Gebäudeperformance detailliert zu erfassen. Das Gebäude konnte schon im ersten Betriebsjahr eine positive Plusenergiebilanz erzielen.

In der Diskussion wurde der Vorschlag um weitere Punkte ergänzt. So muss der Datenschutz bei der Erfassung und Übertragung der Messdaten frühzeitig berücksichtigt werden. Sollte es Hindernisse wie z. B. Einsprüche der Nutzer gegen Teile der Datenaufzeichnung geben, müssen diese rechtzeitig ausgeräumt oder die Messplanung entsprechend angepasst werden. Die Workshop-Teilnehmer bewerteten einen frühen Einstieg des Monitoring-Teams in die Planung als wichtig. Der durch die wissenschaftliche Begleitforschung ENERGIEWENDEBAUEN entwickelte Leitfaden Monitoring kann hierfür wichtige Hilfestellung bieten. Es wurde allerdings auch berichtet, dass wirtschaftliche Rahmenbedingungen oftmals Grenzen setzen für das Monitoring von Gebäuden. Auch komme es in der Bauphase häufiger zu Fehlern bei der Implementierung der Messtechnik.

Monitoring frühzeitig planen – 11 Schritte zum Erfolg

Vorgehensweise für eine erfolgreiche Integration des Monitorings in die Gebäudeplanung in elf Schritten. Nach Johann Reiß, Fraunhofer IBP:

1. Entwurfsplanung
Der Monitoring-Planer erläutert den Gebäude- und Anlagenplanern das Energiekonzept und das grobe Messkonzept. In dieser Phase kann beispielsweise der Elektroplaner noch leicht die Stromschemen entsprechend den Anforderungen der Messtechnik anpassen.

2. Werkplanung
Der Monitoring-Planer trägt die Sensoren in die Grundrisspläne ein, der Anlagenplaner und der Architekt übernehmen die Angaben.

3. Werkplanung
Der Monitoring-Planer stellt die komplette Messplanung in einem Dokument zusammen. Darin enthalten sind eine Sensorliste und der Einbauort aller Sensoren.

4. Ausschreibung
Alle Planer übernehmen die Anforderungen des Messprogramms in ihre Ausschreibungsunterlagen. Beim Kinderhaus Höhenkirchen-Siegertsbrunn erhielt das Monitoring eine eigene Ziffer im Bereich der Gebäudeautomation. Die Planer beschreiben sämtliche Sensoren ausführlich in diesen Unterlagen. Dafür benötigt der Anlagenplaner in der Regel Hilfestellung vom Monitoring-Planer bei der Definition bzw. Beschreibung der Sensoren.

5. Ausschreibung
In den Ausschreibungsunterlagen muss angegeben werden, welche Kanäle für das Monitoring benötigt werden.

6. Ausschreibung
In den Ausschreibungsunterlagen muss angegeben werden, wie die Datenübertragung erfolgt, z. B. als Fernzugriff über eine Server/Client basierte Software.

7. Umsetzung
Die Installation der Sensoren erfolgt im Rahmen der Anlagenmontage.

8. Inbetriebnahme sowie ein bis zwei Jahre Monitoring
Die Datenerfassung erfolgt mittels Gebäudeleittechnik.

9. Inbetriebnahme sowie ein bis zwei Jahre Monitoring
Datenübertragung

10. Inbetriebnahme sowie ein bis zwei Jahre Monitoring
Import der Daten in Datenbank

11. Inbetriebnahme sowie ein bis zwei Jahre Monitoring
Analyse und Auswertung, z. B. mit spezialisierten Programmen wie MoniSoft oder mit MS Excel oder Origin.

Der zweite Teil des Workshops hatte Erfahrungen mit der Betriebsüberwachung zum Inhalt. Dr. Stefan Plesser von der TU Braunschweig präsentierte in einem kurzen Vortrag Umfrageergebnisse aus dem Forschungsschwerpunkt Energetische Betriebsoptimierung zur Frage, was durch Betriebsüberwachung in zahlreichen Modellprojekten optimiert werden konnte. Ein ermutigendes Resultat war, dass die Amortisationszeiten von Maßnahmen zur Betriebsoptimierung kurz sind. Viele der umgesetzten Maßnahmen zahlten sich bereits in den ersten 2-3 Jahren aus, die meisten anderen innerhalb von zehn Jahren. Andererseits sei die Zeitdauer zwischen der Identifikation solcher Maßnahmen und ihrer Umsetzung oftmals sehr groß, nämlich bis zu zwei Jahren.

Herr Plesser gab folgende Anregungen und Verbesserungsvorschläge für die Vereinfachung der Betriebsüberwachung: Vor allem die Begrifflichkeiten im Bereich der Betriebsüberwachung sollten geklärt werden: Welche Bereiche werden wie überwacht? Was kann und soll optimiert werden? Auch Ausschreibungen und Dienstleistungsbilder sollten präzisiert werden: Wer ist zuständig für was, wer trägt die Verantwortung für die Umsetzung der Optimierungsmaßnahmen?

In der Diskussion gingen die Workshop-Teilnehmer vor allem auf die Dienstleistungsbilder ein. Auch hier wurden die Erfahrungen bestätigt, dass Verantwortlichkeiten nicht geklärt und die beteiligten HLK-Planer oft keine Planung für die Gebäudeleittechnik (GLT) durchführen konnten. Zudem ist für eine erfolgreiche Betriebsüberwachung und Umsetzung von Optimierungsmaßnahmen eine Kooperation mit dem lokalen Gebäudemanagement notwendig. Hinzu kommt, dass der Stellenwert der Gebäudeleittechnik für die Betriebsoptimierung vielfach den Gebäudeeigentümern nicht bewusst ist.