Digital Twins: 3 Fragen an Tariq Kaddoura

Tariq Kaddouras Herz schlägt für digitale Zwillinge, aber angesichts des Status quo in der Immobilienbranche bleibt er nüchtern. 3 Fragen an den Metabuild-Gründer und -CEO zum Traum einer Zauber-KI, politisch induzierten Schockstarren und (P)Rebound-Effekten vor und nach Sanierungen.

Herr Kaddoura, in der Immobilienbranche gibt es einen Wust aus Daten: CRD-Daten, Verbrauchsdaten, Konstruktionspläne et cetera – wo sollte sie anfangen, diese im Sinne von BIM oder einem Digital Twin aufzubereiten?

Tariq Kaddoura: Die Realität in der Immobilienbranche ist leider die, dass man ganz unten anfangen muss. Das wird nicht anders funktionieren. Alle warten darauf, dass irgendeine Zauber-KI um die Ecke kommt, die uns diese Fleißarbeit erspart. Von dem Gedanken sollte man sich verabschieden, denn alles beginnt letztendlich damit, den Bestand zu erfassen. Da ist eben nun mal Realität: Kein Gebäude gleicht dem anderen.

Natürlich gibt es statistische Werte, die man ansetzen kann. Das ist auch unser Ansatz (bei Metabuild, Anm. d. Red.), wenn wirklich gar keine Informationen zur Verfügung stehen. Wir müssen den digitalen Zwilling erstellen, um damit letztendlich Auswertungen und Simulationen fahren zu können. Dann machen wir es auch so, dass wir anhand der Baultersklasse, des Standorts und der Nutzungsart dem Modell erst mal automatisch Bauteilinformationen zuweisen. Das ist aber immer mit einem kleinen Sternchen versehen, hinter dem steht: 'Achtung, das ist Typologie-basiert'. Das ist nicht zwangsläufig die Realität in diesem Gebäude.

Auf lange Sicht wird man nicht darum herumkommen, sich mit dem Bestand wirklich intensiv zu beschäftigen. Das betrifft dann eben auch die ganzen verschiedenen Kennzahlen, die höchstwahrscheinlich in der Zukunft durch die Taxonomie-Verordnung wichtiger werden.

Das wird nicht ohne Fleißarbeit gehen. Ich kann mich auch nicht auf statistische Daten verlassen, denn am Ende geht es um den Werterhalt einer Immobilie. Nachhaltigkeit ist ganz stark mit Risiken verbunden und mit der Werthaltigkeit der Immobilie. Wenn ich mich da auf Statistiken verlasse, ist es ein bisschen, als würde ich nicht mehr zum Gesundheitscheck gehen, weil ich mir sage: "Statistisch gesehen, mache ich ja noch 40 Jahre."

"Es wird immer darauf gewartet, dass jemand anderes die Arbeit erledigt"

In Deutschland steht ein Regierungswechsel bevor. Hat das viele Projekte, bei denen Daten möglicherweise schon vorliegen und wo etwas getan werden könnte, zum Stoppen gebracht?

Ja, definitiv. Sobald aus der Politik nur ein ganz kleines Signal in Richtung neuer Anforderungen kommt, vor allem für die Energiewirtschaft, kommt es in der Branche zu einer Schockstarre. Das ist das, was wir regelmäßig erleben. Bestes Beispiel ist eine kommunale Wärmenetzplanung. Sobald es nur danach riecht, dass es irgendwo einen Fernwärmeanschluss geben könnte, passiert erst mal für eine ganze Weile nichts.

In der Zeit könnte ich mich mit Alternativen beschäftigen, zum Beispiel der Gebäudehülle, und mal bewerten, was mir Maßnahmen bringen, selbst wenn es zum Fernwärmeanschluss kommt. Diese Kombination von Maßnahmen – an der Gebäudehülle, an der TGA, im Bereich Erneuerbare Energien –, die könnte ich natürlich in der Zeit schon analysieren – hätte ich einen digitalen Zwilling zur Verfügung.

Stattdessen geht es in die Warteposition, weil immer darauf gewartet wird, dass jemand anderes die Arbeit erledigt. In dem Fall dann eben die kommunale Wärmeplanung.

Digital Twins trotzen Prebound-Effekt und Nutzerverhalten

Im L’Immo-Podcast haben Sie gesagt: Wenn man das Datenmodell eines Gebäudes vorliegen hat, kann man diesen "Datenberg" auswerten, zum Beispiel mit Ansätzen des maschinellen Lernens. Wie muss man sich einen Datenberg vorstellen?

Der Datenberg betrifft vor allem Simulationsdaten. Mit Simulation schafft man es, von vom Nutzerverhalten abhängigen Verbrauchsdaten wegzukommen. Ganz viele machen ihre Nachhaltigkeitsplanung auf Basis von Energieausweisen, die häufig verbrauchsbasiert sind. Ein paar Bedarfsausweise sind mit dazwischen, sodass im Prinzip zwei komplett unterschiedliche Methoden, die nichts miteinander zu tun haben, in einen Topf geworfen werden. Und auf der Grundlage werden Entscheidungen getroffen.

Das finde ich sehr gefährlich, weil man nicht bei einer Methode bleibt. Verbrauchsausweise sind etwas, was hoch abhängig vom Nutzerverhalten ist. Gerade in der Wohnungswirtschaft weiß man, dass die sogenannten Pre- und Rebound-Effekte eine enorm große Rolle spielen. Das Verhalten von Nutzern ist vor einer Sanierung anders als nach einer Sanierung.

Prebound heißt, dass ich vor der Sanierung ein sparsameres Verhalten als nach einer Sanierung habe – wenn ich mir sage: "Okay, ist gerade frisch saniert, ich habe eine Wärmepumpe, frisch gedämmtes Gebäude, da kann man auch mal ein bisschen hochdrehen." Das führt dazu, dass viele Effekte, die man sich erhofft und in der Amortisationsberechnung auf kurze Amortisationszeiten hochprojiziert hat, überhaupt niemals eintreten.

Das sind alles Themen, bei denen der digitale Zwilling das Ganze objektiviert, weil er den Nutzer aus dem Spiel herausnimmt. Es wird mit standardisierten Nutzungsprofilen gearbeitet, nach DIN 18599. Die fließen in die Simulation ein und die produzieren diesen Datenberg.