• Slide_001

    Aufbruch in neue Zeiten

    Türen und Tore als Trendsetter für technische Entwicklungen im Baubereich

  • Slide_002

    Rosenheimer Fenstertage 

    12.–14. Oktober 2016

  • Slide_003

    R+T Turkey - Überzeugende Besucherqualität

    1.– 4. März 2017

Rosenheimer Fenstertage – 12.-14.10.2016

Das Motto der Veranstaltung war diesmal: „50 Jahre im Dienst der Branche“ und damit gemeint war das 50-jährige Jubiläum des Instituts für Fenstertechnik, kurz ift.

Bei der offiziellen Eröffnung am 13.10. ergriff zunächst Bernhard Helbing als Vorsitzender des Vorstandes des ift das Wort. Mit fast 1000 angemeldeten Gästen aus noch dazu 17 Ländern zeigten sich die diesjährigen Fenstertage wieder ausgesprochen beliebt und international zugleich. 

12.01 TTF 1 17

In seiner Eröffnungsrede blickt Bernhard Helbing auf das Jubiläumsjahr des ift Rosenheim zurück


Zu Ehren von Professor Schmid, von 1983 bis 2000 zweiter Leiter des ift, der am 8. September 2016 verstorben war, erhob sich das Publikum für eine Schweigeminute. Nachfolgend gab B. Helbing einen kurzen Abriss über die wesentlichen Entwicklungen, die das ift in 50 Jahren erfolgreich begleitet hat, darunter die Fortschritte in der Fenstertechnik (wer kennt heute noch Eisblumen?), die von 200 Fachleuten samt technischem Zentrum auf ihre Machbarkeit geprüft werden. Einen besonderen Hinweis gab es auf den Vortrag von Professor Latif am Ende des ersten Tages, den man nicht verpassen sollte.

Gabriele Bauer, Oberbürgermeisterin von Rosenheim, schloss sich in ihren Betrachtungen den Worten von B. Helbing an, indem sie die Stadt Rosenheim als durch das ift geehrt bezeichnete, denn welche Stadt kann sich mit  derart führenden Instituten noch schmücken? Sie hob vor allem die Treue zum Standort hervor und dankte für die Abhaltung der Fenstertage im Kultur- und Kongresszentrum Rosenheim (KuKo), dessen 44. Auflage die Teilnehmer im Jahr 2016 jetzt verfolgen könnten. Frau Bauer erweiterte das obige Motto auf „Die ersten 50 Jahre im Dienst der Branche“, wünschte weitere 50 Jahre und hieß die Gäste der Veranstaltung in Rosenheim willkommen. 

Professor Sieberath konzentrierte sich in seiner Einleitung auf die elektronischen Neuerungen in der Veranstaltung, nämlich die „Event-App“. Davon ausgehend, dass das Smartphone zur technischen Ausrüstung jedes Teilnehmers zählt, bietet die herunterladbare App dem Publikum die Möglichkeit, am „Feedback Voting“ bei jedem der Beiträge mitzumachen, indem sofort nach Ende des Vortrages seine Qualität gemessen wird. Weiterhin ist das Chatten unter den Teilnehmern möglich und über die App werden organisatorische Nachrichten weitergegeben. Prof. Sieberath wies weiterhin auf den Freitagnachmittag hin, an dem ein einmaliger Brandversuch im ift stattfinden werde an der größten, je in einem Labor aufgebauten Brandschutzfassade der Welt. Wegen limitierter Plätze im ift werde der Versuch jedoch ins KuKo über­tragen. Zusätzlich erging das Angebot an die Mitglieder der Verbände, das ift bei In-house-Veranstaltungen mit dem neuen mobilen Messestand präsent zu haben. Nach diesen Präliminarien ging Prof. Sieberath auf die 50-jährige Geschichte des ift ein, wobei sich Trends in Zeitabständen wiederholten: Das genormte Holzfenster war der Anfang in den 1960er Jahren, heute werden solche Fenster wieder nachgefragt. Aus der Sicht der politischen Signale stehen die Zeichen auf Wachstum, um mehr als EUR 1,0 Mrd. soll der Wohnungsbau in 2018 zulegen, die Förderung wurde aufgestockt und Bauen und Wohnen soll bezahlbar bleiben. Die Fenster werden daher einer noch stärkeren Standardisierung unterliegen, wobei im Bestand die Umrüstung auf automatischen Betrieb eine Rolle spielt. Hierzu läuft beim ift ein Forschungsprojekt unter dem Namen „Universal Design & Barrierefreiheit“ zur Bedienbarkeit auch für Menschen mit den entsprechenden Behinderungen.

In den Aufgabengebieten haben sich die Schwerpunkte nicht verlagert, es geht nach wie vor um die Qualität. Beim Produkt sind die gesetzlichen Auflagen und Mindestanforderungen entscheidend unter der Maßgabe des gleichen Qualitätsstandards der Zulieferer. Als Qualitätskennzeichen gibt es dafür das Zeichen des ift oder das
RAL-Zeichen­. Aber auch die Ansprüche haben sich geändert, denn Kunden legen Wert auf die visuelle Ausführung unter der Maßgabe der Berücksichtigung von Umweltaspekten. Bei der Gebrauchsqualität und der technischen Gestaltung ist es wichtig Definitionen festzulegen, so wie es das ift seit Jahren bereits durch Publikationen zu erleichtern versucht. Zu guter Letzt muss ein Fenster heutzutage auch über eine ausgezeichnete Servicequalität verfügen. 

Der zweite Teil des Vortrages war dem Thema Energie und Nachhaltigkeit gewidmet. Hier wies Prof. Sieberath auf den am Vormittag noch nachfolgenden Vortrag von André Hempel vom BMWi hin, denn die jeweiligen Inhalte verfügten über Einiges an Überdeckung. 

Zunächst erfolgte die Information, dass das EEG/EnEV und das EEWärmeG zusammengeführt werden sollen und damit ein einziges Gesetz zum Thema Energie und Nachhaltigkeit formuliert wird. Die Energie-Label-Diskussion zu den Wärmeverlustraten von Fenstern sei in vollem Gange, wobei das Energie-Label die sonst genutzten Werte U und g ablösen könnte. Weiterhin werden die Produktnormen zu den Inhaltsstoffen der Fenster und dem CO2-Footprint im Sinne der Nachhaltigkeit konkreter. Allerdings sind die gegenwärtig verfügbaren Zertifikate immer auf das gesamte Gebäude limitiert und umfassen noch nicht deren einzelne Bauteile. Gemeint sind im Besonderen VOC (Volatile organic compounds = Flüchtige organische Verbindungen), die Emission durch Auswaschung, die Herkunft als PEFC (Programme for the Endorsement of Forest Certification = „Der Wald-TÜV“), sowie REACH (Registration, Evaluation, Authorisation and Restriction of Chemicals = Europäische Chemikalienverordnung). Ganz wichtig in diesem Zusammenhang ist der Nachweis der Herkunft von Holz aus nachhaltiger Waldbewirtschaftung mit einer entsprechenden Zertifizierung des Herstellers/Lieferanten. Dazu gibt es einen gemeinsamen Erlass der Ministerien für Wirtschaft, Umwelt, Ernährung & Landwirtschaft sowie Verkehr auf der Grundlage der Europäischen Verordnung 995/2010 (Holzverordnung). Gegenwärtig ist der Erlass zwar wegen Definitionsunstimmigkeiten außer Kraft gesetzt, wird aber ganz sicher wieder aktiviert werden. Auf Ebene der Bundesländer gibt es zusätzlich noch entsprechende Beschaffungsrichtlinien, hinzu kommen die Gebäudezertifizierungs­systeme­ (DGNB/BNB, LEED, BREEAM) und z. B. auch Vorgaben von Handelsketten. Zum Ablauf einer solchen PEFC-Zertifizierung oder FSC (Forest Stewardship Council) veranstaltet das ift am 08.11.2016 ein Grundlagenseminar. 

Der dritte Teil des Vortrages von Prof. Sieberath ging auf die Landschaft von Normen und Regelwerken ein. Die ganz klar ausgedrückte Kritik besagt, dass die Formulierung von Normen zu lange dauert, dass die Mandate der Gremien zu schlecht besetzt sind und die EU-Kommission zu lange braucht, um zu den Vorschlägen Stellung zu nehmen. Daher, so das Empfinden, entstünde zwischen der Politik und dem Normenkreis aus der Industrie ein schwarzes Loch, in dem alles verschwindet. Schlicht gesagt, die Märkte sind dynamisch und innovativ, die Normung aber funktioniert noch wie Mitte des vergangenen Jahrhunderts und ist damit viel zu träge, um der Dynamik der Märkte folgen zu können. In seiner dazugehörigen Folie listet Prof. Sieberath allein schon 18 Normen, die gegenwärtig als „Hängepartie“ auf Antworten der Kommission warten oder im Gremium nicht weiterkommen. Im Sinne der Kostenreduzierung sind Normen, die den Stand der Märkte abbilden, jedoch eine Notwendigkeit. Anhand der EN 16 034 (Brand/Rauch) wurde aufgezeigt, in welchen Zeitläufen eine Norm erarbeitet wird, hier waren es 36 Monate bis zum finalen Text. 

Prof. Sieberath ging auch noch kurz auf die VV TB und die MBO ein, verwies gleichzeitig aber auch auf die beiden Fachreferate von Dr.-Ing. G. Scheuermann am Freitag und von Prof. Dr. J. Schneider unter dem Fachthemenblock 6 am Donnerstag. Am Ende seines Vortrages widmete sich der Referent noch dem Thema Einbruch: aktueller als je zuvor diskutiert man in der Branche über „Einbruchberater“, wozu das ift einen entsprechenden Lehrgang anbieten will. 

Im Themenblock 1 Energieeffizienz stellte B. Standecker vom Bundesverband für angewandte Thermografie fest: „Thermografie – nichts fürs Fotoalbum“. Die Definition lautet: „Thermografie ist die Erfassung und Darstellung der temperaturabhängigen Wärmestrahlung von Objekten“. In der Einleitung stellte er zusätzlich noch fest, dass „Drückerkolonnen von angeblichen Thermografen durch die Lande ziehen, Fassaden und Fenster fotografieren und anschließend die Hauseigentümer mit den Bildern und der angeblichen Gesetzgebung konfrontieren, aber für einen Obolus von Anzeigen absehen würden“. Zum Verfahren ist zunächst einmal das Spektrum des Lichts von entscheidender Bedeutung. Für Menschen sichtbares Licht bewegt sich zwischen 0,4 und 0,7 γm, kurzwelliges Licht zwischen 0,9 und 1,7 γm, mittelwelliges Licht zwischen 2 und 5 γm und langwelliges Licht zwischen 8 und 14 γm. Diese Wellenlängen werden als „thermisches Infrarot“ bezeichnet. Auf der Basis der Entdeckung des infraroten Lichtanteils durch W. Herschel und der nachfolgenden Formulierung des Strahlungsgesetzes durch Max Planck eröffnete sich die industrielle Anwendung der Thermografie. Sie dient am Bau dem Nachweis von Wärmebrücken vor der Sanierung und danach, der Ortung­ von Leckstellen, auch z. B. bei Wassereintritt von innen oder außen, der Überprüfung der Dämmqualität, z.B. bei Fugen und Stößen von Dämmungen, und sogar des Nachweises von Lecks und der Dichtigkeit von Flach- oder Foliendächern. Die Methode ist noch dazu zerstörungsfrei! Und wie macht man es richtig? Neben dem Objekt sind die Umgebung und die Atmosphäre zu berücksichtigen, die die Messung verfälschen könnten. Deswegen verfügt eine dementsprechend geeignete Kamera über zwei Auswerteelektroniken, die die Umgebungsbedingungen berücksichtigen. Der Emissionsgrad des Objektes ist wiederum abhängig von den folgenden Faktoren: vom Material des Objektes, dessen Temperatur (im Baubereich eher sekundär), von der Oberflächenbeschaffenheit („Rauheit“), von der Wellenlänge und schließlich noch vom Beobachtungswinkel. Die Wärmestrahlung des Objekts wird zunächst von der umgebenden Luft verfälscht, trifft dann auf das Objektiv, passiert die Detektorelektronik und dann die Auswerteelektronik. Hier werden auch entsprechende Rundungsfehler verarbeitet. Die Messung ist natürlich auch von der Detektorelektronik abhängig, hier ist die Anzahl der Pixel entscheidend. Mindestens 320  x  240 sind gefordert, der Stand der Technik hat heute schon 640  x  480 Pixel. Mit Kameras, die keine hohe Auflösung bei der Pixelzahl haben, wird die gemessene Temperatur um Einiges verfälscht. Beispiele dazu zeigte B. Standecker in seinen Folien mit entsprechenden Bildern. 

12.05 TTF 1 17

Beim besten "Kaiserwetter" freuen sich die Teilnehmer in den Pausen über Sonnenschein und milde Temperaturen


Mögliche Messaufgaben könnten sein: der Mindestwärmeschutz, die Wärmedämmeigenschaften, die Qualitätssicherung, die Istzustände zum Zweck einer Beratung, die Leckortung (Feuchte/Luft), der Feuchtenachweis, die Ursachenforschung für Schimmelpilz und der Wärmebrückennachweis.

Der nachfolgende Vortrag von André Hempel, Mitarbeiter des Bundesministeriums für Wirtschaft und Energie im Referat für Grundsatzfragen für Gebäudeeffizienz und Energiepolitik, stellte den neuesten Stand der Betrachtungen im Lichte der EnEV vor. Durch die Nutzung von erneuerbarer Energie und der Digitalisierung von Gebäuden wird weiterhin ein hoher Einsparungsvorteil erwartet. Die Vorgaben der EnEV sind von 2014 auf 2016 in der Energieeinsparung verschärft worden. Seit 01.01. 2016 gilt: für EFH klein mit Keller eine weitere Einsparung um 16%, für EFH klein ohne Keller 10 %, für DHH ohne Keller 16 %, für RMH mit Keller 46 %, für MFH klein ohne Keller 20 % und für MFH groß ohne Keller 17 %. Der für 2050 angepeilte Wert für Wohngebäude ist eine Emission von maximal 40  kW/m² pro Jahr an Verlustleistung. Wenn diese Werte erreicht werden sollen, dann sind im Vergleich zu heute noch etliche flankierende Maßnahmen notwendig. In der gezeigten Folie muss am ganzen Haus aufgerüstet werden, begonnen beim Dach, bei den Fenstern, den dort bestehenden Wärme­brücken, der Außenwand, der Kellerwand und den Türen. Für die Heizung wird ein moderner Brennwertkessel erforderlich sein, ein optimiertes automatisches Lüftungssystem und zur Unterstützung aus regenerativer Sicht natürlich Solarpaneele auf dem Dach oder die Luft-Wasser-Wärmepumpe als Alternative. Das Ministerium hat vor, die EnEV, das ENeV und das EEWärmeG unter einem einzigen Titel zusammenzufassen. Hier soll völlige Technologieoffenheit gewährleistet sein, um technischen Fortschritt und neue Technologien bei der Einsparung von Energie von vorneherein zu berücksichtigen. Auch das Referenzgebäudeverfahren bleibt erhalten. Bei den zu formulierenden Hauptanforderungen spielt sowohl in der EU als auch national die Steigerung der Energieeffizienz mit gleich­zeitiger Reduzierung der CO2-Emission eine Rolle. Dabei ist der Primärenergiebereich gemeint, also die Energie, die nicht aus den Erneuerbaren bereitgestellt wird. 

In den Nebenanforderungen im baulichen Wärmeschutz meint Effizienz dann auch die Reduzierung dieses Primärenergieeinsatzes mit dem Losungswort „Efficiency first“, z. B. durch Wärmeversorgungslösungen mit geringem Energieverlust und einer optimierten Lüftungsstrategie. An die Nutzung von erneuerbaren Energiequellen werden zusätzliche Forderungen gestellt, weil klar ist, dass ohne die Erneuerbaren die Reduzierung des Primäreinsatzes nicht möglich ist. Darunter versteht man die Erfüllung der EUEE-RL (national als EEWärmeG umgesetzt), die Sicherstellung des Ausbaus der Erneuerbaren durch den Gesetzgeber und die Rolle des EE-Stroms bei der Umsetzung der Pflichtvorgaben. Die DIN-V 18 599:2016 ermöglicht die Bilanzierung. Mit Übergangsfristen wird dann gleichzeitig die DIN-V 4701/10/4108-6 abgeschafft und ein neues Modellverfahren noch in 2016 unter dem Namen enev-easy publiziert. In der Diskussion befindet sich zusätzlich die Frage nach dem Bewertungssystem der Primärenergiefaktoren. Diese sollen im Sinne der Nachhaltigkeit dem Faktor CO2-Emission gegenübergestellt werden. Angedacht ist, dass für jede Primärenergiequelle ein Nachhaltigkeitsfaktor eingeführt wird, der sich an den Parametern: Klimawirkung, Verfügbarkeit, Versorgungssicherheit, Nutzungskonkurrenz, Erzeugerstruktur und gesamtwirtschaftliche Wirkung orientieren könnte. In Bezug auf die EU-Gebäuderichtlinie wurde auch das Niedrigstenergiegebäude angesprochen. Es gilt ab 2019 für alle von der Öffentlichen Hand zu errichtenden Gebäude diese Richtlinie, für den privaten Sektor folgt sie getaktet ab 2021. André Hempel ging dann auf die Praxis ein und zeigte Modellrechnungen und Wirtschaftlichkeitsuntersuchungen nach der EnEV, was ihn in der Vergleichsbetrachtung wieder zu den oben erwähnten notwendigen flankierenden Maßnahmen zurückbrachte. Vor allem im Bereich der Wärmeversorgung will man Anreize schaffen, diese, durch eine Bonusregelung in der Energiebilanz für mehrere Gebäude gleichzeitig einzusetzen, sofern sie mit geringem Energieverlust einhergehen. Hier steckt das Ziel dahinter, bestehende Gebäude schneller zu modernisieren, als vom Zeitansatz geplant. Die neue DIN-V 18 599 bietet dazu noch die Möglichkeit, die vom Nutzer selbst erzeugten Anteile an Erneuerbaren in die Rechnung einzubringen und sogar Batteriespeicher zu berücksichtigen. Zum Schluss noch die Frage, was mit dem Gebäudebestand denn geplant sei: Dämmung ist immer noch das beste Mittel zur Reduzierung von Wärmeverlust und der Amortisationszeitraum unterschreitet mittlerweile 20 Betriebsjahre. Vor einer Sanierung muss fachlicher Rat eingeholt werden und die Maßnahmen aus einem Gesamtkonzept heraus umgesetzt werden.

Unter dem Themenblock 3 „Forschung“ ging es anschließend um die adaptive Verglasung und Großflächen-Displays an Fassaden. Referent war Dr.-Ing. Walter Haase vom Institut für Leichtbau Entwerfen und Konstruieren (ILEK) aus Stuttgart. Fassaden werden heutzutage sehr oft zu Werbeträgern oder zu überdimensionalen Eventträgern. Bei diesen „strukturierten und schaltbaren Verglasungen“ ist die Interaktion mit dem Publikum, die Nutzung oder Ausschaltung des Tageslichts und das Erscheinungsbild des Gebäudes mit seiner Fassade von entscheidender Bedeutung. Natürlich bieten solche Projekte nicht nur Vorteile, anders, die möglichen Nachteile müssen berücksichtigt und ausgeglichen werden. Diese sind: der Energiestrom in das Gebäude, der verursachte Treibhauseffekt und die Blendwirkung. Eventuelle Anpassungen sind bei den Faktoren Regelung des Lichtdurchgangs und Regelung des Energiedurchgangs notwendig verbunden mit der Anpassung an individuelle Bedürfnisse des Auftraggebers. Walter Haase stellte zu diesem Thema eine Entwicklung seines Hauses vor, die sogenannten verdrillt nematischen Flüssigkristallsysteme. Im Vergleich zu anderen Lösungsmöglichkeiten bietet die Flüssigkristallzelle die Vorteile von geringen Umschaltzeiten, geringem Energiebedarf, geringem infrastrukturellem Aufwand in der Ansteuerung, keinen bewegten Teilen, geringem Wartungsaufwand, keinen chemischen Prozessen und der Langlebigkeit des Produktes. Im Nachfolgenden als TN-Zelle bezeichnet, besteht die verdrillt nematische Flüssigkristallzelle aus einer Reihe von Materialschichten, die beim Lichteinfall dessen Verlauf, Intensität und Farbspektrum verändert. Im Wesentlichen sind dies der Polarisator und die Orientierungsschicht. Die Schicht der Flüssigkristalle bildet einen Dipol, der sich um 90 º versetzt in die Rillen der darunter befindlichen Trägerschicht legt. Durch Anlegen einer Spannung zwischen 3  V und 6  V wird die Lichtdurchlässigkeit von transparent zu dunkel geschaltet. Aus dem Aufbau ergeben sich zwei Ausführungsvarianten, die sich durch die jeweiligen Schichtungen unterscheiden und dementsprechend auch andere Anwendungsmöglichkeiten erlauben. Man unterscheidet also TN-Zellen mit innen oder außen liegenden Polarisatoren. Durch das Wegschalten einzelner Pixel ist es möglich, sowohl einen Blend- als auch einen Sonnenschutz zu realisieren, wobei der Blendschutz nach außen ohne Änderung der Lichtverhältnisse im Inneren möglich ist. Dies ermöglicht sogar, die Glasfläche ergonomisch im Blend- und Sonnenschutz dem dahinter befindlichen Arbeitsplatz anzupassen, ihn also abzudunkeln oder zu erhellen. Übertragen auf eine Fassade und unter der Voraussetzung, dass weder Blend- noch Sonnenschutz am Gebäude nötig sind, ist durch Änderung der entsprechenden Transparenz diese im Ganzen gestaltbar. In den nachfolgenden Folien ging Walter Haase auf die Prototypen der TN-Zellen und die Erfahrungen des ILEK bei der Praxisumsetzung ein. Verschiedene Lösungsansätze wurden vorgestellt, wobei großflächige Prototypen gegenwärtig noch weiteren Tests unterliegen. Die TN-Zelle steht noch ganz am Anfang ihrer industriellen Anwendung. Das ILEK ist gegenwärtig dabei, die Herstellung zu einem skalierbaren Industrieprozess zu entwickeln und sucht hierzu Partner aus der Industrie als Zukunftsinvestoren. 

Im Block 4 „Zukunft und Nachhaltigkeit“ wurde von Prof. Dr.-Ing. Wilfried Heusler das Thema „Zukunftsperspektiven im Fenster- und Fassadenbau“ beleuchtet. Der erste Blick wurde in eine­ „unbeständige, komplexe und mehrdeutige Zukunft“ geworfen, deren Schlüsselfaktoren sich in vier Gruppen unterteilen, namentlich und an erster Stelle die Gesetze und die Politik, zweitens die Gesellschaft und der Kunde, drittens die Wirtschaft und der Wettbewerb, viertens die Technologie und die Innovation. Als Unterpunkte finden sich alle Themen wieder, die in Industrie und Gesellschaft diskutiert werden, ohne dass ein Ausblick in die Zukunft klarer wird. Daraus schließt der Vortragende, dass je nach Gewichtung der einzelnen Unterpunkte Prioritäten zu setzen sind. Eine dieser Prioritäten ist die digitale Transformation, die über digitale Daten, Netzwerke, mobilen Zugriff und Automation alle Stufen der Wertschöpfungskette beeinflussen wird. Konzeptionelle und funktionale Aspekte bedingen andererseits die Gestaltung von Fassaden. Als Beispiel wurde der „Flame Tower“ in Baku gezeigt, dessen äußere Hülle zwei Funktionen wahrnimmt, die passive Isolierung gegenüber widrigen Wetterbedingungen und andererseits die aktive Isolierung des Gebäudeklimas vor dem Entweichen in die Umwelt. Gebäudehüllen können auch als dynamische Filter fungieren. Gepaart mit einer aktiven Gebäudetechnik wie Heizung, Lüftung und Beleuchtung, sorgen sie für ein optimales Klima im Inneren. Kognitive, selbstoptimierende Systeme von Gebäudehüllen beinhalten Identifikatoren und Kommunikationssysteme mit der dazugehörigen Software und führen dazu, dass Gebäudehüllen individualisierbar und intelligent werden. Bezogen auf die konstruktiven und produkt-architektonischen Aspekte bedeutet dies ein Denken in modularen Strukturen, deren Festlegung weit vor der Reali­sierung liegt und damit sehr früh entscheidende­ Schnittstellen festlegt. Gleiches gilt für die verwendeten Produkte, die genormt oder als halboffene oder geschlossene Systeme zur Anwendung kommen. Praktische und gestalterische Aspekte ergänzen sich hierbei und haben das Ziel einer ganzheitlichen Optimierung von Gebäuden. Formalästhetische Aspekte lassen den Betrachter in eine Kommunikation mit dem Gebäude eintreten und machen es so zu einem Imagefaktor für den Besitzer oder seine Organisation. Bei den marktspezifischen und strategischen Aspekten sind die Faktoren Entwicklungs- und Auftragsabwicklungskomplexität von grundsätzlicher Bedeutung. IT-Tools werden in Zukunft diese Aufgaben erleichtern, weil sie sowohl den Typenbau­, als auch den Unikatbau reziprok­ beherrschen werden. Dies befriedigt­ eine weitere Marktanforderung, nämlich die konsequente Ausrichtung an Kundenbedürfnissen und Kundenanforderungen, wobei Differenzierung und Kostenführerschaft nicht unbedingt ein Widerspruch sein müssen, je nach Marktsegment, welches man bedient. 

Unter dem gleichen Themenblock hielt anschließend Dr. Peter Mösle von Drees & Sommer sein Referat zum Thema: „Die nächste Generation von Gebäuden“ mit den Untertiteln gesund, flexibel, zirkular, werthaltig. Mit der nächsten Generation von Gebäuden ist die bevorstehende Zukunft im Kontext zu Klimaschutz, Ressourceneinsparung bis hin zu einer möglichst hohen Quote an Recycling gemeint. Hierzu die globalen Fakten: Die Bauindustrie verbraucht 17 % des globalen Wassers, 25 % des globalen Holzeinschlags, emittiert 33 % des gesamten CO2-Wertes, verbraucht 30–40 % der globalen Energie. Kumuliert verschlingt der Bau 40–50 % aller Rohstoffe und ist verantwortlich für 58 % des weltweiten Abfalls. Es versteht sich von selbst, dass sich diese Bilanz verbessern muss. Obwohl sich in der Gesamtprimärenergiebilanz eines Gebäudes die Herstellung im langjährigen Vergleich zu den Betriebskosten immer weiter verringert, ist dieser Kostenblock der einzige Faktor, der noch als Stellschraube dient, weil der Betrieb bereits mit den entsprechenden Gesetzen und Maßnahmen auf niedrige Niveaus gedrückt wird. Die veränderte Werteorientierung der Gesellschaft, das Bewusstsein für den Planeten Erde, für Natur und Gesundheit sind eine weitere Ursache für den Druck, auch bei der Herstellung von Gebäuden andere Ansätze als die heutigen zu verwenden. Es gibt Chemikalien und Baustoffe auf dem Markt, deren gesundheitsschädliche Wirkung, vor allem in der Langzeitbetrachtung, bekannt ist. Es ist sogar in Planung, die entsprechenden Stoffe in Kürze zu verbieten; dennoch werden diese Stoffe nach wie vor eingesetzt. Mit der digitalen Transformation entsteht aber ein Szenario, in dem sich die Innovationszyklen verkürzen und die Sprünge bei der Veränderung der Geschwindigkeit immer hef­tiger werden. So kann man die Vergangenheit mit kurzen Schlagworten darstellen: Von Schnell und Günstig, zu veränderter Arbeitswelt, dann zu Energieeinsparung und nun zum neuen Thema Stoffkreisläufe und Gesundheit. Das Kind hat natürlich auch eine Namen: C2C oder Englisch „cradle to cradle“, von der Krippe zur Krippe zurück = das 100 % recyclebare Gebäude, ein Kennzeichen der Kreislaufökonomie der Zukunft. Peter Mösle verstärkte den Ansatz seines Themas mit dem Vergleich zu anderen Industrien, z. B. das von der EU eingeführte Recycling aller Kfz seit 2015. Aber das funktioniert gegenwärtig im Bauwesen noch überhaupt nicht und hat mit der Art und Weise des Bauens und den Bauprodukten zu tun. Am Beispiel des Aufbaus einer Außenwand konnte Peter Mösle zeigen, dass Inhaltsstoffe und verbaute Technik dazu führen, dass beim Abriss des Gebäudes nur sehr wenige noch trennbare Stoffe übrig bleiben, die des Recyclings wert sind. Die Konsequenz: Restmüll für die Deponie. Durch Downcycling ist es zwar möglich, Bauschutt noch zum Straßenbau zu nutzen, aber auch nicht mehr. Gegenbeispiel Glas: Flachglas wird in der Glashütte zu Recyclingglas, aus dem die Wein- oder Bierflasche geblasen wird. Nochmal übersetzt im Sinne der neuen Bauphilosophie: Unsere Städte sind unerkannte Lagerstätten für Rohstoffe, die es in Zukunft zu nutzen gilt. Wenn beim Hochbau 21,7 % der Gesamtkosten auf das Material zu buchen sind, könnte hier durch Wiederverwendung/Aufbereitung nicht ein erheblicher Anteil gespart werden? Auch für die Gebäudeeinbauten müsste diese Regel gelten, denn die Gebäudeausrüstung wird üblicherweise innerhalb von 15-20 Jahren erneuert, Bodenbeläge sind schon nach 10 Jahren erneuerungsbedürftig und die Fassade ist spätestens nach 25 Jahren dran. 

 

12.06 TTF 1 17

Am Freitagnachmittag verfolgten mehr als 100 Besucher die Prüfung des weltweit
größten Brandschutzglases (6x3m) im neuen ift-Technologiezentrum

 

Was bedeutet also C2C? Wir brauchen nur technisch die Natur zu kopieren, denn wir kennen die Abläufe im biologischen Prozess, der alles wiederverwertet, was einst lebte. Genauso muss ein technischer Kreislauf für die Gebäude definiert werden, indem alle Produkte die Anwendung finden, zurück zum Hersteller und dort zu neuen Produkten wiederverwertet werden. Kreislaufökonomie heißt, energie- und schadstoffneutral zu wirtschaften. Selbstverständlich verschiebt eine Kreislaufwirtschaft die Anforderungen an die Produkte, denn sie müssen demontierbar und in die einzelnen Rohstoffkomponenten zerlegbar sein. Dieser Prozess beginnt bei der Produktplanung in Austauschcluster innerhalb des Gebäudes, mit der Demontierbarkeit in Einzelbaugruppen, der sortenreinen Trennung bis zur Wiedergewinnung des originären Baustoffes. Wie stellt man sich vor, dass dieser völlig andere Prozess in Zukunft abläuft? BIM ist dazu die Basis, über den Materialpass. Dieser wird bereits in der Planung generiert. Dort kann auch die Kompatibilität zu geltenden Normen und Gesetzen überprüft werden. Um die heutigen vermischten Bauprodukte zu vermeiden, muss anders gebaut werden, statt einer Außenwand mit nahezu 20 unterschiedlichen Stoffen wird eine demontierbare Konstruktion gewählt, die sortenrein ist, z. B. als Vorhangfassade. Putz ist einer der problematischsten Baustoffe und könnte durch Vorsatzschalen ersetzt oder durch Folien vom Beton getrennt werden. Alternativen sind also durchaus vorhanden. Teppichböden können inzwischen sogar geleast werden. Zusammengefasst: In naher Zukunft geht die Planung nur noch über den Materialpass aus BIM, der Bau folgt den Modellvorgaben, der Betrieb und die Instandhaltung haben wieder die Basis BIM als Informations- und Verwaltungstool und beim Rückbau wird CAFM (Computer Aided Facility Man­agement Software) zusammen mit RFID (Radiofrequenz-Identifikation) genutzt. 

Im Block 5 „Qualität“ stand das Thema „Fokus Tür- und Fensterbeschläge“, vorgetragen durch Dipl.-Ing. Stephan Schmidt, Geschäftsführer des Fachverband Schloss- und Beschlagindustrie e. V. (FVSB), auf der Tagesordnung. Zunächst stellte Stephan Schmidt seinen Verband, der 2016 sein 70-jähriges Bestehen feierte und dessen Arbeit vor. Der FVSB ist in Velbert zu Hause, wo auch das verbandseigene Prüfinstitut Schlösser und Beschläge beheimatet ist und übrigens mehr als 80 % der deutschen Beschlagindustrie. Auf die Produkte eingehend beschäftigte sich Stephan Schmidt zunächst mit den Schließzylindern nach DIN 1303, einer nicht harmonisierten Norm. Für die Dauerhaftigkeit von Schließzylindern sind drei Klassen vorgesehen für jeweils 25.000, 50.000 und 100.000 Schließzyklen. Unter der DIN 1303 sind freiwillige Zertifizierungen möglich. Die DIN EN 12 209 betrifft Schlösser und Beschläge, definiert die Anforderungen und Prüfverfahren und sieht für die Dauerhaftigkeit ebenfalls drei Klassen vor für jeweils 50.000, 100.000 und 200.000 Schließzyklen. Die Norm ist harmonisiert und deckt auch Brand- und Fluchtschlösser, sowie einbruchsichere Mehrfachverriegelungen ab. Für Türbeschläge gilt die nicht harmonisierte Norm DIN EN 1906. Hier sind bei der Dauerhaftigkeit nur zwei Klassen vorgesehen für jeweils 100.000 und 200.000 Betätigungszyklen. Freiwillige Zertifizierungen sind bis zu 1,0 Million Lastspiele möglich. Die DIN EN 1935 definiert Bänder. Für die Dauerfunktionstüchtigkeit sind drei Klassen vorgesehen für jeweils 10.000 (Fenster), 25.000 (Türen und Fenster) und 200.000 (nur Türbänder) Zyklen. Türschließer finden sich unter der DIN EN 1154 wieder, bei der Dauerfunktion sind Zyklen zwischen 500.000 und 1,0 Million üblich. Die Norm für Schiebebeschläge ist die DIN EN 1527. Sie weist bei der Funktionstüchtigkeit sechs Klassen auf von 5.000 bis 100.000 Zyklen. Fensterbeschläge regelt die DIN EN 13 126-8, die sich gerade in der Überarbeitung befindet, wobei eine­ Anpassung an die DIN EN 1191 angestrebt wird. Stephan Schmidt verwies zum Ende noch einmal auf das verbandseigene Prüfinstitut und stellte fest, dass Deutschland bei Autos und Beschlägen führend in der Welt ist.

Aus Block 6 „Glasfassaden“ stammt der Vortrag von Prof. Dr.-Ing. Jens Schneider mit dem Titel „Wenn Glas trägt“. Dieser Vortrag hatte drei Untertitel, „Aktuelles zu Bemessungsvorschriften“, „die ETA-Fabrik auf dem Campus in Darmstadt“ und der „Ausblick“ in die Zukunft. Bei den Bemessungsgrundlagen geht es um mehrschichtiges Isolierglas und die darauf einwirkenden Klimalasten. Jens Schneider beschäftigte sich mit dem Problem einer Schnittfläche von Einwirkungskurve mit der Widerstandskurve und den sich daraus im Grenzzustand ergebenden Grenzwerten bei Tragfähigkeit und Gebrauchstauglichkeit. Das dafür von Prof. Feldmeier entwickelte Bemessungsmodell fand Eingang in die DIN 18 008, wobei hier die „Technischen Regeln für die Verwendung von linienförmig gelagerten Verglasungen“ (TRLV) mit Bezug auf die Klimalasten Anwendung finden. Die Problematik besteht in der Trennung von Einwirkung und Widerstand im Bemessungskonzept, was zu einer Verschärfung durch genauere Betrachtung führt. Jens Schneider entwickelte nachfolgend ein Bemessungskonzept für den Nachweis von Klimalasten, die er in der Form eines Entscheidungsdiagramms vorstellte. Ausgehend vom Grenzzustand der Tragfähigkeit (ULS) entwickelt sich die Abfolge von Parameterabfragen und Flächengrößen zu einer Entscheidungsmatrix bis zum Erreichen des sicheren Zustands (SLS). Zur Konkretisierung zeigte Jens Schneider mehrere rechnerische Computersimulationen. 

Nach dem bisher verwendeten Nachweisverfahren ist hier Dreifach-Verbundglas (4-18-4-18-4) besonders problematisch, dessen Verhalten bei Flächen ≤ 2,0 m² wenige sichere Maßkombinationen (B x H) zulässt. Dafür ergab sich für Flächen ≥ 2,0 m2 ein relativ großer und sicherer Bereich für Maßkombinationen. Geht man auf die sichere Seite, durch Verwendung eines reduzierten Teilsicherheitsfaktors reduzieren sich die möglichen Maßkombinationen drastisch. Dafür ergibt sich beim Bruch des Dreifach-Verbundglases zumindest beim Widerstand gegen die Windlast ein relativ großer sicherer Flächen- und Maßkombinationsbereich. Fazit: Durch das neue Nachweisverfahren reduziert sich zwar die Maßkombinatorik, dennoch bleibt eine große Kombinatorik nach dem Bruch für den Widerstand gegen die Windlast vorhanden. Nachfolgend wandte sich Jens Schneider dem Thema Bruch von Glas zu und zeigte Beispiele­ von Kratzern und deren Auswirkungen auf Glas, sowie Bruchversuche zur Ermittlung der Resttragfähigkeit von VSG. Zum zweiten Thema der ETA-Fabrik auf dem Campus der TU Darmstadt sei auf die Website verwiesen.
http://www.bine.info/newsuebersicht/news/tu-darmstadt-eroeffnet-forschungsfabrik/

Zum Schluss des ersten Tages hatte das ift Prof. Dr. Mojib Latif vom GEOMAR Helmholtz-Zentrum für Ozeanforschung aus Kiel, Träger des Umweltpreises 2015, eingeladen, um noch einmal die Thematik Klimawandel zu beleuchten. Der absolut gelungene Vortrag appellierte an das Auditorium, sich mit den Gefahren des Klimawandels jetzt zu beschäftigen, und führte nochmal den Nachweis, dass der Klimawandel eine Tatsache und kein Hirngespinst sei. 

Zweiter Congresstag – Freitag, 14. 10. 2016

In die Vorträge des Tages führte wiederum Prof. Dr. Sieberath ein. Die ersten beiden Referate des Vormittags fanden für alle Teilnehmer im Saal Bayern statt, danach wurden getrennte Veranstaltungen zu dem Blocks 8 „Baurecht“, Block 9 „Fenstermarkt“, Block 10 „Digitale Welt“ und Block 11 „Aus der ift-Praxis“ abgehalten. 

„1000 Fenster und ein Schloss“ nannte sich der erste Vortrag von Dipl.-Ing. Hans-Dieter Hegner, seines Zeichens Vorstand Bau der Stiftung Humboldt Forum im Berliner Schloss. 

Mit Beschluss des Bundestages von 2007 wurde der Wiederaufbau des Berliner Schlosses für eine Summe von EUR 625 Mio. in Auftrag gegeben, wovon jeweils die Hälfte der Steuerzahler und die andere Hälfte Mäzene und Spender verantworten. Das ursprüngliche Schloss war im Jahr 1950 im Auftrag der Machthaber der DDR gesprengt worden. Der anschließend gebaute Palast der Republik (1976 bis 2009) musste wegen akuter Asbestbelastung niedergerissen werden. In das im Schloss eingefügte „Humboldt-Forum“ werden 2019 die außereuropäischen Sammlungen der Stiftung Preußischer Kulturbesitz von der Museumsinsel umziehen und dort eine neue Heimstatt finden. Die Humboldt-Stiftung baut das Schloss und wird es nachfolgend betreiben. 

Das Schloss wird im Endausbau mehr als 1000 Fenster haben, wovon 500 moderne Fenster sind und 513 historische Fenster sein müssen, allein schon aufgrund der dem historischen Vorbild entsprechenden Fassaden, die wiederaufgebaut werden. Natürlich gilt auch für die historischen Fenster das Heute, mit all seinen Anforderungen an Licht, Wärme, Energie und Lüftung. 

Aufgrund der Tatsache, dass vom Schloss keine Detailbaupläne mehr existierten, hatten die Architekten und Ingenieure zur Maßfindung nur Fotografien zur Verfügung.

Mit einem völlig neuartigen, höchst komplizierten Computerverfahren wurden im Fachbereich Photogrammetrie der Technischen Universität Berlin die Fotos entzerrt und maßstabsgerecht in eine Ebene gebracht, so dass Einzelmaße herausgerechnet werden konnten. Im metrischen Aufmaß des Schlosses gibt es nur ungerade Maße, denn ursprünglich war das Schloss in rheinischen Fuß vermessen worden. Mit diesem Maß hatte man plötzlich klare Abmessungen der Schlossfassaden.

Selbstverständlich gab Hans-Dieter Hegner einen vollständigen Überblick über die technischen Herausforderungen an den Fassaden des Wiederaufbaus. Dies würde allerdings hier zu weit führen, deshalb für den geneigten Leser zwei Links für weiterführende Informationen aus dem Netz:

http://berliner-schloss.de/neues-schloss-humboldt-forum/die-rekonstruktion-der-schlossfassaden/

http://www.tagesspiegel.de/kultur/humboldt-forum-die-ganze-welt-im-schloss/14798898.html

Im Plenum wurde nun Ministerialrat Dr. Gerhard Scheuermann vom Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg aufgerufen, seinen Vortrag über die „Musterbauordnung und Musterverwaltungsvorschrift – Technische Baubestimmung“ zu halten. Dieser Vortrag ist identisch mit seinem Vortrag zu den Rosenheimer Türtagen 2016, über die wir bereits im Heft 4/2016 berichtet haben. 

 

12.04 TTF 1 17

Nützliche Praxistipps erhielten die Teilnehmer der Power-Workshops

 

Aus dem Block 6 „Baurecht“ folgte von Dr. Bernhard Schneider vom Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit, der Vortrag mit dem Titel „Das EuGH-Urteil zur Bauproduktenrichtlinie und seine Auswirkungen“. Bezeichnenderweise hieß der Untertitel: „Normen, Nachweise, Verantwortung“ und damit erfolgte die Beleuchtung des Sachverhaltes im Lichte der Rechtgebung und -sprechung. Das Kernprinzip der europäischen Gesetzgebung ist die rechtlich gerahmte Selbstregulierung. Von entscheidender Bedeutung ist die Selbstverantwortung der Wirtschaftsakteure durch die Nutzung von freiwilligen Normen plus Konformitätsbewertungsverfahren. In diesem Rahmen stellen harmonisierte europäische Normen (hEN) eine Rechtspflicht dar. Die Normen sind technische Ausführungsbestimmungen, die, gewichtet nach der betroffenen Industrie, streng oder weniger streng ausfallen können. So ist z. B. die Maschinenrichtlinie recht allgemein gehalten, um die Vielfalt der Produkte zu umfassen, die Arzneimittelrichtlinie ist umso strenger gefasst aufgrund der inhärenten Sicherheitsanforderungen. Im Bereich Bau bleibt man bei der Maßgabe, die Bauproduktegenehmigung und die Marktüberwachung in nationaler Hand zu lassen, nicht ohne jedoch über die Richtlinie BWR 3 (Basic Work Requirements) grundlegende Pflöcke einzuschlagen. Über die Möglichkeit, eigene Produkte für die Union durch die EOTA (TAB) bewerten zu lassen und eine ETA (Europäische Technische Bewertung) zu erhalten, kann neben dem nationalen Markt auch der Binnenmarkt der Union bedient werden. In der Bauproduktemarktüberwachung finden sich auf nationaler Ebene immer wieder Einwände zu Produkten aus der Union. Beispiele hierfür sind das fehlende Ermüdungsverhalten von Injektionsankern oder bei der EN 13 659 „Rollläden“ die Normung des Verschlusses, wobei der Kasten des Rollladens der nationalen Bauprodukteüberwachung unterliegt und damit nicht genormt ist, Kasten und Rollladen aber immer eine Einheit bilden. In der BWR 3 fehlen zumal drei wesentliche Grundanforderungen, nämlich die Innenraumluft, der Gewässerschutz und die Abfalldeponien. Der EuGH hat diese Mängel selbst erkannt und die Kommission aufgefordert, die „vollständige Harmonisierung der wesentlichen Anforderungen“ mit Eile voranzutreiben. Den Herstellern bleibt im Zweifelsfall nur das ETA-Verfahren. Das bekannte Urteil bezog sich auf 3 Bauprodukte, setzte damit die Rechtskraft sehr eng unter der Richtlinie 89/106/EWG. Die inhaltliche Aussage ist aber weiter gefasst, diese meint: „Europa geht vor“ und „keine unmittelbaren Zusatzanforderungen an das Produkt“. Hier gilt das Grundprinzip: Mitgliedstaaten dürfen auf der Bauwerksebene regeln, aber nicht auf der Produktebene, denn das widerspräche dem freien grenzüberschreitenden Handel. Daher ist es besser, die Anforderungen an Bauwerke im Detail zu konkretisieren und produktbezogene Anforderungen fallen zu lassen. Die Historie, die zum Urteil geführt hat, ist durch die Unvollständigkeit der EN-Normen gegeben, deren inhaltliche Mängel (siehe das Thema Rollladen) man national zu regeln versucht hat. Sind diese Mängel erkannt, hat sich die EU im sog. „Artikel 18 – Verfahren“ eine Möglichkeit gegeben, gegen sie vorzugehen, indem eine Unvollständigkeitserklärung abgegeben wird. Nachteilig ist weiterhin, dass die Beteiligung an den „working Groups“ der Normung mangelhaft ist. Darauf kam Bernhard Schneider noch später im Vortrag zurück, stellte aber fortan die neue MBO und die VV TB in den Vordergrund. Kurz zu den Änderungen an der MBO: Grundsätzliche Geltung der EU-Gesetzgebung und der EU-Richtlinien; eine „Bauartgenehmigung“ ist jetzt möglich; harmonisierte Produkte haben Vorfahrt. Definition der VV TB: Diese ist eine normkonkretisierende Verwaltungsvorschrift. Kurz zu den Nach­weisen: CE-Kennzeichen oder national, gemäß hEN oder ETA. Frage: Könnte die freiwillige Herstellererklärung die Grundlage für eine Branchenlösung sein? Antwort: Ja, insoweit die Dokumentation ohnehin verlangt, dass Normen dokumentiert werden, ob Prüfstellen eingeschaltet waren und der Artikel 30 der BauPVO bei Fehlen einer technischen Regel die Einschaltung einer anerkannten Stelle (z. B. TAB) vorgibt. Um solche Urteile in Zukunft zu vermeiden hat der EuGH der Kommission die Verbesserung der hEN und eine höhere Verbindlichkeit nationaler Inputs durch Mandatierung (Vademecum) ins Stammbuch geschrieben. Für Deutschland ist es unerlässlich, dass ein höheres Engagement in der Normenarbeit erfolgt, neben der Tatsache, dass man das sog. „Artikel 18 – Verfahren“ konsequent nutzt. Mit dieser Feststellung und einem wissenden Blick ins Publikum beendete Dr. Bernhard Schneider seinen Vortrag. 

Mit dem Vortrag von Prof. Christian Niemöller von der SMNG Rechtsanwaltsgesellschaft mbH blieben wir im Baurecht, Titel: „Baurecht 2016 – Rechtliche Relevanz für Fenster- und Fassadenbauer“. 

Er begann mit den dafür wichtigen Entscheidungen der Bundesregierung:

02.03.2016 Entwurf der Bundesregierung für ein Gesetz zur Reform des Bauvertragsrechts und zur Änderung der kaufrechtlichen Mängelhaftung.

18.04.2016 VOB/B 2016.

18.04.2016 Neues Vergaberecht.

16.10.2016 Geplantes Inkrafttreten der geänderten Landesbauordnungen auf der Grundlage der neuen Musterbauordnung.

Während die VOB/B am 18.04.2016 ohne eine Anhörung im Bundesrat in Kraft trat, muss das Gesetz zur Reform des Bauvertragsrechts im Bundesrat verabschiedet werden. Die Problematik besteht hier darin, dass, wenn die VOB nicht als Vertragsgrundlage vereinbart ist, das BGB aus dem Jahr 1900 gilt. Das BGB ist allerdings nicht mehr auf dem Stand der Zeit. Das neue Gesetz wird an die VOB angelehnt sein, um sowohl im B2B als auch in B2C ähnliche Regelungen zu treffen. Die 2. Lesung im Bundesrat hat noch nicht stattgefunden, frühestens im Laufe des Jahres 2017 wird mit einer Verkündung und nachfolgendem Inkrafttreten mit 6 Monaten Karenzzeit gerechnet. Im Gesetz werden eine Reihe von Punkten neu geregelt, z. B. die Kündigung, die Abschlagszahlungen oder die Widerrufsrechte. Bei der VOB/B sind diese Änderungen bereits eingeflossen, so heißt es dort nicht mehr „Entzug des Auftrages“ sondern „Kündigung“. Die Nachunternehmer sind in Zukunft vor Aufnahme des Werkvertrages mit Angabe aller rechtlich relevanten Daten zu benennen. Ins Spiel kommt erstmalig auch das GWB (Gesetz gegen Wettbewerbsbeschränkungen) insofern, als bei Aufträgen, die EU-weit ausgeschrieben werden müssen, ein Sonderkündigungsrecht bei Nichteinhaltung der Ausschreibungsvorgaben besteht. Dies gilt ebenfalls für öffentliche Aufträge, wenn eine „wesentliche Änderung“ des Vertragsumfangs stattfindet (ggf. neue Ausschreibung). Auf die gegenwärtige Rechtsprechung eingehend legte Prof. Niemöller Urteile vor, so z. B. ein Urteil des OLG Köln, wonach der Auftraggeber sich auf die Expertise von „Sonderfachleuten“ verlassen kann und nicht selbst Widersprüche oder Fehler in deren Leistungsbeschreibungen erkennen muss. In einem Urteil des BGH wiederum wird der Unternehmer von der Verantwortung frei gesprochen, sofern er von seiner Hinweis- und Informationspflicht hinlänglich Gebrauch gemacht hat. 

Aus dem Block 10 „Digitale Welt“ stammte der Vortrag von Dipl.-Ing. Nikolas Zimmermann vom Institut Fraunhofer IAO, mit dem Thema: 3D-Druck Hype – oder Zukunft? 

Zunächst ging Nikolas Zimmermann auf sein Institut in Stuttgart ein, zeigte Größe und Aufgaben auf. Dort ist er für das Forschungsfeld „Digital Engineering“ verantwortlich, darunter auch für die Technologie der additiven Applikation, was technisch den landläufigen Begriff 3D-Druck meint. Die neuen Verfahren haben große Wechselwirkungen, so spricht man beim additiven Verfahren auch von urbaner Produktion, sofern dieses nicht auf industriellen Skalen stattfindet. Im historischen Exkurs zeigte Nikolas Zimmermann, dass die Gedanken zu diesem Verfahren schon im 19. Jahrhundert entstanden und J. E. Blanther bereits 1892 ein Patent erhielt, um Landkarten topografisch herzustellen. Kurz ging er dann auf die Generationen von Maschinen und Firmen ein, die sich um die Weiterentwicklung und Verbesserung des Verfahrens verdient gemacht haben. Das Jahr 1984 wird allgemein als das Erfindungsjahr des 3D-Druckers anerkannt, der Erfinder ist US-Amerikaner Chuck Hall. Auf die heutigen Verfahren eingehend stellte Nikolas Zimmermann FDM (Fused Deposition Modeling) und das SLS (Selective Laser Sintering) vor. Was sind nun die Vorteile? Ein ganz wesentlicher Vorteil ist das sog. „Rapid Prototyping“ bei dem schnell Entwürfe hergestellt, getestet und verworfen oder beibehalten werden können. „Rapid Tooling“ ist die schnelle Herstellung von Werkzeugen für ein Endprodukt mit konventionellem Herstellungsverfahren. „Rapid Manufacturing“ wiederum ist das Herstellen von Kleinserien in kurzen Zeiten. Die additiven Herstellungsverfahren vereinigen 3 wesentliche, für unser Zeitalter kennzeichnende Anforderungen: Komplexe Geometrien, integrierte Funktionen und individuelle Produkte. Dabei sind bionische Strukturen realisierbar, eine Gewichtseinsparung von bis 60 % bei gleicher Tragfähigkeit und die Materialeffizienz ist weit höher als bei spanenden Verfahren. Produkte können für die Kunden individualisiert und bis hinunter zur Losgröße 1 wirtschaftlich hergestellt werden und Anpassungen sind in kurzen Zeiten möglich. Als Risiken gelten: die Komplexität des Herstellungsprozesses und das Materialmanagement. Weiterhin ist gegenwärtig die Prozessintegration nicht weit fortgeschritten zwischen konventioneller und additiver Fertigung. All dies muss in den nächsten Jahren geleistet werden. Sofern dies gelingt, eignen sich additive Verfahren für die Fertigung von Ersatzteilen „on demand“, Fertigung von Miniserien und die Fertigung von Bauteilen vor Ort ohne Transportkosten. 

Unter dem gleichen Themenblock stellte sich nachfolgend Peter Kämper von PKA Computernetzwerke vor. Sein Thema war: „Datensicherheit im Unternehmen“, die Eingangsfolie stellte sich allerdings ganz anders vor: „Willkommen bei IT-Spionage und Hacking“. Peter Kämper berichtete aus seinem langen Berufsleben über spotlightartige Fälle von Industriespionage, Datenklau, gehackte Server und PCs in freier Rede. Dazu ließ er seine Folien im Hintergrund laufen. Die kurze Essenz dieses sehr interessanten Vortrages lautet aus der Sicht des zuhörenden Autors: 

- machen Sie sich mit einem Profi ein Sicherheitskonzept für Ihre IT

- sensitive Daten gehören auf keinen externen Datenträger wie USB-Stick und CD

- misstrauen Sie grundsätzlich sämtlichen Schutzprogrammen und testen diese von außen

- alle aus den USA stammenden IT-Firmen sind gesetzlich der Regierung der USA zur Weiterleitung von Daten verpflichtet, selbst wenn diese es selbst gar nicht wollen. 

Stephan Kretzschmar
Kretzschmar Consulting

"Der TTF-Report ist das Branchenportal rund um die Bereiche  Tür, Tor, Fenster, Brand- und Einbruchschutz."

Dipl.-Ing. Ulrike Götz, 
Verantwortliche Redakteurin

 

aktuelle ausgabe head

TTF Cover 4 17

170203 RT Ban 267x367 d ani

 

Die nächste Ausgabe
erscheint im September 2017...