Prognose wettergeführter Heizungssteuerung

Heizungen sind mit die größten Verbraucher fossiler Energieträger. Einsparungen hier können also entscheidend dazu beitragen, den Klimawandel zu verlangsamen.

Der Energieverbrauch von Heizungen kann oft entscheidend verringert werden, wenn bei der Heizungssteuerung das Wetter mitberücksichtigt wird. Oft ist jedoch nicht klar, ob und wann die Anschaffungskosten einer solchen Steuerung durch die gesparten Heizkosten amortisiert werden können.

In Zusammenarbeit mit der SEnerCon GmbH und gefördert durch das Berliner Programm für Nachhaltige Entwicklung (BENE) werden wir Methoden des Maschinellen Lernens entwickeln, mit denen Endverbraucher schnell und zuverlässig das Einsparpotential der Heizenergie bei Installation wettergeführter Heizungssteuerung ermitteln können. 

Green Consumption Assistant

Unser Konsumverhalten ist ein wesentlicher Treiber von Klimawandel und Umweltzerstörung. Studien zeigen, dass selbst Menschen mit hohem Umweltbewusstsein wenig nachhaltig konsumieren. Oft, weil im Moment der Kaufentscheidung relevante Nachhaltigkeitsinformationen fehlen.

In Zusammenarbeit mit dem Team um Prof. Tilman Santarius, TU Berlin, Lehrstuhl für Sozial-ökologische Transformation, und der Suchmaschine ecosia entwickeln wir im Rahmen eines KI Leuchtturmprojekts gefördert vom Bundeumweltministerium einen KI basierten Assistenten, der KonsumentInnen unterstützen soll, nachhaltiger zu konsumieren.

Ziel des Green Consumption Assistant (GCA) ist, Konsumenten bei der Produktsuche in der Suchmaschine Ecosia die konkreten Auswirkungen von Konsumentscheidungen anzeigen. Dazu wird an der Beuth Hochschule eine offene Datenbank zu Nachhaltigkeitsinformationen erarbeitet werden, indem vorhandene Datensätze integriert, geprüft und ergänzt werden mit Hilfe von Methoden Maschinellen Lernens.

Datenqualität in Machine Learning Systemen

Methoden des Maschinellen Lernens (ML) beeinflussen viele Aspekte unseres täglichen Lebens. Oft dauert es jedoch lange, bis Forschungserfolge in die Praxis übertragen werden können und nützliche, robuste und vertrauenswürdige Anwendungen daraus entstehen. Das liegt vor allem an Problemen mit der Datenqualität.

In Kollaboration mit Amazon Research und Prof. Sebastian Schelter von der Universität Amsterdam entwickeln wir Methoden für das Monitoring (z.B. Schelter et al, VLDB, 2018) von Datenqualität, die Verbesserung von Datenqualität (z.B. Biessmann et al, CIKM, 2019) und zur Vorhersage von Datenqualitätsproblemen in ML Anwendungen (z.B. Schelter et al, SIGMOD, 2020)

Transparentes Maschinelles Lernen

Viele von uns benutzen Künstliche Intelligenz (KI) Systeme, die auf Methoden des Maschinellen Lernens (ML) basieren, täglich. Vor allem beim Einsatz assistiver KI in Berufen wie etwa im Gesundheitsbereich, bei der Polizei oder in der Justiz, ist das richtige Maß an Vertrauen in die KI wichtig für verantwortungsvollen Umgang mit solchen Entscheidungshilfen. Zu viel oder gar blindes Vertrauen kann zu unüberlegten Entscheidungen führen. Und zu wenig Vertrauen in eine KI kann wertvolles Wissen ignorieren.

Um Vertrauen in KI-Systeme zu verbessern, wurden in den letzten Jahren viele Methoden vorgeschlagen, die KI Entscheidungen transparenter machen. Inwiefern diese Transparenz jedoch das Vertrauen in KI-Systeme beeinflusst, blieb bisher wenig erforscht.

In Kollaboration mit Philipp Schmidt, Amazon Research, und Prof. Timm Teubner, TU Berlin, untersuchen wir, ob und wie gut Transparenz in KI-Systemen hilft, Vertrauen in solche Assistenzsysteme zu stärken.

Erste Ergebnisse zeigen, dass Vertrauen durch Transparenz oft gestärkt wird und Transparenz etwa bei Assistenzsystemen in Text-Annotationsaufgaben menschliche Entscheidungen schneller und besser machen kann (Schmidt und Biessmann, 2018).

Jedoch kann Transparenz in KI-basierten Assistenzsystemen auch gegenteilige Effekte haben und Menschen falschen KI Vorhersagen folgen lassen, sowie auch richtige KI Empfehlungen ignorieren lassen (Schmidt et al, 2020).

Was die Experimente auch gezeigt haben, ist, dass Qualitätmaße von Transparenzmethoden menschliche Kognition berücksichtigen sollten (Biessmann und Refiano, 2019).

Ausserdem haben weitere Experimente gezeigt, dass verschiedene Faktoren in der Mensch-Maschine-Interaktion beeinflussen, ob das Vertrauen in die KI gerechtfertigt ist oder nicht. Unter anderem konnten wir zeigen, dass die Schwierigkeit einer Aufgabe und auch Persönlichkeitszüge wie Risikoaffinität den Effekt von Transparenz verändern (Schmidt und Biessmann, 2020).