KI in der Pflege: Sturz / Delir / Medikation (KIP-SDM)

Jährlich gibt es knapp 5 Millionen registrierte Sturzereignisse pro Jahr in Deutschland. Die jährlichen Kosten für Sturzbehandlungen belaufen sich auf mehr als 500 Millionen Euro. Dabei sind bis zu 30% aller Stürze präventiv verhinderbar. Systeme, die Künstliche Intelligenz (KI) verwenden, analysieren Risikofaktoren, prognostizieren individuelle Sturzrisiken und könnten so für Pflegende die Sturzprävention digital unterstützen. Bestehende Systeme berücksichtigen jedoch oft nicht alle relevanten Risikofaktoren (Seibert et al. 2021). KI-basierte Sturzprävention beruht beispielsweise oft auf Ganganalysen obwohl das Sturzrisiko bei vielen Patient:innen schon bei der Einnahme der Hälfte der Tagesdosis von Hypnotika und Sedativa um 56 Prozent erhöht ist. Medikationsdaten sind jedoch oft nicht verfügbar für den Einsatz in KI-Systemen, da der Zugang zu den Daten technisch und rechtlich komplex ist. Das Potential KI-basierter Systeme für die Sturzprävention wird somit bisher nicht voll ausgeschöpft. Ziel dieses Projekts ist es, die für eine Risikobewertung entsprechend etablierten Pflegestandards relevanten Daten dem Personal in den Einrichtungen bequem digital verfügbar zu machen. Sturzprävention ist dabei lediglich als ein Beispiel aus einem Themenfeld ähnlicher pflegerischer Problemstellungen wie Dekubitus, Harninkontinenz, Delir, etc. zu betrachten. Mithilfe der im Projekt entwickelten Datenintegrations- und Datenanalysemethoden sowie der darauf aufbauenden KI-Anwendung ließen sich alternative relevante Fragestellungen, Daten und Outcomes ebenso evaluieren. Durch Datenintegration und KI-Nutzung wird dabei nicht nur die Anwendung und Überprüfung der Einhaltung von Pflegestandards erleichtert.

Prozessentwicklung und -begleitung zum KI-Einsatz in der Pflege (ProKIP)

Methoden der künstlichen Intelligenz (KI) können dazu genutzt werden, die pflegerische Versorgung zu unterstützen. Forschungsprojekte im Bereich Pflege und KI sind neben Schwierigkeiten des Zugangs zu repräsentativen und qualitativ hochwertigen Daten auch mit der Herausforderung konfrontiert, Pflegeeinrichtungen und Akteure der Pflegepraxis an Forschung und Entwicklung zu beteiligen und mit diesen im Projektverlauf erfolgreich zusammenzuarbeiten. Das ProKIP Begleitforschungsprojekt untersucht und fördert die Integration von KI-Lösungen in die Pflegepraxis. ProKIP begleitet, berät, vernetzt und evaluiert Forschungsprojekte im BMBF-Förderprogramm „Repositorien und KI-Systeme im Pflegealltag nutzbar machen“.

Reduction of the Impact of untreated Waste Water on the Environment in case of torrential Rain (RIWWER)

Die Folgen des Klimawandels sind in den Starkregenereignissen sichtbar geworden. Bei Starkregen gelangt belastetes Abwasser in die Natur und führt zu einem Anstieg der Schadstoffkonzentration in Grundwasser und Flüssen. Im Projekt RIWWER entwickeln wir mit Förderung des Bundesministeriums für Wirtschaft und Klima Methoden des Maschinellen Lernens, die mit Hilfe von Wetterdaten und Sensordaten aus dem Abwassersystem eine verbesserte Regelung des Abwassersystems erlauben. Ziel ist, die Menge der Schadstoffe zu minimieren, die in Grund- und Oberflächengewässer ablaufen. 

Datenqualität in Machine Learning Systemen

Methoden des Maschinellen Lernens (ML) beeinflussen viele Aspekte unseres täglichen Lebens. Oft dauert es jedoch lange, bis Forschungserfolge in die Praxis übertragen werden können und nützliche, robuste und vertrauenswürdige Anwendungen daraus entstehen. Das liegt vor allem an Problemen mit der Datenqualität.

In Kollaboration mit Amazon Research und Prof. Sebastian Schelter von der Universität Amsterdam entwickeln wir Methoden für das Monitoring (z.B. Schelter et al, VLDB, 2018) von Datenqualität, die Verbesserung von Datenqualität (z.B. Biessmann et al, CIKM, 2019) und zur Vorhersage von Datenqualitätsproblemen in ML Anwendungen (z.B. Schelter et al, SIGMOD, 2020)

Transparentes Maschinelles Lernen

Viele von uns benutzen Künstliche Intelligenz (KI) Systeme, die auf Methoden des Maschinellen Lernens (ML) basieren, täglich. Vor allem beim Einsatz assistiver KI in Berufen wie etwa im Gesundheitsbereich, bei der Polizei oder in der Justiz, ist das richtige Maß an Vertrauen in die KI wichtig für verantwortungsvollen Umgang mit solchen Entscheidungshilfen. Zu viel oder gar blindes Vertrauen kann zu unüberlegten Entscheidungen führen. Und zu wenig Vertrauen in eine KI kann wertvolles Wissen ignorieren.

Um Vertrauen in KI-Systeme zu verbessern, wurden in den letzten Jahren viele Methoden vorgeschlagen, die KI Entscheidungen transparenter machen. Inwiefern diese Transparenz jedoch das Vertrauen in KI-Systeme beeinflusst, blieb bisher wenig erforscht.

In Kollaboration mit Philipp Schmidt, Amazon Research, und Prof. Timm Teubner, TU Berlin, untersuchen wir, ob und wie gut Transparenz in KI-Systemen hilft, Vertrauen in solche Assistenzsysteme zu stärken.

Erste Ergebnisse zeigen, dass Vertrauen durch Transparenz oft gestärkt wird und Transparenz etwa bei Assistenzsystemen in Text-Annotationsaufgaben menschliche Entscheidungen schneller und besser machen kann (Schmidt und Biessmann, 2018).

Jedoch kann Transparenz in KI-basierten Assistenzsystemen auch gegenteilige Effekte haben und Menschen falschen KI Vorhersagen folgen lassen, sowie auch richtige KI Empfehlungen ignorieren lassen (Schmidt et al, 2020).

Was die Experimente auch gezeigt haben, ist, dass Qualitätmaße von Transparenzmethoden menschliche Kognition berücksichtigen sollten (Biessmann und Refiano, 2019).

Ausserdem haben weitere Experimente gezeigt, dass verschiedene Faktoren in der Mensch-Maschine-Interaktion beeinflussen, ob das Vertrauen in die KI gerechtfertigt ist oder nicht. Unter anderem konnten wir zeigen, dass die Schwierigkeit einer Aufgabe und auch Persönlichkeitszüge wie Risikoaffinität den Effekt von Transparenz verändern (Schmidt und Biessmann, 2020).

Citizen-based Monitoring for Peace & Security in the Era of Synthetic Media and Deepfakes

Digitale Medien, Texte, Bilder sowie Audio- und Videoinhalte wurden in den letzten Jahrzehnten immer einfacher verfügbar. Durch Fortschritte im Bereich von Methoden des generativen Maschinellen Lernens (ML) können seit wenigen Jahren auch Inhalte synthetisiert werden, die von realen Medieninhalten ununterscheidbar sind. Vor diesem Hintergrund verdienen Fragen der Datenauthentifizierung eine sorgfältige und systematische Analyse. In einem von der Deutschen Stiftung Friedensforschung geförderten Projekt untersuchen Prof. Dr. Felix Bießmann (Berliner Hochschule für Technik), Prof. Dr. Rebecca D. Frank (University of Tennessee, Knoxville) und Prof. Dr. Alexander Glaser (Princeton University) die mögliche Rolle von Open Science / Citizen Science Ansätzen für Verifikation und Monitoring für Frieden und Sicherheit. Das zweistufige Forschungsprojekt zielt darauf ab, das Potential von Citizen Science anhand des wichtigen Beispiels von Satellitenbildern im Kontext der nuklearen Überwachung und Verifizierung systematisch zu bewerten. Dabei gilt es besonders die Risiken und Herausforderungen zu verstehen, die von modernen ML Techniken ausgehen, sowie auch die Problemstellungen, die mit dem Open Science Ansatz einhergehen. Im ersten Teil des Projekts werden synthetische Bilder relevanter Standorte unter sorgfältig kontrollierten Bedingungen generiert. Mit diesen Bilder werden dann konkrete Überwachungsszenarien entwickelt und untersucht. Im zweiten Teil des Projekts werden qualitative Interviews und praktische Übungen mit Fokusgruppen durchgeführt, um künftige Herausforderungen für Open Science / Citizen Science basierte Ansätze zu untersuchen. Besonderes Augenmerk werden wir auf die Gefahren von sogenannten DeepFakes legen, also mit ML Methoden generierten synthetischen Bildfälschungen. Daneben werden wir auch allgemeinere ethische Fragen im Zusammenhang mit raum-zeitlich hochaufgelösten Satellitenbildern untersuchen, sowie Schutzmaßnahmen in Betracht ziehen, die Citizen Science zu einem praktikablen und robusten Instrument zur Unterstützung von Frieden und Sicherheit machen könnten.


Abgeschlossene Projekte

Prognose wettergeführter Heizungssteuerung

Heizungen sind mit die größten Verbraucher fossiler Energieträger. Einsparungen hier können also entscheidend dazu beitragen, den Klimawandel zu verlangsamen.

Der Energieverbrauch von Heizungen kann oft entscheidend verringert werden, wenn bei der Heizungssteuerung das Wetter mitberücksichtigt wird. Oft ist jedoch nicht klar, ob und wann die Anschaffungskosten einer solchen Steuerung durch die gesparten Heizkosten amortisiert werden können.

In Zusammenarbeit mit der SEnerCon GmbH und gefördert durch das Berliner Programm für Nachhaltige Entwicklung (BENE) werden wir Methoden des Maschinellen Lernens entwickeln, mit denen Endverbraucher schnell und zuverlässig das Einsparpotential der Heizenergie bei Installation wettergeführter Heizungssteuerung ermitteln können. 

Green Consumption Assistant

Unser Konsumverhalten ist ein wesentlicher Treiber von Klimawandel und Umweltzerstörung. Studien zeigen, dass selbst Menschen mit hohem Umweltbewusstsein wenig nachhaltig konsumieren. Oft, weil im Moment der Kaufentscheidung relevante Nachhaltigkeitsinformationen fehlen.

In Zusammenarbeit mit dem Team um Prof. Tilman Santarius, TU Berlin, Lehrstuhl für Sozial-ökologische Transformation, und der Suchmaschine ecosia entwickeln wir im Rahmen eines KI Leuchtturmprojekts gefördert vom Bundeumweltministerium einen KI basierten Assistenten, der KonsumentInnen unterstützen soll, nachhaltiger zu konsumieren.

Ziel des Green Consumption Assistant (GCA) ist, Konsumenten bei der Produktsuche in der Suchmaschine Ecosia die konkreten Auswirkungen von Konsumentscheidungen anzeigen. Dazu wird an der BHT eine offene Datenbank zu Nachhaltigkeitsinformationen erarbeitet werden, indem vorhandene Datensätze integriert, geprüft und ergänzt werden mit Hilfe von Methoden Maschinellen Lernens.