vertical_beam

Forschungsprojekte [zurück]  [abgeschlossene Projekte]

laufende Projekte
 
The way we use the Internet today has an enormous ecological impact on the increasing energy demand of modern society. For example, the electricity required by the servers that make up the Internet relates to about 2\% of the overall electricity consumption in the US1 and to about 26\% of the overall energy consumption in Germany. The mission of the collaborative research center "Highly Adaptive Energy-Efficient Computing" (HAEC) is to enable high energy efficiency in today's computing systems without compromising on high performance.

Certainly a straightforward way for improving energy efficiency would be to reduce the energy consumption of every individual hardware component involved. However, for many components the optimal energy performance point has already been reached. More important is an understanding of how software can adapt to hardware components and vice versa to address the computational problems of modern society in an energy efficient way. This requires new methods and tools to write energy-aware programs, new ways of interaction between the individual pieces that collaborate to solve a problem, new communication technologies to enable this interaction between pieces that are spread across highly scalable parallel systems, and a new multi-layer coordination infrastructure to bring together these technologies. In other words, we need an integrated approach for highly adaptive energy-efficient computing to approach energy-efficient computing at all involved technology levels.

The collaborative research center HAEC is a first attempt to achieve high adaptivity and energy efficiency in such an integrated approach. At the circuit level, we focus on innovative ideas for optical and wireless chip-to-chip communication. At the network level, we research secure, high performance network coding schemes for wired and wireless board-to-board communication. Innovative results at the hardware/software interface level will include energy control loops, which allow hardware to adapt to varying software requirements and vice versa. Software development in general is supported by energy-aware runtimes, energy-aware resource, stream and configuration management schemes and by an analysis framework for high performance/low energy applications. New internet applications are supported by innovations in energy-aware service execution. And, last but not least, formal methods are developed to offer a new quality of assurance in our systems of tomorrow. Demonstrating our results in a joint prototype - the HAEC Box - our goal is to become a pace setter for industry and academia on the design of future energy efficient-computing systems.

The objective of our subproject is to research into energy-aware software architectures. Such architectures are self-adaptive, based on a (dynamic) architectural language with a component model with energy-QoS-contracts, and appropriate run-time structures for dynamic QoS-contract negotiation (reflective meta-level with decider, reconfigurer). In such a self-adaptive energy-aware system, the reflective meta-level will, based on changes in the user requirements, context or energy availability, trigger reconfigurations of the software architecture at specific checkpoints at run-time and ensure safe migration of state of applications. Specific unique points of the envisaged architecture are:

The contract (re-)negotiation and reconfiguration will take into account energy monitoring, analysis and the evaluation of energy-utility functions in energy-QoS contracts. To this end, results from energy-QoS contract analysis will be taken into account. In the first phase of HAEC, mainly energy-QoS-contracts were in focus. In the second phase, we approach the scalability and efficiency of the developed multi-quality auto-tuning approach.

The architectural language will be used to synchronize the application architecture level with the operating system (subproject B.4/H"artig), as well as the service management in the cloud (subproject B.6) so that reconfiguration is cross-cutting all layers of the HAEC software stack. Because from the architecture course-grain events can be generated to be communicated to these layers, it is expected that reconfigurations can be done in the right grain size and do not have to be performed too often.
Förderung: DFG

Heutige Informationssysteme zeichnen sich durch eine kontinuierliche Zunahme der gemessenen und gespeicherten Daten aus. Folglich finden Machine Learning (ML) Algorithmen eine weit verbreitete Nutzung, da die Verarbeitung und Analyse solcher Daten genutzt werden können, um Prozesse zu optimieren. Insbesondere, ermöglichen sie Anomalien bei der Ausführung von Industrieprozessen erkennen, die Notwendigkeit von Wartungen vorhersagen, sowie typische Kandidaten für mögliche Prozess Automatisierung aufspüren.[/p]

Die hohe Flexibilität der ML-Algorithmen ist einer ihrer Vorteile. Das bedeutet zum einen, dass das gleiche Problem durch verschiedene Algorithmen oder gar Varianten desselben Algorithmus gelöst werden kann. Auf der anderen Seite, kann jeder Algorithmus mehrere Arten von Problemen zu lösen. Neben der Fähigkeit, eine gültige Lösung zu erhalten, ist die Optimalität das wichtigste Kriterium, da die Qualität der Ergebnisse in abhängig vom gewählten Algorithmus und seinen Parametern jeweils erheblich variieren kann. Dementsprechend ist der Vorteil der funktionellen Eigenschaften (die Ermittlung einer praktikablen Lösung mit verschiedenen ML Algorithmen) auch gleichzeitig ein Nachteil bezüglich der nicht-funktionale Eigenschaften (unübersichtliche Größe des Suchraumes).[/p]

Das Problem, den besten Algorithmus und besten Parameter zu finden, kann als Optimierungsproblem formuliert werden: Maximierung der Qualität des Ergebnisses bei gleichzeitiger Minimierung des Zeit- und Ressourcenaufwands. Entscheidend für die Aufwandsminimierung ist die automatisierte Lösung dieses Optimierungsproblems durch:[/p]

  • Formalisierung von Problemen und Algorithmen, die diese lösen können.
  • Auswählen eines optimalen Algorithmus, indem die Qualität des resultierenden Ergebnisses beurteilen wird.

Die existierenden Arbeiten im Bereich der Algorithmenauswahl basieren auf der Annahme, dass das Problem bereits bekannt ist und alle Algorithmen, unter denen ein optimales ausgewählt wird, in der Lage sind, die jeweilige Aufgabe zu lösen. Diese Annahme macht bestehende Ansätze zur Algorithmenauswahl in der Realität unbrauchbar.[/p]

Zunächst muss entschieden werden, welche Klasse von Algorithmen anwendbar ist und dann manuell unpassende zu filtern. Entsprechend versucht dieses Projekt, diesen Schritt zu automatisieren. Ein weiteres wichtiges Problem ist die Größe des Suchraumes, d. h. das ähnliche Probleme mit verschiedenen Algorithmen gelöst werden können, wobei jeder Algorithmus zusätzlich verschiedene Hyperparameterkonfigurationen haben kann. Die experimentelle Bewertung eines solchen Suchraumes ist sehr zeit- und ressourcenintensiv. Daher sind Ansätze gefragt, die mit geringstem Aufwand die optimale Konfiguration finden. [/p]

Das Hauptziel dieses Projektes ist die Maximierung der Qualität eines Ergebnisses, das durch einen ML-Algorithmus für die Lösung hochkomplexer Probleme zur Verfügung gestellt wird. Eine solche Komplexität wird entweder durch ein hohes Datenvolumen oder durch seine Struktur (z. B. hohe Anzahl von Merkmalen pro Dateneinheit) bestimmt.[/p]

Ziel dieses Projekts ist es, ein Framework für die automatisierte ML-Algorithmenauswahl und -parametrierung zu entwickeln. Konkret, besteht dieses aus zwei Hauptbestandteilen: der Algorithmenidentifikation und der Algorithmenauswahl. Beide Bestandteile verwenden neuartige Spezifikationen, die mit Hilfe domänenspezifischer Sprachen (DSL) beschrieben werden, die wiederum in diesem Projekt entwickelt werden. Diese DSLs beschreiben dabei: das zu lösende Problem, den Zielalgorithmus und den Suchraum (alle passenden Algorithmen und deren Parametrisierung). Das Kernstück der Algorithmenidentifikation ist ein Klassifikator, der anhand der Spezifikationen des Problems einen passenden verfügbaren Algorithmen auswählt, der in der Lage ist, es zu lösen. Die Algorithmenauswahl wiederum stellt einen Hyperparameter-Optimierer zur Verfügung, der den Suchraum nach dem bestmöglichen Algorithmus und dessen Parameterkonfiguration durchsucht. In der ML-Gemeinschaft hat dieser Prozess den Namen Metalearning und bezeichnet das Testen der Leistung von Algorithmen unter Berücksichtigung ihrer Parameter und Auswahl der besten Parametrisierung. Ein solches Vorgehen ist jedoch sehr Kosten ineffizient. Daher muss der Umfang der Auswahl und Parametrisierung reduzieren und gleichzeitig die Qualität einer ausgewählten Lösung maximiert werden. Diese Reduzierung kann durch einen aktiven Lernansatz erreicht werden, der ausgehend von den kleinsten Algorithmenkonfigurationen den Konfigurationsraum intelligent erforscht und versucht, eine optimale Algorithmuskonfiguration vorherzusagen. Nach Erreichen einer bestimmten Schwelle hat es genügend Kenntnisse über den Konfigurationsraum und bietet eine (annähernd) optimale Lösung.[/p]

Auf der einen Seite wird dieses Projekt eine große Bedeutung für die Zukunft des Projektpartners haben. Auf der anderen Seite, beschäftigt sich der Lehrstuhl für Softwaretechnologie in verschiedenen Forschungsprojekten mit dem Lösen von Optimierungsproblemen. Genauer hat zum Beispiel das SAB-finanzierte Projekt GUIDES das Ziel Unternehmensressourcenplanung signifikant zu verbessern. Diese setzt die Erstellung eines Zeitplans voraus, der Aufgaben auf die jeweiligen Maschinen zuweist bei gleichzeitiger Minimierung von Rechenzeit, Betriebskosten usw. Da das Problem der Terminplanung selbst ein NP-hartes Optimierungsproblem ist, muss auch hier ein großer Suchraum untersucht werden, um eine optimale Lösung zu finden. Um das Problem der Terminplanung zu lösen wird entweder ein Heuristik-basierten Ansatz oder ein ML-basierten Ansatz verwendet. Beide Ansätze sind jedoch stark von ihren Parametern abhängig, die mithilfe des hier vorgeschlagenen Frameworks ermittelt werden können. In ähnlicher Weise kann das Framework auch eingesetzt werden, um energieeffizientes Rechnen zu ermöglichen (DFG SFB 912 HAEC). Hierbei hat der Lehrstuhl für Softwaretechnologie das Ziel ein System für energieeffiziente, adaptive Ressourcenzuweisung bereit zu stellen. Die Ressourcenzuweisung selbst ist ein klassisches Optimierungsproblem, mit dem Ziel Softwarekomponenten, die eingehende Anfragen bearbeiten, optimal auf die verfügbaren Ressourcen und Hardwarekomponenten zu verteilen. Es stellt sich heraus, dass dieses Problem entweder präzise oder annähernd gelöst werden kann. Während genaue Methoden unter Skalierbarkeit leiden, werden die Näherungsansätze stark durch ihre Parametereinstellungen beeinflusst. Wiederum kann sowohl die Auswahl der Methode als auch deren Parametrisierung von dem hier vorgeschlagenen Framework automatisiert werden.[/p]

In gleicher Weise können die Ergebnisse dieses Projektes auch in die Arbeitsprozesse des ungeförderten Industriepartners DATEV eG integriert werden. Denn dieses Projekt wird die Probleme des Industriepartners zum einen als Lauf- zum anderen auch als Validierungsbeispiele nutzen. Somit sollten alle in der Anforderungsanalyse definierten Probleme durch das vorgegebene Framework gelöst werden können, insbesondere diejenigen der DATEV eG.[/p]

Darüber hinaus wird sich das in diesem Projekt implementierte Framework leicht mit aktuellen und zukünftigen Forschungen im Bereich des maschinellen Lernens verknüpfen lassen. Entsprechend wäre der nächste Schritt nach erfolgreichem Abschluss dieses Projekts, die Erweiterung auf weitere Arten von ML-Algorithmen (wie z. B.: Regression, Clustering, Deep Learning, usw.). Insbesondere könnten diese neuen Algorithmen leicht in das Framework integriert werden, da es Unabhängigkeit von der konkreten Implementierung des Algorithmus ist.[/p]

Diese Anpassung des vorgeschlagenen Frameworks an verschiedene Anwendungsbereiche wie Optimierung, energieeffizientes Rechnen und viele andere, stellt dabei eine interessante Aufgabe für zukünftige Forschungen dar, genauso wie die Unterstützung von Transfer Learning (Wiederverwendung eines bestehenden Modells in unterschiedlichen Domänen) oder Concept Drift (Modelle deren "Robustheit" im zeitlichen Verlauf schwankt).[/p]

Förderung: BMBF

Das Konzept der Rollenmodellierung ist zu verschiedenen Zeiten und in verschiedenen Fachgebieten eingeführt worden, um kontextbezogene Informationen zu modellieren, insbesondere auch den dynamischen Wechsel von Kontexten. Meist wurden Rollen als Mittel der Kontextmodellierung allerdings nur singulär in den Bereichen der Programmiersprachen, Datenmodellierung oder zur Zugangskontrolle benutzt, aber nie durchgängig über alle Abstraktionsebenen der Softwareentwicklung, also über Konzept-, Sprach-, Anwendungs-, und Softwaresystemmodellierung hinweg betrachtet. Erst dann kann man Softwaresysteme als durchgängig kontextsensitiv bezeichnen.

Das übergeordnete Forschungsziel des Graduiertenkollegs besteht darin, den Nachweis der durchgängigen Rollenmodellierbarkeit und der praktischen Anwendbarkeit zu erbringen. Durchgängigkeit bedeutet dabei, dass über alle Ebenen der Modellierung hinweg konsequent Rollen zur Kontextmodellierung eingesetzt werden, also in der Konzeptmodellierung (in Metasprachen), in der Sprachmodellierung sowie in der Modellierung auf Anwendungs- und Softwaresystemebene. Damit einhergehend bildet auch die weitere wissenschaftliche Ausgestaltung des Rollenkonzeptes eine Forschungsaufgabe. Durchgängigkeit bedeutet ebenfalls, dass die identifizierten Rollenkonzepte miteinander systematisch in Beziehung gesetzt werden, um Modelltransformationen und -synchronisation zu gestatten. Dies bietet große Vorteile in der Systemkonstruktion, da Kontextwechsel auf unterschiedlichen Abstraktionsebenen miteinander in Beziehung gesetzt und synchron behandelt werden können. Damit eröffnen sich Chancen für neuartige und innovative Softwarearchitekturen, die den Anforderungen zukünftiger dynamisch kontextsensitiver Softwaresysteme gerecht werden. Potentielle Anwendungsfelder bilden dabei die Software für das SmartGrid der Zukunft, die kontextsensitive Nutzung von natürlicher Energie zum Rechnen (natural energy based computing), Software für cyber-physikalische Systeme in Haus, Verkehr und Fabrik, Software für kontextsensitive betriebswirtschaftliche Anwendungen, kontextsensitive Suchmaschinen, u.v.m.

Neben der wissenschaftlichen Exzellenz legt das Graduiertenprogramm großen Wert auf ein umfassendes und individuelles Betreuungs- und Qualifikationskonzept. Um diesen Spagat zu leisten, werden auf der einen Seite qualitätssichernde Maßnahmen in Form von Tandem-Konzept und Thesis Advisory Boards eingeführt. Auf der anderen Seite werden motivierende und weiterbildende Aspekte, zum Beispiel in Form von Seminaren, zum Erwerb von Soft-Skills und ein internationales Gastwissenschaftlerprogramm in das Graduiertenkollegs integriert.

Kontakt: Kluge, Tim
Förderung: DFG

Cyber-Physische Produktionssysteme (CPPS) verwirklichen die vierte industrielle Revolution durch fortschreitende Digitalisierung der produktionsbeteiligten Elemente. Die Gesamtheit an heterogenen Informationssystemdaten “ von Maschinenschnittstellen (SPS, CNC) über die Prozess-Leitebene (SCADA) und Manufacturing Execution System (MES)-Daten bis hin zu vergleichsweise abstrakten Geschäftsprozessen (ERP, BPEL) “ werden durch CPPS auf eine homogene Art und Weise miteinander integriert. Dabei werden die Gebäudeüberwachung und -steuerung üblicherweise nicht berücksichtigt, obwohl in Bereichen wie der Instandhaltung die Integration beider Welten eine zentrale Rolle für CPPS spielt. Durch eine Integration von Computer-Aided Facility Management (CAFM) mit CPPS können sowohl Produktionskosten gesenkt als auch gleichzeitig die Produktqualität gesteigert werden. Beispielsweise können CAFM-Daten über den Energieverbrauch einzelner Produktionsanlagen genutzt werden, um Produktionsabläufe zu optimieren. Diese können wiederum automatisch an geplante Wartungsaufträge angepasst werden. Aus Sicht der CPPS können durch Qualitätskontrolldaten automatisch Wartungsaufträge für am Produktionsprozess beteiligte Maschinen erstellt und der Produktionsbetrieb so in Echtzeit optimiert werden. Damit werden Fabrikgebäude zunehmend perzeptiv und intelligent und ebnen so den Weg für integrierte Management-, Informations- und Steuerungssysteme, die sich in CPPS zukünftig nahtlos einfügen können. Im Fokus des Vorhabens steht die Erforschung von Modellen, Prozessen und Beschreibungstechnologien, die in den Bereichen CAFM und CPPS angewendet und als Demonstratoren realisiert werden, um eine gemeinsame Weiterentwicklung und Integration beider Domänen zu ermöglichen. In diesem Zusammenhang sollen Software-Engineering-Prozesse zum Einsatz kommen, die sowohl die Implementierung modularer Softwarekomponenten als auch deren Integration in bestehende Produktionssysteme in einer zunehmend verteilten und globalisierten Entwicklerwelt berücksichtigen. Die komponentenbasierte Umsetzung ermöglicht beliebige Freiheitsgrade bei der Integration von CAFM- und CPPS-Systemen hinsichtlich der benötigten Funktionalitäten. Zusätzlich sollen kontextsensitive Interaktionsmodelle für die entstehenden Softwaresysteme innerhalb des Vorhabens untersucht und umgesetzt werden, damit die CAFM- und CPPS-Abläufe für den Menschen optimal integriert werden können. In „CyPhyMan“ wird gezielt die nächste Generation des erweiterten Facility Managements auf Basis von CPPS erforscht “ ein direkter und innovativer Beitrag zur Industrie 4.0.
Förderung: SAB

Wesentliche Motivation des Projektes ist es, den Bau von zuverlässigen Webewerkzeugen für Programme, Modelle und Dokumente zu vereinfachen. Zur Vereinfachung des Webens von Fragmenten soll regelgesteuerte Port-Graphersetzung eingesetzt werden. Zur Erkennung von Kompositionskonflikten und Aspektinteraktionen sollen RAG dienen. Zur Auflösung von Konflikten sollen die Strategiesprachen der Port-Graphersetzung genutzt werden. Um die Technologie für beliebige Programmier-, Modellierungs- und Dokumentsprachen einsetzen zu können, soll sie mit wohlgeformter invasiver Softwarekomposition gekoppelt werden. Insgesamt soll also die wohlgeformte invasive Softwarekomposition durch Regel- und Strategiesteuerung aus der Port-Graphersetzung erweitert werden, um Webevorgänge und -Werkzeuge noch einfacher und zuverlässiger spezifizieren zu können.
Kontakt: Mey, Johannes
Förderung: DFG
[web]

SNIFFBOT 05.2019 - 12.2021
Wo gefährliche Gase sind, sollten Menschen sich fernhalten. Bei Unfällen, Katastrophen oder der Beseitigung von Kriegsschäden sollen daher künftig Roboter zum Einsatz kommen. Im Projekt SNIFFBOT entwickeln Wissenschaftler von sieben Professuren der TU Dresden Methoden und Technologien für den Einsatz von gasschnüffelnden Robotern in gefährlichen Umgebungen. Die sogenannten Sniff-Bots lassen sich aus der Ferne bedienen und sollen den Einsatz und die Gefährdung von Menschen unnötig machen. Dazu werden sowohl Drohnen als auch Fahrroboter mit Bio- und Mikrosensoren ausgestattet. Findet der Sniff-Bot giftiges Gas, kann sich ein Mensch aus sicherer Entfernung mit dem Roboter verbinden und ihn steuern, die Gegend inspizieren und im Idealfall die Quelle des giftigen Gases versiegeln oder entfernen.
Förderung: SAB

HybridPPS 01.2020 - 12.2022
Im Sinne der Industrie 4.0 wird zur Kompensierung von Störeinflüssen bei einer gleichzeitig hohen logistischen Zielerfüllung die vollständige Selbstkonfiguration und Selbststeuerung der Produktionsplanung und -steuerung (PPS) vorgeschlagen. Dabei existieren zahlreiche Konzepte zur Umsetzung einer solchen PPS, welche überwiegend eine permanente Datenverfügbarkeit, wie in zukünftigen cyber-physischen Systemen (CPS), voraussetzen. Diese erforderliche permanente Datenverfügbarkeit (Echtzeit-Daten und Echtzeit-Interaktion) ist in Branchen mit überwiegend manuellen Produktionsprozessen gegenwärtig nur teilweise realisierbar und bleibt Forschungs- und Entwicklungsgegenstand für die nächsten Jahre. Dabei ist zum einen die technologische Umsetzung und Zulässigkeit einer durchgängigen digitalen Erfassung menschlicher Arbeit ungeklärt. Zum anderen sind aber auch Schnittstellen zur Anwendungsprogrammierung von Maschinen schlichtweg nicht frei zugänglich. Um die Vorteile der Selbststeuerung von Produktionsprozessen hinsichtlich der Verbesserung logistischer Zielgrößen unter Prozessunsicherheiten auch in der Übergangs- und Entwicklungsphase von bestehenden Produktionssystemen zu CPS zu nutzen, wird somit die Teilautonomisierung von Funktionen der PPS notwendig. Somit kann von einer hybriden PPS gesprochen werden kann. Als Konzeptansatz wird im Vorhaben die zentrale und wissensbasierte Konfiguration einer robusten Selbststeuerung zur Reihenfolgebildung und Ressourcenallokation auf Basis bestehender oder einfach zu erhebender Informationen im Produktionssystem für einen definierten Zeitraum verfolgt. Dieser Ansatz soll die erste Stufe zur Umsetzung der Vision Industrie 4.0 in Bezug auf die PPS, insbesondere für Branchen mit der Charakteristik eines hohen Anteils an manueller Arbeit und hoher Prozessinstabilität, bilden. Zur Abgrenzung zu bestehenden Forschungsarbeiten im Bereich der Selbststeuerung fokussiert das geplante Forschungsvorhaben eine signifikant niedrigere Datenqualität und -verfügbarkeit, wie diese in der genannten Branche auch zukünftig vorliegen wird. Unter diesen Rahmenbedingungen sind gänzlich neue Methoden und Verfahren zur Umsetzung des Konzeptansatzes zu entwickeln. Auf Grund der eingeschränkten Echtzeit-Daten und Datenaustauschmöglichkeiten liegt der Schwerpunkt auf der Entwicklung von robusten Heuristiken zur Selbststeuerung, möglichst ohne permanente Neukonfiguration bestmögliche Reihenfolge- und Ressourcenallokationsentscheidungen zu treffen. Störgrößen sind somit prospektiv bei der Generierung dieser Heuristiken einzubeziehen. Des Weiteren soll implizites Wissen aus Simulation und Produktion durch maschinelles Lernen für die kontinuierliche Verbesserung der Selbststeuerung verwendet werden.
Förderung: DFG

ARAILIS 02.2020 - 12.2022

"Augmented Reality- und Künstliche Intelligenz- unterstützte laparoskopische Bildgebung in der Chirurgie"[/p] Daten aus CT-, MRT- oder Ultraschallaufnahmen bilden die unersetzliche Grundlage von chirurgischen Eingriffen. Sie liefern wichtige Informationen, wie z. B. die Lage von Tumoren, Blutgefäßen und bestimmten Geweben. Auf dieser Basis wird vor dem Eingriff die OP-Strategie und -technik geplant und erfolgt während der OP die Orientierung und wichtige Entscheidungen. Anhand der Bildgebung werden die Machbarkeit, das Ausmaß der Operation und das zu erwartende Risiko abgeschätzt. 

Im Bereich der laparoskopischen, d.h. minimalinvasiven Chirurgie sind derzeit diese Bilddaten allerdings nur ungenügend in den OP-Vorgang integriert: Dem Chirurgen kann auf einem Bildschirm ein manuell gewählter Ausschnitt eines Bildes angezeigt werden. Die Informationen aus dieser Abbildung müssen kontinuierlich und allein mit Hilfe der räumlichen Vorstellungskraft auf den Patienten bzw. die OP-Situation übertragen und interpretiert werden.[/p]

Zwar ermöglichen diese minimalinvasive Eingriffe, viele Vorteile für den Patienten (geringeres Infektionsrisiko, kürzere Krankenhausaufenthalt, kleinere Narben) verschärfen aber die bereits oben genannten Herausforderungen für den Chirurgen durch kleine Kameraausschnitte, eingeschränktes Tiefensehen, erschwerte Hand-Auge-Koordination und ein reduziertes Tastvermögen. [/p]

Die daraus resultieren folgende Probleme sind:

  • Die Anlernzeiten für neue Chirurgen verlängern sich aufgrund der gestiegenen Anforderungen 
  • Die OP-Zeiten verlängern sich durch den manuellen Abgleich der präoperativen Daten mit den der aktuellen OP-Situation
  • Die Arbeitsbelastung der Chirurgen ist erhöht, was zu kürzeren produktiven Phasen und höheren Fehlerraten führt
[/p]

Die Zielstellung des ARAILIS-Projekts ist daher einen innovativen computerunterstützte Ansatz für die Chirurgie mittels erweiterter Realität und Künstlicher Intelligenz zu entwickeln. Die Chirurgen sollen bei der Entscheidungsfindung unterstützt, die Wahrscheinlichkeit für Komplikationen bei Eingriffen reduziert, der Nachsorgeaufwand verringert und damit insgesamt die Patientensicherheit erhöht werden. Ein sog. "Connected Assistent" ​soll während der OP die bereits existierenden Aufnahmen mit der Live-Kamerasicht verschmelzen. [/p]

Das zu entwickelnde ARAILIS-System wird:

  • wichtige und verdeckte Gewebestrukturen und Zielregionen finden und darstellen, wobei die individuelle Anatomie des Patienten und die Beschaffenheit der Ziele (in der Regel Tumore) berücksichtigt werden
  • eine „Live-Sicht“ ermöglichen, die Strukturen innerhalb oder hinter Organen visualisiert
  • Navigation und Orientierung der OP-Kameras und Werkzeuge bieten
  • minimalinvasive OPs auch bei schwierigen Eingriffen ermöglichen, die bisher offen durchgeführt werden müssen
  • das Verschmelzen verschiedener Systeme (Bild- und Videoquellen, Navigationssensoren, Ultraschall, ...) ermöglichen und für die Chirurgen gleichzeitig nutzbar machen
[/p] ------------------
Förderung: TG70/SAB

Clinical Data PROSPER 11.2019 - 12.2021
"Clinical Data-Based Analysis and Decision Support Platform - Entwicklung einer Hospital-Machine-Learning-Plattform zur Optimierung der OP-Planung"

Für die Planung des Operationsalltags ist eine zunehmende Menge an medizinischen Informationen und komplexen Prozessdaten zu verwerten. Aktuell wird diese Planung durch qualifizierte „rzte rein auf Grundlage der klinischen Erfahrung manuell vorgenommen und fortwährend an die aktuelle Situation angepasst. Häufig führt dies dazu, dass die tatsächliche OP-Dauer deutlich von der geplanten Dauer abweicht, sodass Folgeoperationen verschoben werden müssen. Notfälle verkomplizieren die Situation zusätzlich.[/p]

Im Rahmen des Projekts soll eine Plattform entwickelt und eingebunden werden, die mit Hilfe von Machine-Learning-Technologien effiziente und datenbasierte Entscheidungsvorgänge für diesen Prozess ermöglicht. Damit soll die OP-Planung durch Digitalisierung und künstliche Intelligenz (KI) optimiert werden. Auf Basis retrospektiver OP-Daten soll ein automatisiertes Planungs-Tool entstehen, welches OP-Dauern präzise prognostizieren kann und folglich den OP-Alltag durch eine verbesserte Planung und Ressourcenauslastung optimiert. „hnliche Verfahren und Anwendungen sind in der industriellen Produktionsplanung und -steuerung schon seit Längerem etabliert. Im Projektverbund sollen diese Verfahren für den Gesundheitssektor eingesetzt werden und ein Softwareprototyp für die Anwendung in der klinischen Praxis getestet werden.[/p]

Dadurch wird eine optimierte, zeitgemäße OP-Planung ermöglicht, die einen enormen Mehrwert für die medizinische Versorgung bietet:

  • Vermeidung von Wartezeiten, Patienten profitieren von erhöhter Planungssicherheit
  • Reduktion von Stressbelastung
  • Einhaltung multimodaler Behandlungspläne
  • Bessere Steuerung, dadurch effektivere Ressourcenplanung und -auslastung (OP Saalauslastung, Bettenbelegung, Personalplanung, Materialplanung)
  • positive Auswirkung auf klinische Mitarbeiter
  • Qualitätssteigerungen und wesentliche Kosteneinsparungen
[/p] --------------
Förderung: SAB

IPS Framework 01.2020 - 12.2021

"Indoor Positioning Software Framework"[/p]

Outdoor-Navigationstechnologien sind weltweit auf Basis von mittlerweile vier Satellitensystemen und Mobilfunknetzen zur metergenauen Standortbestimmungen in der Lage. Sie sind längst Grundlage diverser Anwendungen im industriellen, zivilen und auch militärischen Kontext. Moderne Smartphones bieten bspw. seit Jahren durch vorinstallierte Kartenanwendungen die Möglichkeit einer präzisen Ortung außerhalb von Gebäuden.[/p]

Innerhalb von Gebäuden bietet sich durch die physikalischen Gegebenheiten jedoch ein völlig anderes Bild: Je nach Baustruktur werden elektromagnetische Signale von außen fast vollständig abgeschirmt, sodass etablierte Technologien nicht einsetzbar sind.[/p]

Eine zuverlässige und auf den jeweiligen Anwendungsfall (u.a. Genauigkeit, Energieversorgung und Kosten) angepasste Lokalisierung bildet die Grundlage für vielfältige Automatisierungsaufgaben in Produktion und Logistik. Daher etablieren sich zunehmend vielfältige, für den Einsatz in Gebäuden geeignete, Indoor Positioning (IPos)-Technologien. Neben der Auswertung von Sensortechnik/-informationen im Gebäude zählen hierzu auch die Datenhaltung/Datenspeicherung der Gebäudekarten und die Interaktion über mobile Endgeräte und Mensch-Maschine- oder Maschine-Maschine.[/p]

Die Teilfunktionen werden aktuell einzeln von proprietären (herstellerspezifischen) IPos-Technologien abgedeckt. Das erfordert stets die Installation spezieller Technikkombinationen und umfangreichen Entwicklungsaufwand für IPos-Anwendungen. Dadurch werden IPos-Lösungen teuer in der Anschaffung und Wartung sowie empfindlich gegenüber einem Technologie-, Plattform-, oder Herstellerwechsel. Diese Umstände behindern die Neu- und Weiterentwicklung von IPos-Anwendungen und verzögern nötige Innovationen in den technologischen Zukunftsbereichen wie Internet of Things (IoT), Smart Buildings oder auch Automated Guides Vehicles (AGV)s. [/p]

Das Forschungsziel besteht daher im Aufbau einer flexiblen Integrationsplattform für IPos-Technologien in intralogistischen Systemen. Ergebnis des Forschungsvorhabens soll ein Software-Framework sein, mit dem Komponenten verschiedener IPos-Technologien aus den Bereichen Sensorik, Datenhaltung und HMI miteinander verknüpft werden. Der Kern des Vorhabens liegt in der Formulierung eines internen Kontextmodells, das den Informationen aus eigehenden technischen Signalen (z.B. Signalstärke -> Entfernung) eine Bedeutung zuordnet (z.B. Entfernungen -> Position). Auf diese Weise können durch das Framework Funktionen, wie bspw. Navigation, von den zu nutzenden technischen Komponenten entkoppelt werden.[/p]

Ein Softwareframework ist ein komponentenorientiertes Rahmengerüst, das eine gemeinsame Struktur, bestimmte Entwurfsmuster, wiederverwendbare Kernfunktionen und einen allgemeinen Kontrollfluss zur Verfügung stellt. Auf diese Weise werden die Interoperabilität und die Wiederverwendbarkeit der applikationsspezifischen Funktionen erhöht und deren Integration vereinfacht. [/p]

Eine auf Basis dieses Frameworks entwickelte Anwendung kann somit durch den Austausch einzelner Komponenten (z.B. ein anderer Sensor zur Lokalisierung) mit geringem Aufwand an wechselnde Anforderungen angepasst werden. Diese technologische Entkopplung erlaubt unter anderem eine Verkürzung der Entwicklungszeit und eine höhere Anwendungsqualität. [/p] ------------------

Förderung: AIF/IFL

ConSens Data Glasses 4 SME 09.2020 - 12.2021

"Pilot Application for Context-Sensitive Data Glasses for Smart Medical Environments"[/P]

Abstract:[/p]

With regard to the increasing digitalization of medical information and the lack of adaptive systems to provide these information in an appropriate, mobile manner during the daily clinical business, a system is to be designed and analyzed to close this gap. For this purpose a software and hardware prototype based on smart glasses is to be developed to cover several basic use cases and to provide a platform to investigate and extend this approach.[/p]

Medical need & background:[/p]

Despite the increasing digitization of healthcare and the increasing availability of electronic medical data, access to clinically relevant information and medical expertise is often limited by spatial and technical constraints. During inpatient care, a large spectrum of data is continuously generated, forming the base for treatment and care concepts. Nearly all medical-relevant information are electronically recorded in different primary systems and exchanged via increasingly standardized interfaces and data formats within the protected hospital networks. By providing information "at the right time, in the right place" and without barriers, it would be possible to increase the quality of care and patient safety, to improve the utilization of human resources and to reduce the mental effort of the medical staff.[/p]

At the bedside, access devices such as laptops or tablets to request electronic information resources are limited due to hygienic requirements and due to the need for high interaction flexibility with the patient 1). Thus, it is necessary to develop mobile assistance (and communication) systems based on adaptive and wearable technologies that are capable of detecting contexts and situations based on static information and current sensor output to provide relevant medical data to multi-professional user groups. These assistance solutions must not interfere with human interaction with the patient, which requires the development of intelligent control logic that takes into account the specific needs and context of healthcare professionals. Compared to existing solutions, a broad range of advanced presentation and interaction techniques, mobile hardware, heterogeneous sensor and data networks, and learning and flexible software technologies must be integrated to create a scalable multi-user system for clinical operations.[/p]

The project aims to cooperate with the tooz technologies GmbH, which provides hardware and software for the development of the smart glasses.[/p]

Aims of the project:[/p

In the scope of the project, the technological basics for a mobile information and communication system based on the tooz smart glasses are to be developed. First, static medical data from external data sources should displayed dynamically with regard to the current location context. Secondly, the scope of the context is extended by integrating complex sensor input and user control by voice or gestures, forming a smart medical environment.[/p]

Aims of the project are:

  • the analysis of the concept and the technologies in a clinical environment
  • the development of a functional and demonstrable prototype, providing basic anonymized medical data (e.g. patient information, main diagnosis summary, last actions / results) in a test scenario
  • preparation and support of aligned EKFZ project ideas & living Lab
[/p]
Förderung: EKFZ/IIP

Mitarbeit in Programmkomitees [mehr]

Wissenschaftliche Zusammenarbeit und Kontakte [mehr]