Forschungsschwerpunkte

Forschungsschwerpunkte des Fachbereichs

Die Wissenschaftlerinnen und Wissenschaftler des Fachbereichs Informatik bündeln ihre vielfältigen Forschungsaktivitäten in sechs Forschungsschwerpunkte. Sie umfassen sowohl Grundlagenforschung als auch anwendungsorientierte Projekte und werden durch weitere relevante Forschungsthemen in den Fachgebieten ergänzt.

  • Forschungsschwerpunkt Computational Engineering und Robotik

    Der Schwerpunkt Computational Engineering und Robotik gliedert verschiedene Profillinien in zwei Bereichen:

    Methoden und Werkzeuge für High-Performance Computing und eingebettete Cyber-Physische Systeme

    Zum Entwurf und zur effizienten Umsetzung numerischer Algorithmen zur Lösung rechenintensiver Probleme der Simulation und Optimierung in den Ingenieurs- und Naturwissenschaften werden Methoden zur Produktivitätssteigerung der Programmierung entwickelt. Diese adressieren das oft beklagte „Software Gap“ auf modernen Hardwarearchitekturen.

    Beispielhafte Anwendungen sind

    • domänenspezifische Codetransformationen (z. B. Sensitivitätsanalysen von Simulationsprogrammen in den Ingenieurwissenschaften),
    • automatische Leistungsmodellierung sowie
    • effiziente und portable parallele Programmierungsparadigmen für kryptographische Fragestellungen.

    Eingebettete Cyber-Physische Systeme benötigen oft Rechenleistung / Energiebudget-Kombinationen weitab von Standardrechnern.

    Der Einsatz von effizienteren anwendungsspezifischen Hardware-Architekturen ermöglicht beispielsweise Anwendungen in drahtlosen Sensornetzen zur Überwachung des Schwingungsverhaltens von Bauwerken und das Lösen konvexer Optimierungsprobleme in regelungstechnischen Szenarien (z. B. Trajektorienplanung von autonomen Fahrzeugen).

    Robotik und Intelligente Autonome Systeme

    Die Forschung in der Robotik zeichnet sich durch methodische Entwicklungen für neuartige Roboterhardware sowie kooperative und autonome Robotersysteme und deren Anwendungen aus.

    Aktuelle Beispiele sind am Muskel-Skelettapparat orientierte Roboterarme (als helfender „dritter Arm“ in der Produktion) sowie Roboterbeine (als Bewegungsassistenzsysteme in Orthesen und Prothesen) sowie mobile und humanoide Roboter (für Such- und Rettungsaufgaben).

    Zu den methodischen Entwicklungen gehören unter anderem die effiziente Modellierung mechanischer Mehrkörpersysteme sowie modellbasierte Optimierung und Regelung der Bewegungsdynamik von bio-inspirierten Robotersystemen und biomechanischen Menschmodellen.

    Im Bereich der Intelligenten Autonomen Systeme werden Methoden entwickelt, um technische Systeme, insbesondere Roboter, mit verstärkter Autonomie, Adaptivität und intelligenterem Verhalten auszustatten.

    Hierzu werden neben Grundlagen- und Anwendungsforschung in der klassischen Robotik neue Verfahren für maschinelles Lernen entwickelt und bio-inspirierte Lern- und Steuerungsarchitekturen untersucht.

  • Forschungsschwerpunkt IT-Sicherheit

    Die Forschung im Bereich der IT-Sicherheit widmet sich zentralen Themen der Cybersicherheit und des Privatheitsschutzes und gliedert sich in die drei eng verzahnten Profillinien Grundbausteine, Sicherheitsarchitekturen und Konstruktionsmethoden.

    Zu den Grundbausteinen gehören kryptographische Verfahren, Methoden zur Bewertung von Vertrauen und Techniken zur Verifikation von Sicherheitsgarantien oder sicheren Hardwarekomponenten. Hierbei ist besonders die Grundlagenforschung im Bereich der kryptographischen Verfahren, die im Sonderforschungsbereich CROSSING der Deutschen Forschungsgemeinschaft (DFG) erforscht werden, hervorzuheben.

    Diese Grundbausteine bilden das Fundament für die Erforschung von Sicherheitsarchitekturen, die in Software und Hardware realisiert werden und es erlauben, die komplexen Anwendungen und Services der IT-Welt von heute und morgen systematisch abzusichern. Zu den Forschungsthemen in diesem Bereich gehören Cloud Security, die Sicherheit von mobilen und cyberphysischen Systemen, die Sicherheit des Internets und kritischer Infrastrukturen und sichere Softwaresysteme.

    Ein Beispielprojekt für die Erforschung sicherer mobiler Systeme ist der vom Land Hessen geförderte LOEWE- Schwerpunktes NICER, der vernetzte infrastrukturlose Kooperation zur Krisenbewältigung erforscht, um langfristig die Leistungsfähigkeit infrastrukturloser Kommunikation zu erhöhen. Ein anderes Beispiel ist das DFG-Graduiertenkolleg „Privatheit und Vertrauen für Mobile Nutzer“, das Privatheit und Vertrauen in Netzdiensten und sensorgestützten Umgebungen erforscht.

    Konstruktionsmethoden unterstützen die Entwicklung solcher Sicherheitsarchitekturen, zum Beispiel durch Verfahren, die Schwachstellen bei der Softwareentwicklung erkennen und vermeiden oder durch Methoden, die die Bedürfnisse der Endnutzer im Entwicklungsprozess berücksichtigen, wie der Forschungsansatz „Security-by-Design“.

    Dieser Ansatz ist seit langem im Fachbereich Informatik etabliert, zum Beispiel durch die Verbundprojekte CASED – Center for Advanced Security Research und EC SPRIDE – European Center for Security and Privacy by Design, die seit 2015 durch das CRISP – Center for Research in Security and Privacy fortgeführt werden.

    Die IT-Sicherheitsforschung des Fachbereichs Informatik arbeitet interdisziplinär und kooperiert mit Forschern aus anderen Fachbereichen, wie beispielsweise Physikern auf dem Forschungsgebiet Quantenkryptographie oder Psychologen in der Usability-Forschung.

    Die IT-Sicherheitsexperten des Fachbereichs Informatik stärken mit ihrer Forschung in besonderem Maße den gesamtuniversitären Profilbereich „CYSEC- Cybersecurity at TU Darmstadt“, einen von sechs Bereichen, die das Forschungsprofil der TU Darmstadt definieren.

  • Forschungsschwerpunkt Massiv Parallele Softwaresysteme

    Der Forschungsschwerpunkt „Massiv Parallele Softwaresysteme“ organisiert sich in folgende Profillinien:

    Softwareentwicklungsmethoden für massiv parallele Architekturen

    Seit über zehn Jahren stagniert die Leistungsfähigkeit von Einzelprozessoren. Parallelität in der Software gewinnt dadurch, auch abseits numerischer Simulationsrechnungen, stetig an Bedeutung und durchdringt alle rechen-intensiven Bereiche der Informatik. Die effiziente Nutzung paralleler, möglicherweise sogar heterogener Architekturen ist aber immer noch keineswegs trivial. Insbesondere ist es schwierig, in paralleler Software den Zugriff auf gemeinsam genutzte Daten korrekt aber trotzdem effizient zu gestalten.

    Die Profillinie widmet sich daher der Entwicklung von Programmiermethoden und -werkzeugen mit dem Ziel, die Erstellung effizienter paralleler Programme sowie die Verifikation ihrer Korrektheit deutlich zu vereinfachen. Die Forschungsaktivitäten konzentrieren sich dabei sowohl auf Hochleistungssysteme wie den Lichtenbergrechner als auch auf universell einsetzbare Serversysteme und eingebettete Systeme.

    Statische Analyse, Semantik und formale Verifikation

    Selbst extrem gründlich getestete Programm-Bibliotheken können jahrelang unentdeckte Fehler und Sicherheitslücken enthalten, von denen oft Milliarden von Endgeräten betroffen sind. Speziell parallele und verteilte Systeme enthalten häufig subtile, schwer zu findende Fehler.

    Für die korrekte Funktionsweise nebenläufiger Programme stellt neben der inhärenten konzeptionellen Komplexität solcher Programme auch die Verwendung neuer Ausführungsführungsmodelle (z. B. in Many-/Multicore Architekturen) eine besondere Herausforderung dar. Die Wissenschaftlerinnen und Wissenschaftler des Schwerpunkts entwickeln daher eine Reihe von statischen Analyse-, Testerzeugungs- und Verifikationsmethoden. Dabei wird besonderes Augenmerk auf Skalierbarkeit, einfache Benutzbarkeit und Automatisierung gelegt.

  • Forschungsschwerpunkt Netze und Verteilte Systeme

    In den beiden Profillinien Entwurf und Konstruktion sowie Analyse und Optimierung betrachten die Wissenschaftlerinnen und Wissenschaftler des Forschungsschwerpunktes ein breites Spektrum: von drahtlosen Sensornetzen und Mobilkommunikation bis zu massiv verteilten (Internet-weiten) Systemen wie beispielsweise der Cloud, dem Internet der Dinge oder Sozialen Netzen.

    Die Profillinien umfassen alle notwendigen System- und Grundlagenaspekte. Bei der Forschung an konkreten Fragestellungen werden grundlegende weltweite Entwicklungen vorangetrieben oder nutzbringend in andere Problembereiche eingebracht; solche grundlegenden Entwicklungen reichen von Basistechnologien (schnelle adaptive Mobilfunknetze, software-definierte Netzwerke usw.) bis zu generellen Trends bei Anwendungen (Big-Data, mobile Nutzung, Medienkonvergenz usw).

    Entwurf und Konstruktion

    In der ersten Profillinie werden Entwurf und Konstruktion neuer Mechanismen für Netze und Verteilte Systeme erforscht. Solche neuen Mechanismen

    • machen bspw. Drahtlosnetze anpassungsfähiger und sicherer
    • ermöglichen automatische Optimierung von Transportprotokollen,
    • stellen so genannte Overlay-Netzwerke als Basis hochgradig verteilter Anwendungen bereit,
    • regeln die Selbstorganisation großer Server-Farmen,
    • verteilen und verarbeiten komplexe Ereignis-Ströme,
    • unterstützen anonyme Kommunikation,
    • vernetzen computergestützte Objekte zu Smart Environments und Smart Cities, usw.

    Weil die Forscher in große Verbund-Forschungsprojekte eingebunden sind, können sie nicht nur an einzelnen solchen Mechanismen forschen, sondern auch an umfassenden Prinzipien, Netzarchitekturen und effizienten Konstruktionsmethoden. Die erarbeiteten Ansätze werden in Theorie, Simulation und Praxis evaluiert.

    Analyse und Optimierung

    Entscheidende Erfolgsfaktoren von Netzen und verteilten Systeme sind ihre so genannten nicht-funktionalen Eigenschaften wie Durchsatz, Verzögerung, Erreichbarkeit, Fehlertoleranz und Skalierbarkeit.

    Die Erforschung neuer Mechanismen sowie umfassender Architekturen und Systemkonzepte in der o.g. ersten Profillinie wendet deshalb immer auch Methoden der Analyse und Optimierung solcher nicht-funktionalen Eigenschaften an. Die zweite Profillinie forscht passend dazu an neuen Konzepten und Verfahren für die Analyse und Optimierung von Mechanismen, Architekturen und Systemen. Mathematisch-Analytische und simulative Verfahren sind ebenso Gegenstand dieser Forschung wie reale Messung und Regelung zur Laufzeit mit dem Ziel, für eine kontinuierliche Anpassung an Nutzeranforderungen und Randbedingungen zu sorgen.

  • Forschungsschwerpunkt Data Science

    Aufgrund der stetig wachsenden Datenmengen in Wissenschaft, Industrie und Gesellschaft hat ein Paradigmenwechsel eingesetzt: Anstatt alle Schritte der Wissensverarbeitung manuell zu kodieren, werden datengetriebene Verfahren entwickelt, die die Strukturen selbständig in Daten erkennen und ihr Wissen ergänzen.

    Der Umgang mit riesigen Datenbeständen und die Gewinnung relevanter Informationen gehören zu den zentralen gesellschaftlichen Themen unserer Zeit. Datengetriebene Ansätze sind insbesondere für die Geistes-, Kultur- und Sozialwissenschaften gewinnbringend, um neue Hypothesen in digitalen Datenbeständen interaktiv zu identifizieren und zu validieren.

    Machine Learning (ML):

    Klassifikation, Regression und Clustering bilden die drei klassischen Hauptprobleme beim maschinellen Lernen. Motiviert durch das menschliche Gehirn, werden z.B. künstliche neuronale Netze mit mehreren Schichten gelernt, um aus einzelnen Attribut-Wert-Tabellen einen Klassifikator zu lernen.

    Liegen die Daten in mehreren Tabellen oder relationalen Datenbanken vor, können klassische Verfahren des maschinellen Lernens, auch des tiefen Lernens, nicht einfach angewendet werden. Intelligente Datenbanken nutzen statistisch-relationale Lernverfahren, um effizient Hypothesen zu generieren, die nicht nur Daten und Unsicherheit, sondern auch Zusammenhänge und Kontext berücksichtigen. Sie umfassen auch Aspekte der Künstlichen Intelligenz, vom Schlussfolgern, über das Lernen bis hin zum optimalen Entscheiden.

    Aktuelle Arbeiten stellen häufig die Präzision der Vorhersagen in den Vordergrund. Für viele Anwendungen, bspw. in den Digital Humanities, werden jedoch Einblicke in die aus den Daten gewonnenen Muster erwartet, damit die Vorhersagen nachvollziehbar, erklärbar und begründbar werden. Solche interpretierbaren Modelle sind ein wesentliches Qualitätskriterium, ohne das die nötige Vertrauensbasis zu den gelernten Modellen fehlt.

    Wir befassen uns sowohl mit dem Lernen von interpretierbaren, beispielsweise regelbasierten, präferenzbasierten oder (tiefen) probabilistischen graphischen Modellen und deren Interpretation im Anwendungskontext, als auch mit Techniken zur dynamischen Interaktion mit Lernprozessen, sodass diese auch von Laien sinnvoll eingesetzt werden können.

    Natural Language Processing (NLP):

    Eine wesentliche Herausforderung für NLP-Verfahren liegt in der Aufbereitung von textuellen Daten und deren automatisierte Anpassung an verschiedene Domänen, Genres, Nutzergruppen und Sprachen. Eine flexible Repräsentation, Verarbeitung und Darstellung von sprachlichen Daten spielt in vielen Bereichen eine Rolle, da sprachliche Eingaben äußerst heterogen sind (z.B. unterschiedlichste Textsorten im Web) und die Konsumenten generierter sprachlicher Ausgaben unterschiedliche Anforderungen mitbringen (Sprachlernende benötigen bspw. anderes automatisiertes Feedback als Journalist_innen).

    Wir arbeiten eng mit Anwendungspartnern zusammen, um sprachbezogene Problemstellungen zu formalisieren und mit Methoden des Data Science zu lösen. Gerade sprachübergreifende und sprachunabhängige Verfahren gewinnen in einer globalisierten Welt immer größere Bedeutung. Sprachdaten aus den Humanities sind besonders herausfordernd und bedürfen innovativer und robuster Ansätze, die aus der geringen Menge bereits von Experten überprüften Datenpunkten ein generell anwendbares Modell lernen und das Gelernte für Laien transparent erklären sowie interaktive Modellkorrekturen erlauben.

    Data Management (DM):

    Um auch Laien den Zugang zu datengetriebenen Verfahren zu ermöglichen, muss der komplette Zyklus von der Erstellung und Bereinigung von Daten über die Modellerstellung bis hin zur effizienten Ausführung der Modelle möglichst automatisiert unterstützt werden.

    Zusätzlich muss in solchen „Systems ML“-Ansätzen aber für Expert_innen die Möglichkeit gegeben sein, in die automatisierten Prozesse interaktiv einzugreifen, um bspw. explorativ durch geeignete Visualisierung neue Muster zu entdecken oder gelernte Modelle zu erklären. Auch umgekehrt können intelligente Verfahren aus der Interaktion mit Benutzern lernen. Eine wesentliche Herausforderung liegt in der effizienten Speicherung und Verarbeitung großer heterogener Datenmengen.

    Querbezüge: Data Science zählt zu den am stärksten wachsenden Bereichen der Informatik. Die Technische Universität Darmstadt engagiert sich sowohl in exzellenter Grundlagenforschung zu maschinellem Lernen, Natural Language Processing und Datenmanagement als auch in der Erforschung ihrer zahlreichen Anwendungen für die Geistes- und Sozialwissenschaften an den Universitäten Darmstadt, Frankfurt und Mainz.

    Darüber hinaus basieren auch die Forschungsschwerpunkte „Computational Engineering und Robotik“ und „Visual Computing“ sowie die Forschung im Centre for Cognitive Science auf Methoden des Data Science.

    Beteiligte Fachgebiete:

    Algorithmik (Prof. Dr. Karsten Weihe)

    Data Management (Prof. Dr. Carsten Binnig)

    Knowledge Engineering (Prof. Dr. Johannes Fürnkranz)

    Maschinelles Lernen (Prof. Dr. Kristian Kersting)

    Ubiquitäre Wissensverarbeitung (Prof. Dr. Iryna Gurevych)

  • Forschungsschwerpunkt Visual Computing

    Visual Computing ist nicht nur durch die rasant wachsende Menge und Nutzung von visuellen Informationen ein immer wichtiger werdendes Forschungsgebiet der Informatik, sondern ist auch eine Schnittstelle der Informatik in verschiedenste andere Disziplinen.

    Am Standort Darmstadt hat Visual Computing eine lange Tradition und große Sichtbarkeit. Ein spezifisches Alleinstellungsmerkmal ist hierbei die enge Kopplung von universitärer Grundlagenforschung mit angewandter Forschung durch die enge Kooperation mit dem Fraunhofer IGD.

    Visual Computing lässt sich in mehrere Bereiche unterteilen: Die Computergraphik beschäftigt sich mit der Erzeugung von Bildern aus Modellen. Die Computer Vision beschäftigt sich mit der Interpretation von Bildern, d.h. der Ableitung von Modellen aus visueller Information.

    Daneben gibt es eine ganze Reihe von Themen, die erst durch die Wechselwirkung von Graphik und Vision bearbeitet werden können, z.B. die Suche von Mustern in Daten im Bereich des Visual Analytics.

    Aktuelle Themen, mit denen sich die Darmstädter Forscher beschäftigen sind zum Beispiel

    • geometrische Modellierung
    • Digitalisierung von Geometrie und Reflektionseigenschaften
    • Rendering
    • 3D Farbdruck
    • medizinische Bildverarbeitung
    • probabilistische Modellierung und Inferenz
    • Digitale Bibliotheken
    • Mensch-Maschine-Schnittstelle (Augmented Reality)
    • massiv-parallele Berechnungsmethoden (z.T. auf Spezialhardware)

Angelehnt an die Schwerpunkte bietet der Fachbereich Studierenden forschungsorientierte, spezialisierte Masterstudiengänge an.