Research Areas at the Department of Computer Science

The scientists of the Department of Computer Science combine their diverse research activities in six research areas. They include both basic research and application-oriented projects and are complemented by further relevant research topics in the individual research groups.

Der Schwerpunkt Computational Engineering und Robotik gliedert verschiedene Profillinien in zwei Bereichen:

Methoden und Werkzeuge für High-Performance Computing und eingebettete Cyber-Physische Systeme

Zum Entwurf und zur effizienten Umsetzung numerischer Algorithmen zur Lösung rechenintensiver Probleme der Simulation und Optimierung in den Ingenieurs- und Naturwissenschaften werden Methoden zur Produktivitätssteigerung der Programmierung entwickelt. Diese adressieren das oft beklagte „Software Gap“ auf modernen Hardwarearchitekturen.

Beispielhafte Anwendungen sind

  • domänenspezifische Codetransformationen (z. B. Sensitivitätsanalysen von Simulationsprogrammen in den Ingenieurwissenschaften),
  • automatische Leistungsmodellierung sowie
  • effiziente und portable parallele Programmierungsparadigmen für kryptographische Fragestellungen.

Eingebettete Cyber-Physische Systeme benötigen oft Rechenleistung / Energiebudget-Kombinationen weitab von Standardrechnern.

Der Einsatz von effizienteren anwendungsspezifischen Hardware-Architekturen ermöglicht beispielsweise Anwendungen in drahtlosen Sensornetzen zur Überwachung des Schwingungsverhaltens von Bauwerken und das Lösen konvexer Optimierungsprobleme in regelungstechnischen Szenarien (z. B. Trajektorienplanung von autonomen Fahrzeugen).

Robotik und Intelligente Autonome Systeme

Die Forschung in der Robotik zeichnet sich durch methodische Entwicklungen für neuartige Roboterhardware sowie kooperative und autonome Robotersysteme und deren Anwendungen aus.

Aktuelle Beispiele sind am Muskel-Skelettapparat orientierte Roboterarme (als helfender „dritter Arm“ in der Produktion) sowie Roboterbeine (als Bewegungsassistenzsysteme in Orthesen und Prothesen) sowie mobile und humanoide Roboter (für Such- und Rettungsaufgaben).

Zu den methodischen Entwicklungen gehören unter anderem die effiziente Modellierung mechanischer Mehrkörpersysteme sowie modellbasierte Optimierung und Regelung der Bewegungsdynamik von bio-inspirierten Robotersystemen und biomechanischen Menschmodellen.

Im Bereich der Intelligenten Autonomen Systeme werden Methoden entwickelt, um technische Systeme, insbesondere Roboter, mit verstärkter Autonomie, Adaptivität und intelligenterem Verhalten auszustatten.

Hierzu werden neben Grundlagen- und Anwendungsforschung in der klassischen Robotik neue Verfahren für maschinelles Lernen entwickelt und bio-inspirierte Lern- und Steuerungsarchitekturen untersucht.

The continually growing data volume yields a paradigm shift in science, industry, and society: Instead of coding all information processing steps manually, we research data-driven approaches that autonomously recognize structures in data and use them to amend their knowledge. Managing huge amounts of data and obtaining relevant information are among the most central topics of today’s society. Humanities research can particularly profit from data-driven approaches to interactively identify and validate new hypotheses in digital data collections.

Machine Learning (ML)

Classification, regression and clustering are the three classic tasks in machine learning. Motivated by the human brain, artificial multi-layered neural networks learn a classifier from single attribute-value tables. However, classic machine learning approaches (including deep learning) cannot be applied if the data spans multiple tables or entire relational databases. Intelligent databases employ statistical relational learning to efficiently generate hypotheses that do not only consider uncertainty, but also context and links between multiple relations. They cover many aspects of artificial intelligence ranging from deductive reasoning to machine learning and optimal decision making. Recent works focus predominantly on the accuracy of the predictions. But for many applications (e.g., in the humanities), we need to interpret the patterns learned from the data, such that we can understand, explain, and justify the automatic predictions. Such interpretable models are a major quality factor to establish trust into the learned methods. We aim at learning interpretable rule-based, preference-based, or (deep) probabilistic graphical models and evaluating them in multiple applications. We put a particular focus on techniques for interacting dynamically with learning algorithms that can also be used by laypeople.

Natural Language Processing (NLP)

A major challenge in natural language processing is the preparation of textual data and the automatic adaptation of methods to varying domains, genres, user groups, and languages. A flexible representation, processing, and presentation of language-related data plays a crucial role in many contexts, since textual data is very heterogeneous (e.g., the genre mix in the Web) and consumed in many different ways (e.g., language learners have totally different demands for feedback than journalists). We closely cooperate with application partners to formalize language-related tasks and research data-driven methods to solve them. Cross-lingual and language-independent methods are particularly important in an increasingly globalized world. Textual data found in the humanities is especially demanding and requires innovative and robust approaches that are able to learn general methods from just a few data points that could yet be analyzed and validated by experts. Additionally, we need interpretable models that allow lay users to understand what a model has learned and why it decided in a certain way as well as to interactively correct errors in the model.

Data Management (DM)

To allow laypeople using data-driven methods, we need to automatically assist the entire data science process from creating and cleaning the data, to learning a model and efficiently use and interact with the learned models. Such Systems ML approaches particularly enable interactive user–model interactions to explore new patterns based on appropriate visualizations or explain what a model learned. But intelligent approaches can learn from the user interaction as well by understanding what was important or which predictions were wrong. A major challenge of interactive systems is the efficient storage and processing of large heterogeneous data.

Joint perspective

Data Science is among the fasted growing areas of computer science. Technische Universität Darmstadt conducts excellent foundational research in machine learning, natural language processing, and data management as well as its manifold applications in the humanities and social sciences at the universities Darmstadt, Frankfurt, and Mainz. Beyond that, also the research areas on Computational Engineering and Robotics, Visual Computing, and the Centre for Cognitive Science depend on Data Science methods.

Participating research groups:

Algorithmics (Prof. Dr. Karsten Weihe)

Data Management (Prof. Dr. Carsten Binnig)

Machine Learning (Prof. Dr. Kristian Kersting)

Ubiquitous Knowledge Processing (Prof. Dr. Iryna Gurevych)

Research in the area of IT-Security is dedicated to central issues of cybersecurity and privacy protection and is structured along the three closely intertwined research lines “fundamental building blocks”, “security architectures”, and“construction methods”.

Cryptography, methods for the assessment of trust, and techniques for the verification of security guarantees or secure hardware components are part of the “fundamental building blocks”. A particularly prominent example is the foundational research in the area of cryptographic methods, which are central to the Collaborative Research Center CROSSING, funded by the German Research Foundation (DFG).

These fundamental building blocks provide the foundation for the department’s research in “security architectures”, which are realized in software and hardware and allow for a systematic protection of the complex applications and services of today’s and tomorrow’s cyber world. Some of the research areas here are cloud security, the security of mobile and cyber-physical systems, the security of the internet and critical infrastructures, and secure software systems. One example is the LOEWE Center „emergenCITY“. The interdisciplinary center aims at investigating fundamentals, methods and solutions towards the resilience of future digital cities and especially the capability of Information and Communication Technology to resist, adapt, and transform in crisis situations. Another example is the DFG-funded Research Training Group (RTG) Privacy and Trust for Mobile Users, which studies privacy and trust in network services and sensor-augmented environments.

“Construction methods” support the development of such security architectures, for example through methods that detect and prevent weaknesses in software development, or through methods that consider the requirements of the users in the development process. One such research approach is “security-by-design,” which has long been established in our department, as evidenced by the collaborative research projects CASED (Center for Advanced Security Research Darmstadt, 2008 – 2016) and “EC SPRIDE” (European Center for Security and Privacy by Design, 2011-2015) that are continued within ATHENE – National Research Center for Applied Cybersecurity ATHENE.

Cybersecurity research within our department is interdisciplinary. Our researchers cooperate with researchers from other departments, for example with physicists in the area of quantum cryptography or with psychologists in the area of usability research. The IT security experts of the department significantly strengthen the profile area CYSEC – Cybersecurity [at] TU Darmstadt, one of six profile areas that define the research profile of TU Darmstadt.

The research area Massively Parallel Software Systems is divided into the following lines of research:

Software engineering methodologies for massively parallel architectures

The performance of single processing units has been stagnating for over a decade. Software parallelism has thus been steadily gaining relevance, beyond numerical simulations, across all computation-intensive domains of computer science. Efficient usage of parallel – possibly even heterogeneous – architectures is, however, still far from being trivial. Efficient yet consistent access to shared data is particularly challenging in parallel software.

Hence, this line of research is concerned with programming methodologies and tools to significantly simplify the tasks of developing efficient parallel programs and verifying their correctness. The research activities focus both on high-performance systems such as the Lichtenberg computer as well as on common server systems and embedded systems.

Static analysis, semantics, and formal verification

Even program libraries tested most thoroughly can harbor, over many years, unexposed faults and security vulnerabilities affecting millions of end devices. Parallel and distributed systems in particular, quite commonly contain defects that are subtle and hard to find. The correctness of concurrent programs is particularly challenged by the advent of new execution models (e.g., in many-/multicore architectures), besides the inherent conceptual intricacies of such programs.

The researchers in this line thus develop a collection of static analysis, test generation, and verification methods. Scalability, ease of use, and automation are particularly emphasized in the process.

In den beiden Profillinien Entwurf und Konstruktion sowie Analyse und Optimierung betrachten die Wissenschaftler*innen des Forschungsschwerpunktes ein breites Spektrum: von drahtlosen Sensornetzen und Mobilkommunikation bis zu massiv verteilten (Internet-weiten) Systemen wie beispielsweise der Cloud, dem Internet der Dinge oder Sozialen Netzen.

Die Profillinien umfassen alle notwendigen System- und Grundlagenaspekte. Bei der Forschung an konkreten Fragestellungen werden grundlegende weltweite Entwicklungen vorangetrieben oder nutzbringend in andere Problembereiche eingebracht; solche grundlegenden Entwicklungen reichen von Basistechnologien (schnelle adaptive Mobilfunknetze, software-definierte Netzwerke usw.) bis zu generellen Trends bei Anwendungen (Big-Data, mobile Nutzung, Medienkonvergenz usw).

Entwurf und Konstruktion

In der ersten Profillinie werden Entwurf und Konstruktion neuer Mechanismen für Netze und Verteilte Systeme erforscht. Solche neuen Mechanismen

  • machen bspw. Drahtlosnetze anpassungsfähiger und sicherer
  • ermöglichen automatische Optimierung von Transportprotokollen,
  • stellen so genannte Overlay-Netzwerke als Basis hochgradig verteilter Anwendungen bereit,
  • regeln die Selbstorganisation großer Server-Farmen,
  • verteilen und verarbeiten komplexe Ereignis-Ströme,
  • unterstützen anonyme Kommunikation,
  • vernetzen computergestützte Objekte zu Smart Environments und Smart Cities, usw.

Weil die Forscher*innen in große Verbund-Forschungsprojekte eingebunden sind, können sie nicht nur an einzelnen solchen Mechanismen forschen, sondern auch an umfassenden Prinzipien, Netzarchitekturen und effizienten Konstruktionsmethoden. Die erarbeiteten Ansätze werden in Theorie, Simulation und Praxis evaluiert.

Analyse und Optimierung

Entscheidende Erfolgsfaktoren von Netzen und verteilten Systeme sind ihre so genannten nicht-funktionalen Eigenschaften wie Durchsatz, Verzögerung, Erreichbarkeit, Fehlertoleranz und Skalierbarkeit.

Die Erforschung neuer Mechanismen sowie umfassender Architekturen und Systemkonzepte in der o.g. ersten Profillinie wendet deshalb immer auch Methoden der Analyse und Optimierung solcher nicht-funktionalen Eigenschaften an. Die zweite Profillinie forscht passend dazu an neuen Konzepten und Verfahren für die Analyse und Optimierung von Mechanismen, Architekturen und Systemen. Mathematisch-Analytische und simulative Verfahren sind ebenso Gegenstand dieser Forschung wie reale Messung und Regelung zur Laufzeit mit dem Ziel, für eine kontinuierliche Anpassung an Nutzeranforderungen und Randbedingungen zu sorgen.

Visual Computing ist nicht nur durch die rasant wachsende Menge und Nutzung von visuellen Informationen ein immer wichtiger werdendes Forschungsgebiet der Informatik, sondern ist auch eine Schnittstelle der Informatik in verschiedenste andere Disziplinen.

Am Standort Darmstadt hat Visual Computing eine lange Tradition und große Sichtbarkeit. Ein spezifisches Alleinstellungsmerkmal ist hierbei die enge Kopplung von universitärer Grundlagenforschung mit angewandter Forschung durch die enge Kooperation mit dem Fraunhofer IGD.

Visual Computing lässt sich in mehrere Bereiche unterteilen: Die Computergraphik beschäftigt sich mit der Erzeugung von Bildern aus Modellen. Die Computer Vision beschäftigt sich mit der Interpretation von Bildern, d.h. der Ableitung von Modellen aus visueller Information.

Daneben gibt es eine ganze Reihe von Themen, die erst durch die Wechselwirkung von Graphik und Vision bearbeitet werden können, z.B. die Suche von Mustern in Daten im Bereich des Visual Analytics.

Aktuelle Themen, mit denen sich die Darmstädter Forscher*innen beschäftigen sind zum Beispiel

  • geometrische Modellierung
  • Digitalisierung von Geometrie und Reflektionseigenschaften
  • Rendering
  • 3D Farbdruck
  • medizinische Bildverarbeitung
  • probabilistische Modellierung und Inferenz
  • massiv-parallele Berechnungsmethoden (z.T. auf Spezialhardware)

Based on these research areas the department offers students specialised Master's programmes.