Forschungsschwerpunkt Massiv Parallele Softwaresysteme

Der Forschungsschwerpunkt „Massiv Parallele Softwaresysteme“ organisiert sich in folgende Profillinien:

 

Softwareentwicklungsmethoden für massiv parallele Architekturen: Seit über zehn Jahren stagniert die Leistungsfähigkeit von Einzelprozessoren. Parallelität in der Software gewinnt dadurch, auch abseits numerischer Simulationsrechnungen, stetig an Bedeutung und durchdringt alle rechen-intensiven Bereiche der Informatik. Die effiziente Nutzung paralleler, möglicherweise sogar heterogener Architekturen ist aber immer noch keineswegs trivial. Insbesondere ist es schwierig, in paralleler Software den Zugriff auf gemeinsam genutzte Daten korrekt aber trotzdem effizient zu gestalten.

Die Profillinie widmet sich daher der Entwicklung von Programmiermethoden und -werkzeugen mit dem Ziel, die Erstellung effizienter paralleler Programme sowie die Verifikation ihrer Korrektheit deutlich zu vereinfachen. Die Forschungsaktivitäten konzentrieren sich dabei sowohl auf Hochleistungssysteme wie den Lichtenbergrechner als auch auf universell einsetzbare Serversysteme und eingebettete Systeme.

Softwareentwicklungsmethoden für massiv verteilte Systeme: Unsere moderne Gesellschaft ist gekennzeichnet durch einen wachsenden Drang nach Möglichkeiten zu direkter oder indirekter Kommunikation mittels elektronischer Unterstützung. Die resultierende Verknüpfung von Geräten führt unweigerlich zu massiven dynamischen verteilten Rechensystemen, was den Druck auf existierende Engpässe bezüglich Leistung, wie auch Korrektheit, Fehlertoleranz, und Sicherheit weiter verschärft.

Das Ziel der Profillinie besteht darin, Programmiererinnen und Programmierern Werkzeuge und Hilfsmittel zur Verfügung zu stellen, die es ermöglichen, robuste, zuverlässige, und sichere Software für massiv verteilte Systeme zu entwickeln. Der Doppelfokus auf fundamentale Probleme in verteilten Systemen und auf Programmierebene gibt Zugang zu verschiedenen Gebieten, z. B. Sensornetzwerke, Cloud Computing und Big Data.

Statische Analyse, Semantik und formale Verifikation: Selbst extrem gründlich getestete Programm-Bibliotheken können jahrelang unentdeckte Fehler und Sicherheitslücken enthalten, von denen oft Milliarden von Endgeräten betroffen sind. Speziell parallele und verteilte Systeme enthalten häufig subtile, schwer zu findende Fehler.

Für die korrekte Funktionsweise nebenläufiger Programme stellt neben der inhärenten konzeptionellen Komplexität solcher Programme auch die Verwendung neuer Ausführungsführungsmodelle (z. B. in Many-/Multicore Architekturen) eine besondere Herausforderung dar. Die Wissenschaftlerinnen und Wissenschaftler des Schwerpunkts entwickeln daher eine Reihe von statischen Analyse-, Testerzeugungs- und Verifikationsmethoden. Dabei wird besonderes Augenmerk auf Skalierbarkeit, einfache Benutzbarkeit und Automatisierung gelegt.

Dekanat

TU Darmstadt
S2|02 Piloty-Gebäude, Raum D103
Hochschulstraße 10
64289 Darmstadt

dekanat(a-t)informatik.tu-darmstadt.de

A A A | Drucken Drucken | Impressum Impressum | Sitemap Sitemap | Suche Suche | Kontakt Kontakt | Webseitenanalyse: Mehr Informationen
zum Seitenanfangzum Seitenanfang