Forschungsschwerpunkt Sprach- und Wissensverarbeitung

Die Forschung im Bereich der Sprach- und Wissensverarbeitung gliedert sich in drei Profillinien:

 

Knowledge Discovery and Big Text-Data Analytics beschäftigt sich mit Verfahren der Wissensentdeckung, die auf große Datenmengen skalierbar sind, sowie mit Verfahren des Text-Mining. Dabei werden in der Regel unstrukturierte Daten automatisiert aufbereitet, so dass inhärente Strukturen sicht- und nutzbar werden. Beispielsweise können grammatikalische Muster in langen Texten etwas über die Textsorte verraten.

Text-Data Analytics arbeitet vielfach mit Methoden der überwachten Textklassifikation, bei denen relevante Informationen (zum Beispiel die Verteilung von Wortarten in einem Satz) extrahiert werden, um Dokumente oder Teile von Dokumenten nach inhaltlichen Merkmalen (beispielsweise der Textsorte) zu klassifizieren. Mittels der extrahierten Informationen kann aus vorklassifizierten Daten ein Modell gelernt werden, das weitere Dokumente vollautomatisch klassifiziert. Neben überwachten Verfahren kommen auch halbüberwachte oder unüberwachte Methoden (also solche, bei denen der Klassifikationsraum nicht vorgegeben ist) zum Einsatz. Beispielhafte Anwendungsgebiete sind soziale Netze im Web oder Digitale Bibliotheken.

Adaptive Language Processing erforscht adaptive Verfahren der Informationsaufbereitung, die sich an verschiedene Genres, Domänen, Nutzergruppen und Sprachen anpassen. Eine flexible Aufbereitung, Verarbeitung und Darstellung von sprachlichen Daten spielt in vielen Bereichen eine Rolle, einerseits, weil sprachlicher Input äußerst heterogen sein kann (zum Beispiel unterschiedliche Sprachregister im Web), und andererseits, weil die Konsumenten sprachlichen Outputs unterschiedliche Anforderungen und Voraussetzungen mitbringen (zum Beispiel benötigt ein Sprachlerner anderes automatisiertes Feedback als ein Journalist). Auch sprachübergreifende bzw. -unabhängige Verarbeitung von sprachlichen Signalen ist in einer globalisierten Welt von immer höherer Bedeutung.

Digital Humanities Algorithmics beinhaltet neuartige algorithmische Verfahren zur Analyse textueller Quellen, die in end-to-end Web-basierte Systeme für geistes- und sozialwissenschaftliche Nutzer umgesetzt werden, um neue Forschungsfragen zu beantworten. Da Daten aus geistes- und sozialwissenschaftlichen Domänen im Gegensatz zu Daten aus dem Web häufig einen geringen Umfang haben, erfordert deren automatisierte Verarbeitung innovative und robuste Verfahren. Zusätzlich muss für die Experten die Möglichkeit gegeben sein, in die automatisierten Prozesse einzugreifen (interaktiv), um bspw. explorativ durch geeignete Visualisierung neue Muster zu entdecken. Außerdem können intelligente Verfahren durch die Interaktion mit dem Experten lernen, ebenso wie der Experte ein besseres Verständnis über das automatisierte System erlangen kann.

Dekanat

TU Darmstadt
S2|02 Piloty-Gebäude, Raum D103
Hochschulstraße 10
64289 Darmstadt

dekanat(a-t)informatik.tu-darmstadt.de

A A A | Drucken Drucken | Impressum Impressum | Sitemap Sitemap | Suche Suche | Kontakt Kontakt | Webseitenanalyse: Mehr Informationen
zum Seitenanfangzum Seitenanfang