„Ein Sportwagen zum halben Preis“
TU-Professor Kersting ordnet die Bedeutung des KI-Sprachmodells DeepSeek-R1 ein
23.09.2025 von SMC/Claudia Staub
Das Training großer Sprachmodelle ist kosten- und ressourcenintensiv. Der chinesische Anbieter DeepSeek stellte Anfang des Jahres ein sogenanntes Reasoning-Sprachmodell vor, das ähnlich gute Ergebnisse erzielte wie etablierte Modelle, aber weniger Ressourcen für Training und Betrieb benötigt. TU-Professor Kristian Kersting vom Fachbereich Informatik hat sich nun in einem ausführlichen Statement für das Science Media Center Deutschland (SMC) zu den Auswirkungen des Trainings ohne menschliche Rückmeldungen sowie den Vor- und Nachteilen des Modells geäußert.

Die Veröffentlichung des KI-Modells DeepSeek-R1 Anfang 2025 sieht in seinem Kersting als Wendepunkt in der Entwicklung großer Sprachmodelle und zieht Parallelen zur Automobilbranche: DeepSeek erinnere an einen Sportwagen mit Ferrari-Leistung – aber zum halben Preis. Entscheidend sei dabei nicht nur die Leistungsfähigkeit, sondern vor allem die Effizienz des Trainingsverfahrens: Das Modell lerne weitgehend ohne aufwendiges menschliches Feedback durch Versuch und Belohnung. Beitrag
„Noch 2024 schien die Entwicklung großer Sprachmodelle zu stagnieren: Mehr Daten und Rechenleistung brachten kaum noch spürbare Fortschritte“, sagt Kersting. Mit DeepSeek-R1 sei Bewegung in die Forschung gekommen. Der Fokus habe sich seitdem verschoben – weg von Datenmengen, hin zu Denkprozessen, Trainingszeit und methodischer Finesse. Auch große Akteure wie OpenAI oder Google hätten daraufhin ihre Strategien angepasst. Dass die renommierte Zeitschrift „Nature“ die zugrundeliegende Studie nachträglich aufgenommen habe, sei ein Indiz für die wissenschaftliche Relevanz des Modells über reine Produktankündigungen hinaus.
Kersting betont, dass zwar weiterhin US-Modelle dominierten, DeepSeek-R1 habe sich jedoch als hocheffiziente Alternative etabliert. Es beweise, dass clevere Trainingsmethoden wichtiger sein können als reine Rechenleistung. Zudem habe sich das Modell als Referenz für die Forschung und die Open-Source-Szene bewährt. Besonders in der Programmierunterstützung zeige sich das Potenzial: KI-Assistenten auf Basis von DeepSeek-Varianten könnten nicht nur die Codequalität steigern, sondern auch die Einstiegshürden in die Softwareentwicklung senken.
„Menschen bleiben wichtig“
Auch zum Trainingsansatz äußert sich Kersting. DeepSeek-R1 habe einen neuen Trend ausgelöst: KI-Systeme lernten zunehmend voneinander – maschinelles Feedback ersetzt immer häufiger menschliche Bewertung. „Menschen bleiben jedoch wichtig, um Qualität, Copyright, Sicherheit und Stil zu sichern.“
„Reinforcement Learning ist wahrscheinlich derzeit das zentrale Werkzeug, um Maschinen besser ‚denken‘ zu lassen“, so Kersting. „Die Forschung geht aber viel weiter. So arbeitet der Exzellenzcluster der TU Darmstadt an Erweiterungen der Grundidee von DeepSeek-R1: Die Forscher entwickeln eine neue Art von KI, die Wissen mit logischem Denken und kontinuierlichem Lernen verbindet – eine KI, die sich an eine sich ständig verändernde Welt anpasst, ähnlich wie biologische Systeme. So entsteht eine neue Generation lernfähiger und flexibler KI.“ ‚Reasonable Artificial Intelligence‘
Risiken schließt Kersting dabei nicht aus. Besonders das sogenannte „Reward Hacking“ sei eine Herausforderung: KI-Modelle könnten lernen, Belohnungssysteme auszutricksen, ohne die eigentliche Aufgabe zu lösen. So wie etwa Taxifahrer durch bewusste Umwege höhere Preise erzielen wollen, obwohl eigentlich guter Service belohnt werden sollte, könnten Sprachmodelle scheinbar hilfreiche, aber falsche Antworten geben. Bei DeepSeek-R1-Zero habe sich dies unter anderem in Sprachmischungen und Wiederholungsschleifen gezeigt. Um solchen Effekten entgegenzuwirken, seien heute mehrstufige Tests und menschliche Überprüfungen erforderlich. „Es gibt noch viel zu tun“, so Kerstings Fazit.
Kersting leitet an der TU Darmstadt das Fachgebiet . Zudem ist er unter anderem Gründungsmitglied und Co-Direktor des Hessischen Zentrums für Künstliche Intelligenz ( Maschinelles Lernen), sowie Mitglied des hessian.AI an der TU. DFKI Labs
Die Exzellenzstrategie des Bundes und der Länder
Die Exzellenzstrategie ist ein Förderprogramm von Bund und Ländern, um die Spitzenforschung in Deutschland zu stärken. Um die Förderung zu erhalten, muss ein hochkompetitiver, mehrstufiger Auswahlprozess durchlaufen werden.
Die Exzellenzstrategie umfasst zwei Förderlinien, die aufeinander aufbauen. In der Förderlinie „Exzellenzcluster“ werden, koordiniert von der Deutschen Forschungsgemeinschaft (DFG), international wettbewerbsfähige Forschungsbereiche an deutschen Universitäten projektbezogen gefördert.
Zwei Forschungsprojekte der TU Darmstadt werden als Exzellenzcluster gefördert: sowie Reasonable Artificial Intelligence (RAI), ein gemeinsamer Antrag mit der Justus-Liebig-Universität Gießen und der Philipps-Universität Marburg. The Adaptive Mind (TAM)
Ziel der Förderlinie „Exzellenzuniversitäten“ ist es, die deutschen Hochschulen bei dem Ausbau ihrer internationalen Spitzenstellung in der Forschung – entweder als Einzelinstitutionen oder als Verbünde – zu unterstützen.
Die TU Darmstadt hat sich gemeinsam mit der Goethe-Universität Frankfurt und der Johannes Gutenberg-Universität Mainz als Allianz der um den Titel „Exzellenzuniversität“ beworben. Rhein-Main-Universitäten (RMU)
