Schach besser meistern mittels AlphaVile

Die Doktoranden Johannes Czech und Jannis Blüml forschen zu Künstlicher Intelligenz (KI) und Schach

21.10.2024 von

Johannes Czech und Jannis Blüml arbeiten am Artificial Intelligence and Machine Learning Lab (AIML Lab) der TU Darmstadt. Zusammen mit Professor Kristian Kersting, Leiter des AIML-Labors und Hedinn Steingrimsson, Wissenschaftler mit dem Schwerpunkt KI-Zuverlässigkeit an der Rice University in Houston Texas und Safe System 2, veröffentlichten sie im August eine Forschungsarbeit zu Künstlicher Intelligenz (KI) in Verbindung mit Schach. Diese Woche stellen sie ihre Veröffentlichung auf der ECAI, einer der wichtigsten europäischen Konferenzen für KI-Forschung, in Santiago de Compostela vor.

Schachspiel gegen gegen CrazyAra BOT am Schachdemonstrator

Johannes Czech forscht vor allem zu Möglichkeiten der Verbesserung von AlphaZero, einem selbstlernenden Computerprogramm, welches Schach, Go und Shogi spielt. Jannis Blüml beschäftigt sich mit der Fragestellung, wie sich Informationen optimal repräsentieren lassen. In ihrem aktuellen Fachpapier mit dem Titel „Representation Matters for Mastering Chess: Improved Feature Representation in AlphaZero Outperforms Switching to Transformers“ untersuchen sie, inwiefern sich die sogenannte Transformerarchitektur für AlphaZero eignet, und zwar am Beispiel Schach. Zudem evaluierten sie den Einfluss von Änderungen an der Eingabe- und Ausgaberepräsentation.

Kooperiert haben die Darmstädter mit Hedinn Steingrimsson. Seine Forschung und Expertise liegen im Bereich leistungsfähiger, zuverlässiger und vertrauenswürdiger moderner KI-Architekturen auf Basis neuronaler Netzwerke, darunter neuronale Hybridarchitekturen wie AlphaVile. Die neue AlphaVile Architektur ist ein Aushängeschild von gut gelungener Zusammenarbeit. Steingrimsson, der seit 2007 Schachgroßmeister ist, brachte seine langjährige Erfahrung im Bereich Schach auch in das Projekt ein. „Für die KI-Grundlagenforschung hat Schach einige Vorteile. Das Spiel ist einerseits kompliziert genug dafür, andererseits einfach genug, um die Spielzüge überprüfen zu können. Schach ist deterministischer Natur. Führt man im Schach einen Spielzug aus, weiß man genau was passiert“, sagt Steingrimsson.

Zusätzliche Informationen verbessern die Spielstärke signifikant

Blüml beschreibt ihre Herangehensweise so: „Will man einer KI Schach beibringen, stellt sich zum einen die Frage, wie sieht so eine KI aus, also welche neuronale Netzwerkarchitektur wendet man an. Zurzeit geht die Forschung in Richtung Transformer- und Large Language Modelle. Das sind riesige Sprachmodelle wie ChatGPT, die sehr viel Wissen haben. Zum anderen ist die Frage, welche Informationen gibt man der Architektur mit.“ Czech ergänzt: „Im Bereich Sprache werden die Transformer-Modelle häufig eingesetzt, sie lassen sich zudem sehr groß skalieren. Unsere Motivation war, auszuprobieren wie diese Modelle mit Schach funktionieren. Und da stellten wir fest, dass die klassische Transformerarchitektur erstmal nicht besser performt. Die Architektur war nicht für die Inferenz bei Schach ausgelegt, also wie schnell eine Ausgabe vom Neuronalen Netz erfolgt.“

Ihr nächster Ansatz: Effizientere Transformer-Module gemischt mit speziellen Convolutional Networks. Diese Convolutional Networks oder auch Faltungsnetzwerke, wie sie im Bereich Bildbearbeitung sehr präsent sind, werden im Schach gerne verwendet, um bestimmte Muster zu erkennen. „Wir haben daher eine Hybridlösung entwickelt, die die Vorteile von Convolutional Networks für die Musterekennung mit den Fähigkeiten von Transformern zur langfristigen Planung kombiniert“, sagt Steingrimsson. Zudem modifizierten sie die Eingaberepräsentation, um die Architektur effizienter für das Netzwerk zu gestalten.

„Es gibt bestimmte Arten von Informationen, die das Netzwerk selbstständig berechnen müsste. Also etwa zählen, wie viele Bauern hat Weiß im Moment, wie viele Bauern hat Schwarz im Moment. Dann subtrahieren und feststellen, Schwarz hat zwei Bauern mehr. Solche globalen Informationen kann man dem Netzwerk aber auch gleich mitliefern, um ihm mehr Kapazität für spätere Rechenschritte zu schaffen. Das Netzwerk muss die Information dann nicht selbstständig extrahieren“, beschreibt Czech. „Wir haben dann alle Situationen, die wir als Schachspieler wichtig finden, dem Netzwerk mitgegeben. Das sind einfach noch ein paar Nullen und Einsen mehr“, sagt Blüml. „Dabei stellten wir fest, dass dieses zusätzliche Hinzufügen von Informationen bei der Spielstärke sehr viel hilft.“

Transformerarchitekturen sind ressourcenintensiv

Johannes Czech
Johannes Czech

Die Ansicht, dass die Merkmalssuche bei einer Repräsentation im Bereich der tiefen neuronalen Netze keine Rolle mehr spielt, teilen die Wissenschaftler deshalb nicht uneingeschränkt. „Mit unserem Forschungspapier wollen wir zeigen, dass die Suche nach einer verbesserten Architektur wichtig ist. Das sogenannte Feature Engineering, also die Lehre, welche Features oder Merkmale wichtig sind und wie man diese repräsentiert, sollte keinesfalls vernachlässigt werden“, fasst Blüml zusammen. „Im Bereich Künstlicher Intelligenz sehen wir im Moment zwei Richtungen. Auf der einen Seite die riesigen Transformerarchitekturen wie ChatGPT von OpenAI und Gemini von Google, die teuer sind und sehr viel Energie benötigen. Und auf der anderen Seite Hybrid-Architekturen wie unser AlphaVile. Bei denen versucht man, die positiven Merkmale von Transformern und Convolutional Networks zu kombinieren, sodass diese leistungsfähig, recheneffizient und schnell sind“, beschreibt Steingrimsson und Blüml ergänzt: „Jede Architektur hat ihre Stärken und Schwächen, die Transformer-Modelle sind nicht das Patentrezept für alle Probleme. Es ist relevant, dass man die Architektur, aber auch die Problemdarstellung an das Problem anpasst.“

Den Wissenschaftlern ist zudem die Umweltfreundlichkeit einer KI wichtig. Nicht immer seien riesige Rechenzentren und große, verschwenderische neuronale Netze notwendig. Feature Engineering, die Aufarbeitung der Daten für die Verarbeitung, könne hierbei förderlich sein. Zudem helfe es den Menschen, eine KI-Architektur besser zu verstehen. Die Wissenschaftler begeistert die offizielle Anerkennung ihres Fachpapiers: „Wir freuen uns darauf, unsere aktuelle Forschungsarbeit auf der ECAI offiziell vorzustellen und mit dem anwesenden Fachpublikum zu diskutieren.“

Mehr Informationen

Fachpapier „Representation Matters for Mastering Chess: Improved Feature Representation in AlphaZero Outperforms Switching to Transformers“

Das AIML-Labor möchte Computer dazu bringen, so schnell und flexibel wie nur möglich so viel über die Welt zu lernen, wie Menschen dies können. Das wirft viele faszinierende, wissenschaftliche Probleme auf. Um diese zu erforschen, entwickeln die Wissenschaftler neuartige Methoden des Maschinellen Lernens (ML) und der Künstlichen Intelligenz.

Die European Conference on Artificial Intelligence (ECAI) findet vom 19. Bis 24. Oktober 2024 in Santiago de Compostela statt.

Die Safe System 2 Stiftung hat den Schwerpunkt auf dem sozialverträglichen Einsatz von KI. Sie trägt dazu bei, sicherere KI-Modelle mit System-2-Fähigkeiten zu entwickeln, einschließlich verbesserter logischer Schlussfolgerungen und langfristiger Planungsaufgaben.