Künstliche Intelligenz erstellt endlose Super-Mario-Level

Text-to-Level: "MarioGPT" generiert nach Textanweisung endlos Super-Mario-Level

Eine Forschergruppe hat eine KI namens "MarioGPT" entwickelt die mithilfe des Textgenerators GPT-2 unendlich viele Level für Super-Mario-Spiele generieren kann. Die Level wurden in Form von ASCII-Kunst umgewandelt und dienen als Trainingsmaterial für die KI. Durch Eingabe von Textanweisungen ("Prompt") kann MarioGPT nun neue Level erstellen die jedoch noch nicht perfekt sind. Dennoch ist dies ein wichtiger Schritt in Richtung auf eine kontrollierte Generierung abwechslungsreicher Level für Videospiele. Die Software ist kostenlos herunterladbar.



Noch weitergehende Pläne


Wie die Gruppe von der IT-Universität Kopenhagen in einem Forschungsartikel erläutert, handelt es sich zwar bei weitem nicht um die ersten prozedurale Generierung von Videospielinhalten, "MarioGPT" sei aber der erste Text-zu-Level-Generator. Dafür haben sie die zweidimensionalen Spielewelten des Kultklassikers in eine Aneinanderreihung von Symbolen umgerechnet. Blöcke entsprechen etwa die Buchstaben "X" und "S", je nachdem ob zerbrechbar oder nicht, ein Gegner wird als "E" dargestellt. Lässt man sich das ausgeben, erinnert das an ASCII-Kunst, das Level ist leicht zu erkennen. Nach dem Training mit den originalen Levelkarten sei "MarioGPT" in der Lage auf Textbefehle hin eigene Level zu erstellen.


Aufgeführte Beispiele sehen tatsächlich aus wie echte Level. Die abgedruckten "Prompts" die angeblich als Basis ausgereicht haben, heißen etwa "viele Röhren, viele Gegner, wenige Blöcke, niedrige Anstiege" oder "keine Röhren, keine Gegner, viele Blöcke". "MarioGPT" gibt außerdem einen Weg aus, auf dem das Level für die Spielfigur zu schaffen sein soll. Die Überprüfung habe ergeben, dass weiterhin als 88 % der so generierten Level tatsächlich spielbar gewesen seien. Beeinflussen lässt sich demnach auch ebenso wie schwierig die sind und wie stark sie vom Trainingsmaterial abweichen. Als Nächstes will das Team umsetzen, dass der Algorithmus von menschlichem Feedback lernen kann. Damit könnten die so erschaffenen Level dauerhaft verbessert werden.


GPT-2 (Generative Pretrained Transformer 2) ist eine KI des US-Unternehmens OpenAI und ein Vorgänger unter anderem von ChatGPT. Die Technik wurde eigentlich dazu entwickelt englischsprachige Texte automatisch zu vervollständigen. Dass sich das ebenfalls für ganz andere Zwecke ausnutzen lässt, zeigt jetzt die Arbeit der Forschungsgruppe um Shyam Sudhakaran. Deren Code steht auf Github zum Download und soll in Zukunft ergänzt werden. So soll auch das Trainingsmaterial erweitert werden. Bislang ist etwa nur ein Gegnertyp möglich, auch Wasser kann "MarioGPT" noch nicht einbauen.






Kommentare


Anzeige