Wenige Minuten nach dem explosiven Finale der siebten Staffel von Game of Thrones erlebten die Fans der Fantasy-Saga eine herbe Enttäuschung. Denn HBO gab bekannt, dass die finale Staffel der Serie erst im Frühjahr 2019 ausgestrahlt werden soll.
Dabei müsste die GoT-Gemeinschaft Kummer eigentlich gewohnt sein, denn George R. R. Martin, auf dessen Büchern die Fernsehserie beruht, ist berühmt berüchtigt dafür, seine Leser auf die Folter zu spannen. So warten Fans inzwischen seit sechs Jahren sehnsüchtig auf die Fortsetzung des fünften Buches, A Dance with Dragons (die deutschsprachige Ausgabe, Drachenreigen, erschien 2012). Doch bisher ist noch kein Veröffentlichungsdatum für das sechste Buch, The Winds of Winter, in Sicht. In Ermangelung einer Buchvorlage sahen sich die Produzenten der TV-Serie sogar gezwungen, die Handlung seit den letzten Folgen der sechsten Staffel selbst weiterzuspinnen. Dafür hat Martin ihnen das Schicksal der Hauptcharaktere verraten und berät sie bei den Drehbüchern.
Videos by VICE
Folgt Motherboard auf Facebook, Instagram, Snapchat und Twitter
Auch Zack Thoutt wollte nicht länger auf eine offizielle Fortsetzung warten. Da er nicht nur großer Game of Thrones-Fan, sondern auch Software-Entwickler ist, hat er sich eine technische Lösung ausgedacht, um die unerträgliche Wartezeit zu überbrücken: Er hat kurzerhand ein Neuronales Netz trainiert, das die Ereignisse des unvollendeten sechsten Buches vorhersagen soll.
Lest hier das erste Kapitel, das die KI auf Englisch geschrieben hat:
Wie die KI funktioniert, die Autoren den Rang ablaufen könnte
Künstliche Rekurrente Neuronale Netze (RNN) sind Lern-Algorithmen, die dem menschlichen Gehirn nachempfunden sind und aus ihren Fehlern lernen können. Damit die Ergebnisse beim Maschinellen Lernen optimiert werden können, muss der menschliche Lehrer wissen, welches Ergebnis er am Ende gerne erhalten möchte; das sind die Zielwerte. Das RNN gleicht dann sein Ergebnis mit den Zielwerten ab und passt sich an, um die Ziele beim nächsten Mal noch besser zu erreichen.
Thoutt nutzte für sein Projekt ein Rekurrentes Neuronales Netz mit “Long short-term Memory” (LSTM), das besonders gut für die Arbeit mit Datensequenzen oder die Spracherkennung geeignet ist. Denn das LSTM hat ein besonders gutes Gedächtnis – eine wichtige Voraussetzung, wenn man möchte, dass die KI sich die unzähligen Plot-Twists von Game of Thrones merkt. Diese optimierte Erinnerungsfunktion soll verhindern, dass das neuronale Netz Ereignisse wiederholt, die bereits geschehen sind. Denn das durch die KI generierte Buch soll ein bestehendes Werk fortsetzen und nicht die bereits veröffentlichte Handlung nacherzählen.
“Das war der allererste Satz, den die KI erstellt hat. Den fand ich richtig lustig”
Dies LSTM-Technologie befindet sich allerdings noch in den Kinderschuhen. So schreibt Thoutts KI beispielsweise manchmal über Charaktere, die schon lange tot sind. “Das Modell versucht, ein komplett neues Buch zu erstellen, aber es macht trotzdem viele Fehler”, erklärt Thoutt. “Um einen perfekten Text-Generator zu trainieren, der komplexe Handlungsstränge über Millionen Wörter behalten kann, haben wir noch keine fertig entwickelte Technologie.” Allerdings glaubt Thoutt, dass eine perfekte Text-KI für Buchautoren eine echte Konkurrenz darstellen könnte.
Ein Stichwort pro Kapitel – mehr braucht die KI nicht
Um die fünf Kapitel zu generieren, die Thoutt auf GitHub veröffentlicht hat, speiste er den Text der ersten fünf Bücher in sein Neuronales Netz ein.
“Bevor die KI ein neues Kapitel erstellt, gebe ich ein Stichwort vor und sage, wieviele Wörter es generieren soll”, beschreibt Thoutt den Vorgang. “Da in den Büchern jedes Kapitel aus der Perspektive einer bestimmten Figur geschrieben ist, wollte ich das beibehalten. Deswegen gab ich der KI immer den Namen einer Hauptfigur als Stichwort vor. Abgesehen von diesem ersten Stichwort, habe ich die Arbeit des Netzes nicht beeinflusst oder überarbeitet.”
Auch auf VICE: Das mystische Universum von ‘Magic: The Gathering’
Herausgekommen sind fünf Kapitel mit mehr oder weniger sinnvollen Sätzen. Auch wenn sich George R. R. Martin vermutlich in nächster Zeit keine stilistischen Tipps von Thoutts KI holen wird, so hat sie doch ein paar interessante Wendungen in der Handlung in petto, die dem Fantasy-Altmeister durchaus würdig sind.
Lustige erste Worte und viele Verschwörungstheorien
Beispielsweise sagt das Neuronale Netz voraus, dass Sansa Stark in Wahrheit aus dem Hause Baratheon stammt und somit eine ganz neue Gefahr im Machtkampf um die Herrschaft über die sieben Königreiche darstellt:
“I feared Master Sansa, Ser,” Ser Jaime reminded her. “She Baratheon is one of the crossing. The second sons of your onion concubine.”
“Das war der allererste Satz, den die KI erstellt hat. Den fand ich richtig lustig”, meint Thoutt. In der Buchreihe sind die “Second Sons” eine Söldnertruppe, die der Drachenkönigin Daenerys Targaryen ihre Treue geschworen haben. Wen oder was die KI mit der “Zwiebel-Konkubine” meint, werden wir wohl erst in einem späteren Kapitel erfahren.
Das Neuronale Netz hat sich sogar eine ganz neue Figur namens Greenbeard ausgedacht:
“Aye, Pate.” the tall man raised a sword and beckoned him back and pushed the big steel throne to where the girl came forward. Greenbeard was waiting toward the gates, big blind bearded pimple with his fallen body scraped his finger from a ring of white apple. It was half-buried mad on honey of a dried brain, of two rangers, a heavy frey.
“Ganz offensichtlich ist das System noch nicht perfekt. Aber es bringt sich die englische Sprache und den Stil von George R. R. Martin ganz selbstständig bei”, erklärt Thoutt.
Auch erscheinen nicht alle Prognosen des KI-Plots völlig abwegig, wenn man sich ein wenig im GoT-Universum auskennt. Beispielsweise sagt das Neuronale Netz voraus, dass Jaime Lannister am Ende seine Schwester und Geliebte Cersei tötet, dass Jon Snow auf einem Drachen reitet und dass der Berater Varys Daenerys vergiftet. All das sind Theorien, die tatsächlich von Fans der Reihe diskutiert werden.
“Das beweist meiner Meinung nach nur, dass in Game of Thrones wirklich alles passieren kann”, meint Thoutt. “Ich habe das Netzwerk nicht mit Informationen von Fanseiten gefüttert, nur mit den Büchern.”
Viele Adjektive und Eigennamen – Schwere Kost für die KI
Da Martins Bücher 32.000 individuelle Wörter enthalten, war das Training der KI besonders schwierig, erklärt Thoutt. “Martins Schreibstil ist sehr deskriptiv und die ganzen zusätzlichen Adjektive und die fiktiven Orte und Titel machen es dem Netzwerk noch schwerer”, erklärt Thoutt.
Hinzu kommt, dass die etwas mehr als 5.000 Seiten der fünf Bücher nur ein vergleichsweise kleiner Datensatz sind, um ein RNN zu trainieren. Eine perfekte Trainingsgrundlage wäre laut Thoutt ein Text, der zwar 100 Mal so lang wie Game of Thrones wäre, dafür aber den Wortschatz eines Kinderbuches verwendet.
Bis die finale Staffel der TV-Serie 2019 startet, werden computergenerierte Geschichten aus Westeros vielleicht das einzige verfügbare GoT-Material bleiben. Wer weiß, vielleicht taucht Greenbeard ja zu Beginn der achten Staffel mit seiner Zwiebel-Konkubine auf und erobert den Eisernen Thron im Sturm.