Gibt es ein richtiges Spielen im falschen?


Von vielen werden Computerspiele noch immer nicht ernst genommen. Dabei sind sie mittlerweile ein milliardenschweres Geschäft. Und während PC und Playstation zu Spielplätzen von Kunst und Philosophie avancieren, durchdringt die Gamifizierung unseren Alltag.

Von Dominik Erhard
Bild: © CC BY-SA 1.0 publicdomainpictures.ned



Dominik Erhard

studierte Germanistik und Philosophie an der Ludwig-Maximilians-Universität München und stieß im August diesen Jahres als Redakteur zum Team des Philosophie Magazins. Seine Schwerpunkte sind Strukturalismus und philosophische Einflüsse in literarischen Werken.

Bild: © SRF

Es beginnt mit einer Katastrophe. Flugzeugabsturz über dem Atlantik. Vorbei an brennenden Wrackteilen rettet man sich als einziger Überlebender in einen verlassenen Leuchtturm, an dessen Eingang ein Banner mit der Aufschrift prangt: „Keine Götter oder Könige, nur Menschen!“ Das Spiel, das mit gedämpftem Summen in der Konsole rotiert, heißt „BioShock“. Wo ist man hier nur hineingeraten? Doch keine Zeit für Fragen, denn mittels einer Tauchkugel geht es direkt weiter nach Rapture, einer Unterwasserstadt im Stil des Art déco.

Es ist kein Zufall, dass der Name des fiktiven Gründers von Rapture, Andrew Ryan, der die Stadt als urbane Utopie entwarf, wie jener der berühmt-berüchtigten Vordenkerin des Libertarismus Ayn Rand klingt. Deren philosophischer Roman „Der ewige Quell“, so verriet einer der leitenden Entwickler, stellte eine wichtige Inspiration für „BioShock“ dar. Das zeigt sich besonders an der Unterwasserstadt Rapture. Ein radikal deregulierter Kapitalismus, so wie ihn Ayn Rand stets predigte, sollte die Metropole zu Wohlstand und Freiheit führen. Doch das Gegenteil geschah. Tritt der Spieler aus der Tauchkugel, sieht er Elend und Verfall. Gebäude sind heruntergekommen, die Bewohner von genveränderten Substanzen deformiert.


Was als kleine philosophische Anspielung beginnt, mündet bald in ein moralisches Dilemma erster Güte. Man trifft auf die „Little Sisters“, zombieartige Mädchen mit leeren Augen, die die Unterwasserstadt nach ADAM, einem Rohstoff für Genveränderungen, absuchen. Hat man deren monströse Beschützer, die „Big Daddys“, im zähen Kampf besiegt, steht man vor der Frage, ob man die schutzlosen Kreaturen nun töten oder verschonen soll. Entscheidet man sich für Ersteres, sackt man das von ihnen gesammelte ADAM ein und optimiert die eigenen Lebenskräfte. Lässt man von ihnen ab, wird einem hingegen von der Off-Stimme versichert, das moralisch Richtige getan zu haben.

Was also tun in dieser postapokalyptischen Welt? Sind die eigenen Kräfte, die womöglich noch zur Errettung vieler anderer Leben gebraucht werden, wichtiger als die prekäre Existenz eines Monsters in Mädchengestalt? Können moralische Grundimpulse die spielinterne Logik des Tötens überwinden? Liegt die Pointe letztlich vielleicht sogar darin, dass man durch das Morden de facto selbst zum Monster wird?

Computerspiele zählen heute zu den beliebtesten Freizeitbeschäftigungen unserer Zeit. Knapp 47 Prozent der deutschen Jugendlichen spielen jeden oder fast jeden Tag, wobei der digitale Spieltrieb im Erwachsenenalter keineswegs nachlässt. Das Durchschnittsalter der hierzulande rund 34 Millionen Menschen, die regelmäßig auf PC, Konsole, Tablet oder Smartphone zocken, beträgt 35 Jahre. Dass die mit über 350 000 Besuchern größte Computerspielmesse der Welt, die Gamescom in Köln, jüngst von Bundeskanzlerin Angela Merkel eröffnet wurde, zeigt zudem, dass die Spieleindustrie mit ihren doch 11 000 Beschäftigten mittlerweile auch politisch ernst genommen wird. Vor diesem Hintergrund scheint es denn auch wenig verwunderlich, dass Computerspiele à la „BioShock“ intellektuell immer anspruchsvoller werden. Denn grundsätzlich ist es zwar keineswegs neu, dass diese implizit auch ethische Fragen aufwerfen. Man denke etwa an die 1997 gestartete Spielreihe „Grand Theft Auto“, in der man in die Rolle eines Auftragskriminellen schlüpft, welche einen immer wieder vor moralische Dilemmata stellt. Darüber hinaus ist in den letzten Jahren zu beobachten, dass Gamedesigner immer häufiger explizit philosophische Ansätze nutzen. In dem vom Künstler David O’Reilley entwickelten Spiel „Everything“, wo man von der atomaren Ebene bis zur sphärischen Totalansicht zoomen kann, wird etwa die Phänomenologie praktisch erfahrbar. In dem von Davey Wreden entwickelten „Stanley Parable“ ist man wiederum mit der Frage nach der Existenz des freien Willens konfrontiert. Als Angestellter, der sich eines Morgens im völlig verwaisten Großraumbüro wiederfindet, macht man sich auf, das Mysterium um die eigene Einsamkeit zu ergründen. Der Clou dabei: Der Off-Stimme, die beispielsweise Anweisungen gibt, durch welche Tür man gehen soll, muss man nicht gehorchen. Ganz gleich wie man sich entscheidet, ob man den Instruktionen folgt oder die Revolte wagt, das Spiel hält immer entsprechende Optionen bereit.

Avancieren PC und Playstation also buchstäblich zu Spielplätzen praktischer Philosophie? Werden sie im 21. Jahrhundert vielleicht sogar zu jenem veritablen Bildungsmedium, das der Roman für das 19. und der Film für das 20. Jahrhundert war? Oder wäre es am Ende doch genau andersherum? Sind Computerspiele und der mit ihnen verbundene Trend zur Gamifizierung des Alltags vielmehr das Ende des freien Spiels und der selbstbestimmten Reifung?

Werden Compterspiele zu dem Bildungsmedium, das der Roman für das 19. und der Film für das 20. Jahrhundert war?


 
Lob des reinen Tuns

Vielleicht muss man diese Frage grundlegender angehen. Historisch gesehen war die These vom Bildungswert des Spielens stets Konjunkturen unterworfen. Galt es im Mittelalter meist nur als kindisches Treiben, erfuhr es im Zuge der Aufklärung, etwa durch Friedrich Schillers Abhandlung „Über die ästhetische Erziehung des Menschen“, eine Aufwertung zur unverzichtbaren Voraussetzung der freien Persönlichkeitsentwicklung. Heißt es in Schillers Sentenz: Der „Mensch spielt nur, wo er in voller Bedeutung des Worts Mensch ist, und er ist nur da ganz Mensch, wo er spielt“, galt das Spiel nun als integraler Bestandteil des humanistischen Bildungsgedankens.

Der Kulturhistoriker Johan Huizinga ging sogar noch einen Schritt weiter. In seinem Werk „Homo ludens“ von 1938 begreift er das Spiel als Quelle von Kreativität und Flexibilität, Selbstständigkeit und Selbstvertrauen. Denn das Individuum entwickle seine Eigenschaften vor allem aus der Freude an dem reinen Tun, das sich selbst belohnt und keiner Außenbestätigung bedarf. „Der Mensch“, so Huizinga, „braucht das Spiel als elementare Form der Sinn-Findung.“

Bezog sich dieses Lob des Spielens auf Sport-, Brett- oder Gedankenspiele, auf Literatur und Kunst, lässt es sich heute auch auf die neuen digitalen Formen anwenden. Zumal Computerspiele im Gegensatz zu linearen Medien über das Merkmal der Interaktivität verfügen. Mögen sie in erzählerischer Hinsicht zwar noch nicht mit Flauberts „L’Éducation sentimentale“ oder Goethes „Wahlverwandtschaften“ mithalten, so werden sie doch narrativ immer komplexer. Dennoch: Computerspiele haben nach wie vor ein Imageproblem.

Jeffrey Wimmer, Professor für Kommunikationswissenschaften mit dem Schwerpunkt Medienrealität an der Universität Augsburg, erklärt im Gespräch, dass es das Los aller neuen Medien sei, sich zunächst mit einer gewissen Randständigkeit begnügen zu müssen. Es brauche Zeit, bis sich das Neue behaupten könne. „Im Gegensatz zu Filmen und dem Theater, die längst etabliert sind, muss sich das Computerspiel seinen gesellschaftlichen Stellenwert erst erkämpfen“, meint Wimmer. Man könne die Phase, in der sich Computerspiele befänden, gut mit den Anfängen der Oper vergleichen, die zunächst als seichtes Unterhaltungsmedium galt. Stück für Stück sei ihr jedoch mehr Aufmerksamkeit zuteilgeworden, bis sie schließlich in die Hochkultur einwanderte.

Damit Computerspiele eine ähnliche Karriere hinlegen, reiche es jedoch nicht aus, diese einfach, wie im Jahr 2008 durch den Deutschen Kulturrat geschehen, zum Kulturgut zu erklären. Laut Wimmer müsse man noch mehr politische Initiativen zur Förderung besserer Inhalte ins Leben rufen. Die Entwicklung des Mediums dürfe nicht nur dem marktwirtschaftlichen Kalkül der großen Spieleentwickler überlassen werden. „Diese großen Konzerne achten im übertragenen Sinne nicht auf Vitamine und Fair Trade“, konstatiert Wimmer. „Im Moment ist das einfach eine riesige Fast-Food-Industrie. Es gibt gute Sachen, die spielen aber leider nur sehr wenige, weil die große Masse lediglich den Müll sieht, der auf schnellen Profit und kurze Lebenszeiten aus ist.“

Zumal Computerspiele gerade auf Kinder, die über reguläre Lernmaßnahmen nur schwer zu erreichen sind, einen besonders positiven Einf luss ausüben können, da sie politische und ethische Fragestellungen auf informelle Weise aufwerfen und so einen spielerischen Ref lexionsprozess initiieren. „Computerspiele können echte Lernmaschinen sein“, sagt der Kommunikationswissenschaftler. „Gerade wenn ich nicht merke, dass ich lerne, ist der Lerneffekt besonders groß.“

Ob sich tatsächlich ein erkenntnistheoretischer Mehrwert einstellt, liegt aber zunächst an der Qualität des Spiels. Denn es stimmt natürlich: So wie auch nur ein kleiner Prozentsatz von Romanen oder Filmen über bloße Unterhaltung hinausgeht, gibt es auch unzählige Computerspiele, die lediglich der kurzweiligen, mitunter auch dumpfen Zerstreuung dienen. Dass es aber selbst im Bereich der Mobile Games, also der Spiele, die man auf dem Smartphone spielt, anders geht, zeigt beispielsweise „Brothers: A Tale of Two Sons“. Das Besondere an dem Smartphone-Spiel: Mit seinen beiden Daumen steuert man jeweils einen der zwei Brüder und navigiert diese so durch verschiedenste Hindernisse und Rätsel. Wenn gegen Ende des Spiels einer der beiden Brüder stirbt, geschieht etwas Faszinierendes. Der Verlust wird nicht nur über die Geschichte vermittelt, sondern überträgt sich auf den Körper des Spielers, da ein Daumen nun plötzlich ohne Funktion bleibt. Wo man zuvor alle Hürden nur im geschickten Zusammenspiel der beiden Geschwister – sprich: der beiden Daumen – meistern konnte, fehlt plötzlich etwas, diesseits und jenseits des Bildschirms. Das Spiel schreibt sich buchstäblich in den Leib des Spielers ein.

Chronik des Computerspiels


entwirft der Physiker Willy Higinbotham einen der frühen Vorläufer moderner Computerspiele auf einem Oszilloskop
beginnt Atari seinen Videospielautomaten „Pong“ an öffentlichen Orten aufzustellen, sodass „Daddeln“ zum Massenphänomen wird
erscheint das Spiel „Space Invaders“, das durch sein innovatives Gameplay prägend für die Entwicklung vieler Titel sein wird
wird der „Game Boy“ erstmals ausgeliefert und lockt mit dem Versprechen, von nun an immer und überall spielen zu können
erscheint mit „World of Warcraft“ eines der bedeutendsten Computerspiele überhaupt. 2010 lag die Spielerzahl bei zwölf Millionen
 
Was auf dem Spiel steht

Angesichts der Verschiedenheit von Spielen wie „Brothers“ und „BioShock“ wird aber auch deutlich, über welch großes Spektrum man spricht, wenn man über Computerspiele redet. Läge es einem bei einer Diskussion über Literatur extrem fern, verschiedene Subgenres miteinander zu vergleichen (ein Gedicht mit einem Roman beispielsweise), stellt man eine derartige Irritation im Hinblick auf Computerspiele nur selten fest. Daniel Martin Feige, der als Professor für Philosophie und Ästhetik an der staatlichen Akademie der bildenden Künste in Stuttgart lehrt und 2015 mit seinem Buch „Computerspiele. Eine Ästhetik“ ein viel rezipiertes Werk der Game Studies vorlegte, meint dagegen: „Wenn man über das Wesen des Computerspiels nachdenkt, muss man zunächst einmal festhalten, dass man es bei der Frage nach der Definition einer jeglichen Kunstform mit einem grundlegenden Problem der Ästhetik zu tun hat, da die meisten Theorien einer Kunst Theorien einer besonderen Art von Werken einer Kunst sind.“ Konkreter gesagt: Man könne eben nicht sinnvoll über „die Musik“ in toto sprechen, aber durchaus mit Gewinn über „den Jazz“ diskutieren.

Viele Versuche, ein adäquates Verständnis von Computerspielen zu entwickeln, kranken deshalb daran, dass sie, hegelianisch gesprochen, mit einem problematischen Begriff des Begriffs arbeiten. „Der Begriff, mit dem viele das Phänomen Videospiele zu fassen versuchen“, so Feige, „kann nicht angemessen denken, dass sich das Medium in ständigem Wandel befindet.“Computerspiele sind heute etwas grundlegend anderes, als sie es noch vor fünf oder zehn Jahren waren – und in Zukunft sein werden. Es gilt also, die Veränderbarkeit des Mediums stets mitzudenken.

Das ist nicht zuletzt deshalb erforderlich, weil Computerspiele auch zunehmend einen künstlerischen Anspruch hegen, indem sie auf das setzen, was Feige „Sich-selbst-Durchspielen“ nennt. „Wenn Computerspiele etwas mit Kunst zu tun haben“, führt der Philosoph aus, „dann muss es daran liegen, dass in und durch den Prozess des Spielens letztlich eine Thematisierung des Spielers selbst stattfindet. Das Spielgeschehen erbringt in diesem Fall eine Reflexionsleistung, hinterfragt seine eigene Form als Spiel und lässt den Spieler sich selbst als solchen erkennen.“ Wie bei „Brothers“ entsteht eine Art performative Transformation, die sich weniger durch das Vermitteln von Inhalten als durch eine Konfrontation mit dem eigenen Selbst auszeichnet. Man erkennt sich also als Spieler, indem sich das Spiel selbst zum Gegenstand macht.

Gleichzeitig gibt es jedoch auch einen Trend, bei dem genau das Gegenteil passiert, das Spiel also nicht zur Selbstreflexion führt, sondern einen durch und durch instrumentellen Charakter annimmt. Die Rede ist von der sogenannten „Gamifizierung“. Das heißt: Computerspiele oder Elemente, die ursprünglich diesen entstammen, werden in spielfremden Kontexten eingesetzt, um die dort anfallenden Aufgaben zu erleichtern. Das nutzen vor allem Firmen, um bestimmte Prozesse zu optimieren. Zu den Wegbereitern unternehmerisch eingesetzter Gamifizierung gehört beispielsweise der Softwarekonzern SAP, der bereits 2011 ein digitales Golfspiel in die Arbeitsabläufe integrierte. Dabei wurden Kundenwünsche als virtueller Ball zum zuständigen Mitarbeiter geputtet, was die Bearbeitungsgeschwindigkeit erhöhen sollte.

Competition und Kapitalismus

Das Ziel gamifizierter Anwendungen besteht generell darin, Mitarbeiter und Kunden in einen Flowzustand höchster Konzentration zu versetzen, wie ihn Computerspieler oft stundenlang erleben. Aufgaben sollen so leichter von der Hand gehen und im Idealfall gar nicht erst als solche wahrgenommen werden. Dabei dienen Highscores, Ranglisten und virtuelle Auszeichnungen als zusätzliche Motivation für die „Spieler“, um bestimmte Unternehmensziele zu erreichen. Andererseits darf man auch die konkurrenzfördernde Wirkung derartiger Anwendungen nicht aus dem Blick verlieren, da das Handeln der „Spieler“ nun noch besser erfasst, bewertet und verglichen werden kann. Wer Mitarbeiter des Monats wird, lässt sich so leicht aus den gesammelten Punkten für beantwortete E-Mails, pro Monat gelaufener Schritte und an Land gezogener Aufträge ermitteln.

Indem sich das Spiel selbst zum Gegenstand macht, ist auch der Spieler mit dem eigenen Selbst konfrontiert


 

Mathias Fuchs, Professor für Medientheorie an der Leuphana Universität in Lüneburg, beobachtet diese Entwicklung bereits seit längerem. Mittlerweile sei es schwierig, „einfach nur einen Flug zu buchen, ohne irgendwelche obskuren Angebote zu erhalten“. Und es stimmt: Wer darauf achtet, merkt schnell, dass schon ein Einkauf im Supermarkt kaum noch ohne Treuepunkte, Sammelsticker oder andere Spielelemente zu bewerkstelligen ist. „Wenn das Spiel jedoch der Normalzustand ist“, sagt Fuchs, „kann man nicht mehr frei wählen, ob man überhaupt teilnehmen möchte, was wiederum den Charakter des Spiels an sich unterläuft und es zu einem dogmatischen Unterfangen macht.“

Die Grundidee der Gamifizierung mag zwar gut klingen, meint der Medientheoretiker, das Problem sei jedoch: „Wenn wir beispielsweise die Rettung der Ozeane als ein Spiel begreifen, so könnte man vielleicht im ersten Moment mehr Menschen dazu bewegen, schonender mit Ressourcen umzugehen. Im Gegenzug kommt einem so aber auch die Ernsthaftigkeit des Unterfangens abhanden. Dass eine Sache gelingt, ist in Spielen zwar eine Option, aber keine Notwendigkeit.“ Es ist die von Mary Poppins besungene Maxime „In every job that must be done / There is an element of fun“, die Fuchs Sorgen bereitet. Viele Dinge auf der Welt eignen sich einfach nicht für die Struktur eines Spiels und sollten deshalb ganz nüchtern und seriös betrieben werden.

Philipp Reinartz, der als Gamedesigner bei der Firma Pfeffermind arbeitet, die für Unternehmen Projekte im Rahmen der Gamifizierung plant und umsetzt, sieht das anders. „Wenn ich heute so zurückdenke“, sagt er, „dann habe ich eigentlich schon in der Schule angefangen, Dinge zu gamifizieren. Machte ich eine Aufgabe ungern, dachte ich mir ein Spiel dazu aus und plötzlich ging es leichter. Heute denke ich mir eben für andere Geschichten aus und sehe nicht, wieso das schlecht sein sollte.“ Natürlich könne man Gamifizierung ausnutzen, um Menschen zu manipulieren, aber deswegen dürfe man diese nicht verdammen. Mit einem f lammend geschriebenen Pamphlet könne man schließlich auch einen Krieg heraufbeschwören, dennoch würde ja niemand die Sprache dafür verantwortlich machen. „Man könnte also sagen“, so Reinartz: „Don’t hate the game, hate the player. Man muss aufpassen, für wen man arbeitet, aber ich kann nur sagen: Bei den Projekten, die ich bisher gemacht habe, ging es immer darum, dass den Menschen zu erledigende, aber schlichtweg lästige Aufgaben etwas leichter von der Hand gehen.“

Das Summen der Konsole verstummt. „BioShock“ endet mit einer Katastrophe. Einer Katastrophe für das Selbstverständnis des Spielers. Als man erfährt, dass man in Wahrheit nie mit einem Flugzeug abgestürzt, sondern in Rapture geboren wurde, und Andrew Ryan der eigene Vater ist, wird einem klar, dass man laut der spielinternen Logik nie aus freien Stücken handelte, sondern darauf programmiert war, immer dann zu gehorchen, wenn die Stimme am anderen Ende des Funkgeräts „Wärst du so freundlich …“ sagte. Was diese Einsicht so frappierend macht, ist in erster Linie nicht, zu erkennen, dass sich einem in diesen Momenten der Entscheidung keine anderen Möglichkeiten boten, sondern dass man nicht einmal in Betracht zog, dass es solche überhaupt geben könnte. Wähnte man sich die ganze Zeit als selbstbestimmter Retter der post- apokalyptischen Welt, entpuppt man sich nun als eine Art ferngesteuerte Marionette, die nicht erkannte, auf welcher Seite sie stand. Man war nie außerhalb der Unterwasserstadt, war nie anders als die genmodifizierten Wesen, war, ohne es zu merken, immer ein Teil all dessen. Es gibt kein richtiges Spielen im falschen.

So lässt sich die Story von „BioShock“ denn auch als Parabel auf den derzeitigen Diskurs des digitalen Spielens lesen. Taucht man hier in ein Universum voller philosophischer Fragen ein, zeigt das einerseits, dass Computerspiele es in puncto Komplexität und Anspruch locker mit Romanen oder Filmen aufnehmen können. Andererseits verweist die Pointe des Spiels aber en passant auch auf die möglichen Folgen der zunehmenden Gamifizierung: auf Spiele, deren Regeln wir nicht kennen; Spiele, bei denen unklar bleibt, in wessen Team man sich eigentlich befindet. Spiele, die andere für uns entworfen haben. Zu ihren Zwecken, nicht unseren.

Welche Rolle Videogames also zukünftig einnehmen werden, ob sie zu raffinierten Kunstwerken avancieren oder zur bloßen Optimierung von Betriebsabläufen dienen; ob sie zur Selbstref lexion auffordern oder als unbewusster Arbeitsanreiz fungieren, zumindest eine zentrale Erkenntnis nimmt man in die Realität mit: Computerspiele sind ein intellektuell ernst zu nehmendes Medium. •

Dieser Beitrag wurde in der Ausgabe Nr. 6 / 2017 veröffentlicht.