„Wir müssen der Silicon-Valley-Ideologie mit Nüchternheit begegnen“


Künstliche Intelligenz soll künftig Kriege vorhersagen, Krankheiten kurieren und unser Leben von jeglichem Mühsal befreien. Warum das illusorisch ist und wir stattdessen auf einen Digitalen Humanismus setzen sollten, erläutert der Philosoph Julian Nida-Rümelin im Interview.

Das Gespräch führte Dominik Erhard



Image

Herr Nida-Rümelin, künftig will die Bundeswehr mithilfe von künstlicher Intelligenz (KI) große Datenmengen analysieren, um Krisen und Kriege vorherzusagen. Das klingt doch gut, oder?

Zunächst einmal mag sich das toll anhören. Ich habe an dieser Stelle allerdings einen starken Ideologieverdacht. Aus meiner Sicht werden da millenarische Erlösungshoffnungen im neuen Gewand eines digitalen Neusprech aufgerufen. Wenn man allerdings in die Geschichte der Industriegesellschaft zurückblickt, stellt man fest, dass sich das schon mehrfach wiederholt hat. Neue Technologien sollten es schon oft richten. Beispielsweise gibt es von Henry Ford visionäre Texte und Vorträge in denen er meint, dass mit dem Automobil alle sozialen Probleme verschwänden und der Weltfrieden einkehren würde. Und diese Technikgläubigkeit wiederholt sich jetzt unter etwas veränderten Vorzeichen als Teil dessen, was ich etwas boshaft die „Silicon-Valley-Ideologie“ nenne.

Können Sie ausführen, was diese Silicon-Valley-Ideologie genau kennzeichnet?

Wenn man neue Technologien befördert, indem man sagt, dass Probleme, die wir nie lösen konnten jetzt lösbar werden, dann ist das oft ein ideologischer Ansatz. Im Falle der Silicon-Valley-Ideologie hat das auch viel mit einer quasireligiösen Idee zu tun, die der Gnosis sehr nahe kommt. Diese unterscheidet sich von jenen anderen Religionen, da sie die Heilversprechungen im Diesseits realisieren will. Die anti-humanistischen „politischen Religionen“ des Nationalsozialismus oder Stalinismus sind für Eric Voegelin Varianten der Gnosis. Denken Sie z.B. an ein sehr junges Beispiel: Die humane Gentechnik. Es war ein wesentlicher Treiber der Forschungsmittelakquise zu sagen, wir werden so gut wie alle Krankheiten mit der Anwendung von Gentechnik am Menschen lösen können. Ich bin ein Befürworter der Gentechnik und habe einen allzu restriktiven Umgang durch die Politik kritisiert. Aber es ist heute nicht zu leugnen: diese Erwartungen haben sich nicht realisiert. Die Ergebnisse sind bis dato ziemlich ernüchternd. Und genau das wiederholt sich im Hinblick auf die digitalen Technologien. Diejenigen, die von dieser neuen Technologie leben, setzen alle möglichen Versprechungen in die Welt, um diesen Technologien Aufmerksamkeit und Forschungsmittel zu sichern. In Ihrem Beispiel von vorhin wäre das die Friedenssicherung. Und fünf oder zehn Jahre später sieht man, dass es dazu nicht gekommen ist. Die menschlichen Angelegenheiten sind wahnsinnig kompliziert. Und weil wir so ein komplexes kognitives System haben, sind wir auch kaum berechenbar. Konfliktentwicklungen zwischen Frieden und Krieg lassen sich schwer prognostizieren.

Ist dieser Glaube von der Berechenbarkeit des Menschen auch ein wichtiger Punkt in der aktuellen Technikgläubigkeit? Wie auch die Auffassung einer starken KI?

Das ist die zentrale Botschaft unseres Buches „Digitaler Humanismus“. Ich versehe sehr gut, dass man gewisse Menschheitshoffnungen mit diesen Technologien verbindet. Die werden ja auch durch die Film- und speziell die Hollywoodproduktion gespeist. Das ist auch ein wichtiger Teil unseres Buches. Deswegen haben Natalie Weidenfeld und ich es ja auch zusammen geschrieben. Sie ist promovierte Amerikanistin und Filmtheoretikerin. In Filmen sieht man oft Jahrzehnte im Vorlauf jene Technologien, die dann auch real umgesetzt werden. Man denke da nur an Tablets in „Minority Report“. Ich habe erst vor kurzem wieder mit einer Roboterfirma darüber gesprochen, dass ihre Produkte Vorläufer in Blockbuster-Filmen haben.

Daran, dass wir Roboter so humanoid wie möglich aussehen lassen, zeigt sich ein uralter Menschheitstraum: Wir wollen ‚Homo Deus‘, selbst Gott werden und etwas erschaffen, das uns ebenbürtig ist


 

Um welche Art von Robotern handelte es sich dabei?

Das war eine Firma, die Pflegeroboter mit einer sehr humanoiden Anmutung herstellt. Und das ist ja auch eine der Kritikpunkte in unserem Buch. Ich bin ja sehr dafür, dass wir all die technischen Möglichkeiten im Sinne des menschlichen Guten nutzen und dazu gehört auch eine humane Pflege. Es ist nicht von vornherein ausgemacht, dass Roboter in der Pflege zu weniger Humanität führen. Man kann sich sehr gut eine Situation vorstellen in der man lieber von einem Roboter zur Toilette getragen wird als von einem Menschen. Philosophisch problematisch wird es allerdings, wenn wir glauben, dass wir durch technische Helfer ein beseeltes, ja, gar vernünftiges Gegenüber schaffen. Das wird dann zu einem Problem, wenn Roboter so humanoid wie nur möglich gestaltet werden und zwar auch dort, wo es funktional nicht begründet ist.

Warum ergibt sich hier ein philosophisches Problem?

Es ist ein Teil des Versuches, die Technologien im Zuge eines uralten Menschheitstraumes einzusetzen, um gewissermaßen „Homo Deus“, selbst Gott zu werden und etwas zu erschaffen, das uns ebenbürtig ist. Und zwar nicht Dinge ― sondern Wesen. Wie anders ist es zu erklären, dass wir Roboter bauen, die wie wir auf zwei Beinen laufen, obwohl sie dann für viele Tätigkeiten zu instabil sind? Oder warum müssen Maschinen menschliche Gesichtszüge imitieren? Dahinter steckt die Illusion, ein Wesen zu erschaffen, das über mentale Eigenschaften verfügt. Ein Wesen, das entscheiden, Vorhersagen treffen und uns beraten kann. Und all das ist eine schlechte Form von zeitgenössischem Animismus. Wir behandeln unbeseelte Gegenstande als Personen.

Animismus ist also im Zusammenhang mit neuen Technologien ein Problem. Sie beschreiben in Ihrem Buch allerdings noch ein weiteres, gewissermaßen entgegengesetztes, das des Materialismus.

Gemeint ist damit die Umkehrung dieser falschen Identifizierung von Simulation mit Substanz in der materialistischen Sichtweise. Das bedeutet, dass wir das menschliche Gehirn als nichts weiter als einen Computer ansehen. Da scheiden sich auch in der internationalen philosophischen Debatte die Geister. Und zwar geht das zurück auf die uralte Auseinandersetzung zwischen Behavioristen und Intentionalisten. Die Behavioristen, die sich oft auf Wittgenstein berufen, sagen, sprachliche Verständigung und die Bedeutungen, die sprachliche Äußerungen haben, sind nichts anderes als ein Verhaltensmuster. Wir beobachten, sozusagen von außen das Verhaltensmuster und dazu gehören auch bestimmte Lautäußerungen. Und diese Verbindung von Verhaltensmustern generell und speziell den Lautäußerungen, das macht die Bedeutung der Lautäußerungen aus. Diese Auffassung hat teils groteske Folgen. Gut zeigt sich das bei folgendem Witz: Wie begrüßen sich Behavioristen? Nun, der eine sagt zum anderen: „Dir geht es gut. Wie geht es mir?“ Wer keine Schmerzäußerungen zeigt, hat nach dieser Auffassung auch keine Schmerzen. Das ist zwar kontraintuitiv und dennoch ist es eine starke Position in der Philosophie, weil sie sich gut mit Naturalismus und Materialismus verbinden lässt. Die Gegenposition hingegen ist der Intentionalismus. Sie besagt: Die Grundbedingung dafür, dass irgendeine Äußerung eine Bedeutung hat, ist, dass sie von Wesen getätigt wird, die mit dieser Äußerung Intentionen verfolgen. Und die Äußerung führt dann zu einer Verständigung und zu einem gelungenen kommunikativen Akt, wenn der Adressat der Äußerung diese Intention aufgrund der Äußerung erfasst. Also die Bedeutung dieser Äußerung durch die Intentionen, die er als Interpretation nimmt, versteht. Damit sind wir wieder bei der starken KI. Ohne Intentionen, keine Bedeutung und keine genuine Verständigung. Es handelt sich um eine Mytifizierung, wenn man Softwaresystemen mentalen Eigenschaften zuschreibt. Denn anders als wir Menschen, haben diese keine Intentionen, keine Wünsche, Hoffnungen oder Ängste. Sie entscheiden nicht und deliberieren nicht. „Künstliche Intelligenz“ sollte daher immer in Anführungszeichen geschrieben werden, oder wenigstens als Eigennamen mit großem „K“. Die Outputs sind ohne instrinsische Bedeutung, abgesehen von der, die wir zur Simulation von Kommunikation diesen Outputs zuschreiben. Wir sind diejenigen, die das konstruieren. Wenn also Siri mit mir spricht, dann spricht dieser Sprachassistent nur mit mir, wenn ich diese Laute als Kommunikation deutete. Wir konstruieren Entscheidungen, Beratungen, den Vorgang des Erkennens usw. Das sind alles Konstrukte, die aber keinerlei substanziellen Gehalt haben, weil dahinter keine Person mit einem Innenleben steht. Und das ist die Zurückweisung von starker KI.


Der Transhumanismus ist Teil der Silicon-Valley-Ideologie. Er zielt darauf ab, die ‚condition humana‘, die natürliche Verfasstheit des Menschen, hinter sich zu lassen


 

Wie verhält es sich jedoch mit schwacher?

Schwache KI ist die These: Alles was Menschen an Fähigkeiten haben (Entscheiden, Erkennen, Urteilen usw.) lässt sich im Prinzip durch algorithmengesteuere Softwaresysteme ersetzen. Diese schwache KI ist also philosophisch viel harmloser. Ihr muss man keinen Animismusvorwurf machen. Aber ich halte auch diese schwache KI für zurückweisbar. Denn was auch gegen diese Auffassung von KI spricht, ist: Der menschliche Entscheidungsvorgang ist nicht vollständig algorithmisierbar. Und wenn man dann fragt, warum das so ist, dann kommen wir auf das schwierige Problem der Nicht-Entscheidbarkeit und Nicht-Berechenbarkeit, und damit auf die Theoreme des genialen Logikers und Mathematikers Kurt Gödel. Diese, bewiesenen, Theoreme zeigen, dass es wahre logische und mathematische Sätze gibt, die in dem Sinne nicht berechenbar sind, es also kein algorithmisches Verfahren gibt, das es erlaubt, die Richtigkeit dieser Sätze zu beweisen. Damit ist die Annahme, dass es einen Algorithmus geben könnte, der das (menschliche) Denken als Ganzes repräsentieren könnte, als falsch erwiesen. Das heißt nicht, dass es nicht möglich ist, die Richtigkeit oder Falschheit von Hypothesen und Überzeugungen zu überprüfen, es heißt lediglich, dass es keinen Algorithmus gibt, der uns diese Überprüfung abnimmt: Wir müssen schon selber denken. Wir können nur diejenigen Ausschnitte unserer Entscheidungspraxis an Computer oder von Computern gesteuerte Roboter delegieren, die sich durch Algorithmen nachbilden lassen. Das Theorem der Unberechenbarkeit von Kurt Gödel zeigt uns, dass die Welt der logischen und mathematischen Strukturen insgesamt nicht algorithmisch strukturiert ist. Menschliche Vernunft, die menschliche Fähigkeit, Überzeugungen, Entscheidungen und emotive Einstellungen zu begründen und auf dieser Grundlage ein kohärentes Weltbild und eine kohärente Praxis zu entwickeln, lässt sich nicht im Modell eines digitalen Computers erfassen. Es wird nie gelingen, die hohe Komplexität unserer lebensweltlichen Begründung vollständig und in adäquater Weise formal zu erfassen. Roboter und Softwaresysteme funktionieren nach einem Algorithmus, Menschen nicht. Darin liegt einer ihrer zentralen Unterschiede begründet. Wir müssen uns klarmachen, dass das „Denken“, das „Rechnen“, die „Reaktionen“, die „Entscheidungen“ eines Roboters nur Simulationen von Denken, Rechnen, Reaktionen, Entscheidungen sind und keine – im menschlichen Sinne – echten Denkvorgänge.

Kommen wir zu Ihrem Vorschlag, wie man der Silicon-Valley-Ideologie und damit der Auffassung von KI begegnen kann: Dem Digitalen Humanismus. Was muss man sich unter diesem Begriff konkret vorstellen?

Lassen Sie mich nochmal bei der Silicon-Valley-Ideologie ansetzen. Was sich im Fahrwasser eben dieser eingebürgert hat, ist der Begriff des Transhumanismus, der eng mit den Möglichkeiten digitaler Technologien zusammenhängt. Der Transhumanismus ist Teil der Silicon-Valley-Ideologie. Er zielt darauf ab, die „condition humana“, die natürliche Verfasstheit des Menschen, hinter sich zu lassen. Jetzt kann man natürlich darüber diskutieren, ob es die condition humana überhaupt gibt, oder ob es nicht vielmehr um unterschiedliche conditiones humanae in verschiedenen Kulturen handelt und dem würde ich sofort zustimmen. Die sind kulturell überformt und in unterschiedlicher Weise ausdifferenziert. Trotzdem glaube ich – gewissermaßen entgegen der Postmoderne – dass es sehr viele Gemeinsamkeiten gibt. Transkulturell wie auch über die verschiedenen Zeitpunkte der Menschheit hinweg, die uns da doch auch als Spezies eine gewisse Identität geben. Und der Transhumanismus fragt gewissermaßen, ob wir diese Grundpfeiler menschlichen Lebens so überhaupt brauchen. Und kommt zur Auffassung: Nein! All diese Begrenzungen des IQ, der körperlichen und mentalen Kräfte, der kognitiven Fähigkeiten, der Sensorik, ja der Sterblichkeit brauchen wir so eigentlich nicht und sollten deshalb durch digitale, pharmazeutische, nano-technologische etc. Technologien und Brain-Computer-Interfaces, Cyborgs sowie Extended Bodies versuchen, sie abzuschaffen.


Das philosophische Kernelement des Digitalen Humanismus ist das Plädoyer für eine gewisse Nüchternheit. Hysterische Euphoriker rufen nur hysterische Apokalyptiker auf den Plan und niemandem ist damit geholfen


 

Aber nicht mehr sterben zu müssen, wäre doch an sich nicht so verkehrt, oder?

Es ist philosophische durchaus umstritten, ob ein ewiges Leben wünschenswert wäre. Bernard Williams hat dagegen argumentiert in „Die Sache Makropulos“. Die Geschichte des humanistischen Denkens, also eines Denkens, das auf das Humane abhebt, das normative Konzeptionen einer genuin menschlichen Existenz erörtert ― und da gehören die großen Philosophen Platon, Kant usw. alle dazu ― war immer der Gefahr des Umschlags in einen Utopismus und einen Transhumanismus avant la lettre ausgesetzt. Ein Beispiel ist da der Roman „Utopia“ von Thomas Morus. Oft gibt es die Idee einer idealen Welt in der alles nach bestimmten, meist technizistischen und hierarchischen Systemen durchkonstruiert ist. Man darf aber nicht übersehen, dass auch in der schrecklichen Geschichte des 20. Jahrhunderts und speziell im Stalinismus und Nationalsozialismus genau diese Elemente präsent waren. Man opferte die aktuelle Generation, Millionen von Menschen, um eine ideale Welt des arischen Supermenschen zu schaffen, oder eine kommunistische Gesellschaft. So weit sind wir natürlich noch nicht. Doch auch diese transhumanistischen Spielereien sind meiner Meinung nach eine Bedrohung für eine humane Welt, weil sie etwas suggerieren. Dass wir nämlich mit den Mitteln der Technik alles hinter uns lassen, was das genuin Menschliche ausmacht und dass das zu begrüßen ist. Z. B. das Angewiesensein auf andere Menschen mit denen wir Bindungen entwickeln, ist ja dann gar nicht mehr nötig, wenn man sich selbst derartige Softwareidentitäten entwickeln kann, die einem zu 100 Prozent gefallen. Auch das Bemühen um Bildung wird hinfällig. Ist das nötig, wenn man sich zukünftig einfach nur an Softwaresysteme anschliessen muss, um eine andere Sprache zu sprechen oder den ganzen Proust gelesen zu haben? Das wird so nie realisiert werden, das ist schon klar. Dennoch hat die Ideologie ja auch eine eigene Dynamik, der ich gerne frühzeitig und effektiv entgegenwirken würde. Und das ist im europäischen Umfeld glaube ich leichter als im amerikanischen. Denn bei uns sind bestimmte ideologische Voraussetzungen für den Transhumanismus nicht gegeben. Europa hat eine skeptischere Kultur, ist weniger fortschrittseuphorisch und könnte von daher einen pragmatischeren Pfad der Digitalisierung einschlagen, auf Verbesserungen in den produktiven Kernen gerichtet (Industrie 4.0 ist ein Stichwort dazu), auf die inkrementelle Verbesserung der ökonomischen und sozialen Bedingungen eines guten Lebens, weniger auf virtuelle Welten, Marketing und Unterhaltung, weniger Big Data und mehr digital gesteuerte Produktivität.

Welche konkreten Maßnahmen schlagen Sie und Nathalie Weidenfeld in Ihrem Buch vor, um den Digitalen Humanismus voranzubringen?

Das philosophische Kernelement des Digitalen Humanismus ist das Plädoyer für eine gewisse Nüchternheit und eine anthropologische Konstanz. Hysterische Euphoriker rufen nur hysterische Apokalyptiker auf den Plan und niemandem ist damit geholfen. Besser ist es da, sich zu fragen, was man denn mit diesen neuen technologischen Möglichkeiten machen kann? An den Anfängen der Kernenergie hat man es gerade nicht geschafft, eine solche Nüchternheit walten zu lassen und gesagt, dass man entweder die ganze Menschheit auslöschen kann, oder alle Energieprobleme der Welt kurz vor der Lösung stehen. Gott sei Dank ist die Auslöschung bisher noch nicht eingetreten. Aber auch die Vision einer Lösung aller Energieprobleme ist bisher nicht in Sicht. Im Gegenteil: Deutschland hat sich gerade verabschiedet aus der friedlichen Nutzung der Kernenergie. Wir sollten also nüchterner an die Dinge herangehen und uns überlegen, wie können wir mit diesen technologischen Möglichkeiten so umgehen, dass sie zum humanen, sozialen, ökonomischen Fortschritt beitragen. Und da sind die Potenziale riesig. Im Bereich des Ökonomischen ist das unter anderem daran zu erkennen, dass sich gerade seit den massiven Fortschritten der Digitalisierung die Produktivität der Wirtschaft eher verlangsamt hat. Wir haben also seit der Mitte der Nullerjahre einen Rückgang der Produktivitätszuwächse in den USA auf ein historisches Tief von 0,4 bis maximal 0,6 Prozent. Das ist ganz ungewöhnlich niedrig. Während in der ersten Phase der Digitalisierung in den Neunzigern die Digitalisierung noch zu einem deutlichen Anstieg der Produktivität geführt hat. Und ausgerechnet als das Ganze so richtig Fahrt aufnimmt, geht die Produktivität zurück. Da ist aber noch nicht das letzte Wort gesprochen, denn ich glaube, dass Europa und speziell auch Deutschland große Chancen hat, die Digitalisierung in den produktiven Kernen der Wirtschaft einzubetten und effektiv zu nutzen.

Welchen Bereich unseres Lebens sehen Sie aktuell am akutesten bedroht. Wo sollte also der Digitale Humanismus schnell wirksam werden?

Um ein konkretes Beispiel zu nennen, können wir auf die Sphäre des Demokratischen blicken. Die Demokratie ist ja derzeit offenkundig in einer Krise mit der Wahl Trumps, dem Brexit, Polen, Ungarn auch die Türkei war ja bis vor Kurzem eine Demokratie. Und diese Krisenphänomene hängen natürlich auch damit zusammen, dass sich die Formen der Kommunikation verändern. Und da sieht man glaube ich sehr schön die Ambivalenzen der digitalen Technologie. Diese sind einsetzbar zu einer inklusiveren Kommunikationspraxis, es ist einzigartig in der Geschichte der Menschheit, dass man einen derartigen Zugang zu Daten und Wissen hat. Diese inklusiven Informationsmöglichkeiten sind für die Demokratie positiv. Negativ ist hingegen, dass in dieser zunächst weitgehend unstrukturierten Kommunikation im World Wide Web die Leute sich gewissermaßen verlieren, was dazu führt, dass viele wieder eine Überschaubarkeit durch Gruppenbildung herstellen. Gleichgesinnte schließen sich zusammen und man begibt sich unter Leute, die ausschließlich die eigene Meinung teilen. Das führt zu einer Parzellierung der politischen Öffentlichkeit. Die Demokratie lebt aber von einer gemeinsamen, inklusiven politischen Öffentlichkeit. •