| BR24

 
 

Bild

Der Roboter Pepper auf der Digitalmesse CeBIT 2018
© dpa / Florian Schuh

Autoren

Joana Ortmann
© dpa / Florian Schuh

Der Roboter Pepper auf der Digitalmesse CeBIT 2018

Markus Gabriel lehrt Philosophie an der Universität Bonn und hat gerade im Ullstein-Verlag das Buch "Der Sinn des Denkens" herausgebracht. Für die kulturWelt auf Bayern 2 sprach Joana Ortmann mit dem Autor.

Joana Ortmann: Warum sehen Sie denn die fortschreitende Technisierung als so große Feindin des Denkens an?

Markus Gabriel: Weil unsere Technik uns mit jedem großen Fortschritt seit Jahrtausenden vorgaukelt, dass unsere eigene Denkleistung sozusagen outgesourced werden kann – so als könnten wir das, was wir tun, wenn wir denken, automatisieren. Nach diesem Modell neigen wir dazu zu glauben, wir könnten das menschliche Denken irgendwo hin delegieren, an Algorithmen, im Idealfall vielleicht sogar die Politik abschaffen, weil alle großen Fragen algorithmisch gelöst werden können durch anonyme Berechnungsverfahren. Diese Idee ist in vielerlei Hinsicht völlig verfehlt, das sehen wir aber nicht, wenn wir ein falsches Bild vom Denken haben. Auf diese Weise zerstört die fortschreitende Technisierung in unseren Tagen die Fundamente unserer Demokratie.

Da wird ein Roboter-Entwickler sicher sagen, ach ja, typisch Technikfeindlichkeit eines Philosophen! Woher wollen Sie denn überhaupt wissen, dass nicht eines Tages – vielleicht in nicht so ferner Zukunft – Roboter sehr wohl kreativ denken können und auch zu kreativen politischen oder gesellschaftlichen Lösungen kommen können?

Ich argumentiere in dem Buch detailliert, dass Roboter oder andere Artefakte, die der Mensch hergestellt hat, wie zum Beispiel Smartphones, Algorithmen, Suchmaschinen und so weiter, dass diese Artefakte insgesamt überhaupt nicht denken. Die haben noch nicht einmal damit angefangen, so dass nicht die Rede davon sein kann, dass sie irgendwann dies und das tun werden. Wir benutzen diese Werkzeuge im Kontext des menschlichen Lebens, um es zu vereinfachen. Das ist ja das Wesen eines technischen Apparates. In dem Buch unterscheide ich zwischen Technik, das heißt unseren Werkzeugen, und ihrem Gebrauch, wozu ein Smartphone gehört oder ein soziales Netzwerk, und einer Technologie. Unter einer Technologie verstehe ich eine Einstellung zu diesem Gebrauch und wenn man nun glaubt, dass der eigene Computer das tut, was man selber tut, nämlich denken, dann hat man eine verfehlte Einstellung zu diesem Apparat. In einem solchen Apparat ist geistig nichts los, der ist so dumm wie ein Schreibtisch.

Andererseits tendieren viele Menschen dazu, ihren PC fast schon als höheres Wesen zu sehen, als Wesen, das sie eben nicht verstehen. Das nennen Sie "Projektionsthese" und berufen sich dabei auf Ludwig Feuerbach und sagen, wir projizieren etwas auf den Computer, was er gar nicht ist.

In sozialen Situationen gleichen wir ja unsere Meinungen miteinander ab. Wenn wir das tun, haben wir Erwartungen an die anderen. So funktioniert die menschliche Gesellschaft. Wenn jetzt etwas im menschlichen Leben so aussieht, als würde es mit uns kommunizieren, wie zum Beispiel ein Saugroboter oder eine "subtile" Kaffeemaschine, dann neigen wir dazu, zu glauben, wir wären jetzt in einer kommunikativen Situation. Das ist aber ein Irrtum. Die Kommunikation verläuft in Wirklichkeit immer nur zwischen Lebewesen. Diesen Irrtum begehen wir aber dauernd und deswegen projizieren wir seit Jahrtausenden magische Fähigkeiten auf unsere Geräte. Das heißt schon in der Bibel „Fetischismus“.

Eine weitere These von Ihnen, die man erst mal als Widerspruch verstehen könnte, lautet, der Mensch ist eine "künstliche Intelligenz" und um das zu verstehen müssten wir, denke ich, erst mal definieren, was wir unter künstlicher Intelligenz in diesem Zusammenhang verstehen.

Unter einer Intelligenz oder unter etwas Intelligentem möchte ich etwas verstehen, so lege ich das fest, was ein Problem in einem bestimmten Zeitrahmen löst. Deswegen messen wir Intelligenz ja auch an Geschwindigkeit, zum Beispiel in einem Intelligenztest. Das heißt, ein System, ein Lebewesen ist intelligenter als ein anderes, wenn es dasselbe Problem schneller löst. "Künstlich" ist die menschliche Intelligenz, also artifiziell hervorgebracht, in dem Sinn, dass viele unserer intelligenten Übungen – zum Beispiel Deutsch sprechen oder eine Fremdsprache lernen oder Mathematik betreiben und so weiter – nichts sind, was einfach nur natürlich mit dem Sein des Menschen schon gegeben ist. Das heißt, Menschen müssen etwas lernen, Fähigkeiten ausbilden, die sie gar nicht gehabt hätten ohne hochkulturelle Leistungen, die teilweise Jahrtausende in Anspruch nehmen, und das ist deswegen ein Artefakt der menschlichen Lebensformen. Deswegen spreche ich vom Menschen als einer "künstlichen Intelligenz", weil wir jetzt diese Artefakte soweit ausbauen können in der gegenwärtigen Infosphäre und digitalen Revolution, dass wir alle massiv intelligenter werden.

Unsere Maschinen aber auch. Wie unterscheiden die sich dann vom Menschen?

Zur Intelligenz gehört ein Leben, eine bestimmte Lebensform. Die Probleme, die wir haben, sind ja Probleme, die sich uns stellen, weil wir sterblich sind. Wir lösen täglich mehr oder weniger erfolgreich Probleme des Überlebens. Wo kriegt man das nächste Essen her? Wo kriegt man Wasser her, wenn man durstig ist und so weiter. Nun ist es so, dass unsere Artefakte aus Silizium und so weiter keine Lebewesen sind. Die haben gar nicht die Dynamik der Selbsterhaltung. Wenn also alle Menschen zum Beispiel, sagen wir mal, für ein Jahr lang keinen Computer mehr benutzen, dann wären die wahrscheinlich gar nicht mehr brauchbar, die würden einfach zusammenbrechen, weil die nur funktionieren im Kontext unseres Gebrauchs.

Der Philosoph Markus Gabriel

Der Philosoph Markus Gabriel

Wenn das Opfer, das der Mensch dafür bringt, die anderen künstlichen Intelligenzen voranzubringen, das Opfer seiner eigenen Abschaffung ist, was ist die philosophische Konsequenz?

Die philosophische Konsequenz ist, dass wir erst einmal verstehen, was wir hier tun. Solange wir immer weiter an der digitalen Revolution arbeiten, ohne eine Ethik der künstlichen Intelligenz in Stellung zu bringen, bauen wir Geräte, die uns sehr wahrscheinlich zerstören werden. Zum Beispiel nach dem folgenden Modell, eines der vielen Szenarien, die man hier leicht durchspielen kann: Wir produzieren ja Datenmengen online. Jeder von uns, durch jeden Akt der Kommunikation, durch jedes Like, durch jede E-Mail, die wir schicken, und diese Datensätze suggerieren, dass wir uns auf eine bestimmte Weise verhalten. Jetzt stelle man sich mal eine solche künstliche Intelligenz vor, die darauf programmiert ist, das gesamte Internet zu überschauen und die könnte, je nachdem, wie wir die programmiert haben, sehr leicht zu dem Schluss kommen, dass die Menschheit sich gerne abschaffen möchte. Wenn jetzt eine außerirdische Lebensform auf den Planet Erde kommen und sich anschauen würde, was wir seit zweihundert Jahren produzieren durch die Umweltverschmutzung und so weiter, würden die sagen, oh, die strengen sich aber gut an, sich bald selbst auszurotten, also helfen wir denen, es könnte ja sozusagen nett gemeint sein. Solche Gefahren errichten wir gerade, wenn wir unser gesamtes selbstzerstörerisches Verhalten zugänglich machen.

Das ist eine Argumentation, die immer wieder gebracht wird. Ein weiterer interessanter Punkt bei Ihnen ist, dass, indem der Mensch an seiner eigenen Abschaffung arbeitet im Fokus auf die Technisierung oder totale Technisierung der Welt, er dem widerspricht, was Leben eigentlich ist.

Wir sind gerade dabei, unsere eigenen Lebensformen völlig zu verkennen, weil wir glauben, dass wir bald unser Leben überwinden könnten und auf dem Planeten Erde unsterblich werden können. Wenn es gelingen würde, unsere eigene Intelligenz hochzuladen, wie in Filmen wie "Transcendence", wenn wir durch die Kabel sausen könnten oder gar wie in "Westworld", wo man künstliche Organismen baut, Roboter, auf die unser Bewusstsein aufgespielt wird, wenn wir das alles könnten, dann könnte uns ja die gesamte Umweltzerstörung erst mal gar nichts anhaben. Das ist die Phantasie, die jetzt plötzlich auftaucht. Der Mensch meint, er könne der ökologischen Krise, die er selber erzeugt hat, irgendwie entrinnen, indem er noch mehr auf Technik setzt.

Das ist eine negative Technik-Utopie. Letztlich geht es doch darum: Wie kann das Denken damit brechen?

Wir müssen verstehen, dass unser Denken nicht bloß eine Spekulationsblase ist oder ein bloßer Meinungsaustausch, sondern dass es darauf ankommt, ob wir mit den Tatsachen in Kontakt sind oder nicht. Die entscheidende Tatsache über uns ist, dass wir Lebewesen sind. Wenn wir mit dieser Tatsache nicht in Kontakt sind, dann werden wir sozusagen blind agieren, als Verblendete. Deswegen ist es so wichtig, dass wir über das Denken wieder neu nachzudenken lernen, ohne schon eine technische Verzerrung von unseren eigenen Denkvollzügen zwischen uns und die Wirklichkeit unseres eigenen Denkens zu stellen.

"Der Sinn des Denkens" von Markus Gabriel ist im Ullstein-Verlag erschienen.

Verpassen war gestern, der BR Kultur-Newsletter ist heute: Einmal die Woche mit Kultur-Sendungen und -Podcasts, aktuellen Debatten und großen Kulturdokumentationen. Hier geht's zur Anmeldung!

Die tägliche Dosis Kultur – die kulturWelt als Podcast. Hier abonnieren!

Autoren

Joana Ortmann

Sendung

kulturWelt vom 10.10.2018 - 08:30 Uhr