(c) Karl Baumann 2023: Der Kurs A, aufgenommen mit iPhone 13 mini am GC München Eichenried am 25. Juni nachmittags

Es geht schon damit los, dass die Bezeichnung „Künstliche Intelligenz“ eher eigenartig ist. Es suggeriert, als ob es verschiedene Arten von Intelligenz gibt, verschiedene Kategorien. Das ist insofern schon verstörend, da doch davon auszugehen wäre, dass es „eine“ Intelligenz gibt und davon abweichend gibt es dann besser oder schlechter intelligentes Verhalten.

Ich denke, was mit „Künstlicher Intelligenz (KI)“ (artificial intelligence – AI) tatsächlich gemeint ist, dass es „Lernprozesse“ außerhalb unserer menschlichen Existenz gibt, die zwar von uns initiiert wurden, jedoch dann nicht weiter von uns gesteuert werden.

Ein Vergleich dazu wäre die Intelligenz von Affen, Delphinen oder Hunden. Auch sie haben zweifellos die Fähigkeit, kognitive Prozesse zu verarbeiten und somit zu „lernen“.

Der Kinofilm „2001: A Space Odyssey“ aus dem Jahr 1968 zeigt schon kritisch, was passieren kann, so „Künstliche Intelligenz“ zu entscheiden beginnt und die Kontrolle über die Systeme übernimmt. Im Kinofilm übernimmt der Computer HAL die Kontrolle und „erkennt“, dass die Menschen der „Schwachpunkt“ sind und somit eliminiert werden müssen, um die Mission erfolgreich abschließen zu können.

Dabei entsteht die Einführung eines ganz entscheidenden Faktors – Erfolg. Und dieser Faktor ist unweigerlich mit der Frage verbunden: „Was verstehen wir unter Erfolg?“

„Wo können wir besser sein als AI?“, wird als Frage im Anschluss daran gestellt. Die Frage ist unter Einbeziehung des Faktors „Erfolg“ aus meiner Sicht weitestgehend absurd. Es zeigt einzig, wie sehr das „Leistungsprinzip“ bereits gesellschaftlich internalisiert ist. Es zeigt, wie sehr ein Selbstverständnis sich entwickeln konnte, bei dem „Wettbewerb“ als ein Art „Naturgesetz“ gesehen wird.

Dabei ist weder „Leistung“ noch „Wettbewerb“ etwas, was wir zum überleben benötigen. Es ist nichts, was uns per se „erfolgreich“ macht.

Die Angst vor AI zeigt auf, wie weit wir uns von humanistischen Konzepten entfernt haben. Die Spezialisierung von Bildung, die Mechanisierung von Arbeit, die Quantifizierung von Forschung und somit die Trivialisierung von Humanismus auf eine Maschine. Keine Überraschung, dass sich solche Menschen vor AI fürchten. Sie haben sich auf etwas reduziert, dass technologisch mit relativ einfachen Rechenoperationen besser gelöst werden kann.

Wir haben das zugelassen, um vermeintlich „Leistung“ zu fördern und somit „erfolgreich“ zu sein. Das Phänomen, dass intellektuell als das der „Moderne“ bezeichnet wird, hat den Menschen zur Maschinen reduziert.

Die Auf-Lösung, so dies überhaupt notwendig ist, ist im Grunde sehr einfach. Der Mensch darf wieder in seiner vollen Vielfalt Mensch sein dürfen, mit all seinen Sinnen, Gefühlen und der sich daraus ergebenen sozialen Kompetenz, kreativen Schaffenskraft, Romantik, Naivität und Liebe.

Ideal gesehen gibt es nichts schöneres, als wenn uns AI die „unerträglichen Notwendigkeiten des Alltäglichen“ abnimmt und wir uns auf das sinnliche Dasein konzentrieren können. Das hatte u.a. Thomas Moor schon Anfang des 15. Jahrhunderts verstanden und in „Utopia“ beschrieben.

Doch das geht nur dann, so ein Gespür für diese Sinnlichkeit, für diese Menschlichkeit überhaupt noch vorhanden ist. Die Diskussion rund um „Künstliche Intelligenz“ zeigt, dass dies wohl bezweifelt werden kann und das Buch „Utopia“ aus ca. 1515-1516 von Thomas Moor mehr als aktuell ist.