Wenn ich mit meiner Frau beim Frühstück sitze, ergibt sich manchmal folgender Streit. Ich frage: Hast du gut geschlafen? Und sie antwortet, indem sie auf ihre Smartwatch guckt: Nein, nicht wirklich, nur vier Stunden und zwölf Minuten. Dann sage ich: Aber wie fühlst du dich? Gut, sagt sie dann. Und ich: Also könnte deine Uhr auch danebenliegen? Nein, ist ihre Antwort, sie kann mir ganz genau sagen, wie lange ich geschlafen habe. Und ich: Wer weiß, was diese Uhr unter „Schlafen“ versteht! Das ist doch Unsinn, sagt dann meine Frau, greift zum Handy und googelt, mit welchen Sensoren die Smartwatch den Schlaf analysiert: Siehst du, sie registriert Bewegungs- und Herzfrequenzmuster und den Atemrhythmus. Ja, aber das sagt doch wenig darüber aus, wie du deinen Schlaf empfindest! Hier steht, es gibt ein Barometer, ein Gyroskop, einen geomagnetischen Sensor, einen Hallsensor, einen Annäherungssensor und einen Lichtsensor. Du benutzt doch auch das Barometer auf unserer Terrasse! Das stimmt, mache ich noch einen Versuch, aber wenn es regnet, werde ich zweifelsohne nass, ob ich aber gut oder schlecht schlafe, kann mir kein Instrument sagen, sondern nur mein Gefühl. Du und deine Gefühle, sagt dann meine Frau und verlässt das Zimmer.
Bei diesem kleinen Streit sind wir mitten im großen Thema „Künstliche Intelligenz“, kurz KI. Genauer gesagt bei der „schwachen“ KI, die wir inzwischen permanent nutzen: dem Staupiloten, dem Fitness-Armband, der meinen Interessen angepassten Werbung. Und natürlich bei Google, Alexa, Siri & Co. Wir reden über diese schwache KI wie übers Wetter, die Nationalmannschaft und die Mode. Eine prägende Diskussion bleibt aus, bestenfalls fragt man sich, warum die USA Tiktok verbieten wollen. Das mag auch daran liegen, dass Europa es gewohnt ist, seit dem Millennium digital abgehängt zu sein. Auch in Sachen KI humpelt der alte Kontinent wieder chancenlos hinterher. Wirklich alarmierend ist allerdings ein anderes Defizit: Neben der schwachen KI gibt es die starke KI, die Künstliche Intelligenz, von der Stephen Hawking sagte, sie sei „das Beste oder das Schlimmste, was der Menschheit passieren kann“.
Worum geht es? Auch wenn es keine einheitliche Definition gibt, lässt sich ausreichend beschreiben, was mit dem Begriff gemeint ist. Als Ursprung der Entwicklung gilt ein Treffen von diversen US-Forschern, darunter John McCarthy und Marvin Minsky, im Jahr 1956, die laut Metzlers Philosophie-Lexikon überlegten, ob „Denken auch außerhalb des menschlichen Körpers möglich sei“. Konkret: Kann man denkende Computer bauen beziehungsweise können Computer Dinge tun, die bislang von Menschen ausgeführt werden? Generell beschäftigt sich die KI-Forschung mit der Frage, ob menschliche Fähigkeiten und schließlich die Intelligenz selbst maschinell nachgeahmt oder gar übertroffen werden können. Und da dieses Forschungsgebiet weit über die technischen Gimmicks unseres Alltags hinausgeht und unzählige philosophische, psychologische und soziologische Probleme kreiert, ist Europa sehr wohl in der Pflicht, hierbei voranzugehen.
Im November 2021 hat die Unesco den ersten global gültigen Völkerrechtstext zur ethischen Entwicklung und Nutzung von KI verabschiedet, der zugleich einen ersten Regulierungsrahmen skizziert. Ein von der deutschen Unesco-Kommission daraufhin beauftragtes Gutachten kommt zu dem Fazit: Es besteht großer Handlungsbedarf! Zurzeit arbeitet die EU einen Vorschlag für ein KI-Gesetz aus, den AI Act. Und das Beispiel Tiktok zeigt, dass zwar die USA und China Europa momentan technologisch weit voraus sind, dass aber auf dem Gebiet der Regulierung und intellektuellen sowie gesellschaftlichen Verarbeitung des Themas Europa sich in guter Position befindet.
Breite Diskussion notwendig
Wie zumeist, sind viele Unternehmen schon weiter. Im KI-Kodex von Bosch findet sich etwa zum Leitmotiv „Technik fürs Leben“ der Satz: „KI soll nicht ohne eine menschliche Kontrollinstanz über den Menschen entscheiden, sondern dem Menschen als Werkzeug dienen.“ Nimmt man das ernst, stellt sich die Frage, ob es hier um eine KI geht, die genau das nicht macht oder kann, was Sinn und Zweck aller KI-Forschung ist, nämlich eigenständiges Denken und Handeln. Hier ist eine breite Diskussion notwendig, an der Gesellschaft, Politik, Wissenschaft und Unternehmen beteiligt sind. Und es gibt Ansätze: Seit 1988 gibt es das DFKI, das Deutsche Forschungszentrum für KI, es gibt seit einigen Jahren das Hessische Zentrum für Künstliche Intelligenz, und es gibt diverse privat initiierte Akademien und Einrichtungen. Zu häufig bewegen sich die aktuellen Diskussionen aber auf dem Niveau von Hondas Roboter „Asimo“, der dem Betrachter die Zukunft verkauft, tatsächlich aber nur innerhalb programmierter Szenarien agiert. Natürlich verdienen solche technischen Entwicklungen Aufmerksamkeit, sie bereichern unseren Alltag. Wie die inzwischen unverzichtbare Cloud, das „Internet der Dinge“, das die reale und die virtuelle Welt vernetzt und mit nützlichen Wearables einhergeht, oder die „Augmented Reality“, die reale und virtuelle Informationen kombiniert, um eine Realitätserweiterung zu ermöglichen. Aber es fehlt eine breite Auseinandersetzung mit den fundamentalen Fragen, die die KI aufwirft.
Wie künstlich ist Intelligenz?
Wir reden erst seit der vorletzten Jahrhundertwende von „Intelligenz“. Von Anfang an umfasste der Begriff ein Bündel von Fähigkeiten beziehungsweise Eigenschaften eines Menschen. Wie löst er Probleme? Nicht nur mathematische oder wissensbasierte, sondern auch emotionale, soziale, sinnorientierte Probleme. Wir benutzen den Begriff noch immer, auch wenn die Wissenschaft heute ein gutes Dutzend Dimensionen „fluider und kristalliner“ Intelligenz unterscheidet. Wir benutzen ihn, auch wenn er aus den lateinischen Wörtern „inter“ und „legere“ zusammengesetzt ist, wonach man Intelligenz als die Fähigkeit des Zwischen-den-Zeilen-Lesens verstehen könnte, was der Generation Instagram vermutlich kurios erscheinen dürfte. Und wir benutzen den Begriff, der aus der Psychometrie der Hirnregionen stammt, immer noch so, als wäre Intelligenz tatsächlich messbar, obwohl jeder von uns doch bereits erlebt hat, dass sich die besten Hirnregionen vieler Menschen in ihren Herzen oder Bäuchen befinden.
Der Trend geht in die entgegengesetzte Richtung: Vor dem Hintergrund der Möglichkeiten, immer größere Datenmengen (Big Data) zu verarbeiten und praktisch einzusetzen, fokussieren wir uns auf Quantitäten und Messbarkeiten. Mit dem Solutionismus regiert eine Ideologie der Weltverbesserung durch Big Data: Alle Probleme lassen sich lösen, wenn man nur ausreichend viele Daten einem Algorithmus übergibt, der daraus die beste Lösung errechnet. Es gibt kein Scheitern mehr, keine Fehler, es gibt nichts auf der Welt, das nicht durch Daten erfasst werden könnte.
Aber stimmt das, fragt sich die Schweizer Digitalexpertin Cornelia Diethelm. Oder „erfassen Daten nur einen Teil des Lebens?“ Und vor allem: Was sind das für Daten, die dort verarbeitet werden? Für Diethelm hat der Solutionismus zwei entscheidende Haken: Erstens ist er diskriminierend, weil er auf korrumpierten Daten basiert, beispielsweise die von „alten weißen Männern“. Nicht, weil das so gewollt wäre, sondern weil andere Daten nur minimal zur Verfügung stehen. Und zweitens „tendieren KIs zum Durchschnitt“, da sie auf statistischen Modellen basieren und „in Glockenkurven denken“. Das fördert Standardisierung und verhindert Vielfalt. Larry Page, einer der Gründer von Google, hat einmal geschrieben: „Künstliche Intelligenz wäre die ultimative Version von Google.“ Der alten, nur Gott zugeschriebenen Fähigkeit der Allwissenheit könnte sich endlich jeder Mensch erfreuen. Wer wollte das nicht? Nun, es gibt den Gegenentwurf namens „Deep Thought“. Das ist ein Supercomputer, dem in Douglas Adams’ Roman „Per Anhalter durch die Galaxis“ die Frage aller Fragen gestellt wird, „nach dem Leben, dem Universum und dem ganzen Rest“. Nach lediglich 7,5 Millionen Jahren präsentiert Deep Thought den Menschen das Ergebnis: 42! Auf deren Unzufriedenheit reagiert er mit der Bemerkung, das Problem sei, dass man sich zu sehr auf Antworten (Data!) konzentriere und zu wenig auf die richtigen Fragen.
Der KI-Forscher Christian Bauckhage dagegen freut sich, dass die Entwicklung der kommenden fünf Jahre „alles in den Schatten stellen wird, was wir vorher gesehen haben“ – und zwar in der Geschichte der Menschheit. Gemeint ist das Entstehen eines Bewusstseins in der Maschine, das Entstehen einer „Singularität“. Sind wir also in genau der Situation, in der sich Gott bei der Erschaffung des Menschen befunden hat? Denn in einem altmodisch analogen Sinne haben wir in den letzten paar tausend Jahren die Rolle gespielt, die nun für die KI vorgesehen ist. Wir haben gelernt und gelernt, uns weiterentwickelt, immer mehr Wissen gesammelt, unseren freien Willen ausgereizt und uns zahllosen vermeintlichen Vollkommenheitsidealen verschrieben. Wir haben exakt das gemacht, was wir von der KI erhoffen. Und wenn wir Gott – ganz synodal korrekt – fragen könnten? Na, wie zufrieden bist du mit uns? Ein Stern? Drei Daumen hoch? Hast du gewusst, dass wir dich abschaffen werden? Hast du gewusst, dass wir jede kleinste Kleinigkeit, die du als Gimmick in die göttliche Schöpfung implementiert hast, als potentielles Ärgernis ansehen würden, als Grund dafür, es mit unserer eigenen Schöpfung besser zu machen?
Das sogenannte Paradies-Paradoxon wird dem russischen Ökonomen Wassily Leontief zugeschrieben. Für diesen ist „die Geschichte des technologischen Fortschritts im Grunde die Geschichte der menschlichen Rasse, wie sie langsam, aber sicher versucht, den Weg zum Paradies wiederzufinden“. Und er stellt sich die Frage: Was passiert, wenn die Menschheit das schafft? „Alle Güter und Dienstleistungen wären verfügbar, ohne dass dafür Arbeit notwendig wäre, und niemand würde einer Erwerbsarbeit nachgehen“. Eine Welt, in der die KI uns alles abnimmt, wir nicht mehr arbeiten müssten – wäre eine solche Welt ein Paradies oder die Verdammnis?
Ethischer Autopilot?
Wer über (vor allem starke) KI spricht, muss über Ethik sprechen. Die ethische Beurteilung hängt primär davon ab, ob über Objekte oder Subjekte gesprochen wird. Denn die KI kann entweder (als Objekt) lediglich menschliche Intelligenz simulieren oder – worauf Christian Bauckhage abzielt – Intelligenz realisieren, also (als Subjekt) Menschen zugedachte Handlungen stellvertretend ausführen. Nur ein Beispiel: Eines der meistzitierten Szenarien in Deutschland beschäftigt sich mit der Idee des autonomen Fahrens. Hier ist die Entwicklung durch viele Assistenzsysteme schon fortgeschritten. Immer wieder wird folgende Situation diskutiert: Ein KI-pilotiertes Auto überfährt einen Passanten. Wer ist schuld? Wer trägt Verantwortung? Was sind die Konsequenzen? Und auch wenn das Szenario verdächtig nach Fragestellungen für Wehrdienstverweigerer aus den 1980er Jahren klingt, ist es im Kern wichtig und bedeutsam. Es zeigt vor allem, wie komplex das Thema ist, an dem Technologie, Ethik, Politik und Wirtschaft eng verzahnt beteiligt sind. Hier nur eine Anmerkung: Eine ähnliche und deswegen hilfreiche Konstellation weist die Eltern-Kind-Beziehung auf. Verursacht das Kind einen Schaden, stellt sich die Frage, wer haftet. Hier kommt es darauf an, ob den Eltern eine Verletzung der Aufsichtspflicht nachgewiesen werden kann. Eltern haften somit nicht direkt für ihr Kind, da vor dem Gesetz jeder Mensch nur für sich selbst verantwortlich ist. In diesem Zusammenhang wird häufig zwischen „Accountability“, also Haftbarkeit, und „Responsibility“, also Verantwortung, unterschieden. Das erlaubt, sich weniger auf eine normative Behandlung von KI festzulegen, als vielmehr einen lebensweltlichen, dem griechischen Ethos, der Sittlichkeit verpflichteten Gebrauch zu bevorzugen.
Es mag zu denken geben, dass fast alle KI-Geschichten, von Fritz Langs Metropolis über Blade Runner, Welt am Draht, Wargames, Terminator oder Matrix, zu Dystopien, zu negativen Szenarien neigen. Die breite gesellschaftliche Diskussion, wie gesagt, steht noch aus – und die Bedenken scheinen, neben aller Begeisterung, nicht unbegründet zu sein. Der israelische Schriftsteller Juval Noah Harari bringt diese Bedenken in einem bewegenden Gedanken auf den Punkt: „Sie wollen wissen, wie superintelligente Cyborgs gewöhnliche Menschen aus Fleisch und Blut behandeln könnten? Fangen Sie besser damit an, zu untersuchen, wie Menschen ihre weniger intelligenten tierischen Vettern behandeln. Das ist natürlich keine perfekte Analogie, aber es ist der beste Archetyp, den wir tatsächlich beobachten können, anstatt ihn uns nur vorzustellen.“




