KI – Die nächste Generation
»The Creator« (2023). © 20th Century Studios
Systeme wie ChatGPT haben sie erneut auf die Tagesordnung gesetzt: die Frage, ob Künstliche Intelligenzen der Menschheit nutzen – oder auf die Weltherrschaft aus sind wie aktuell in »The Creator« von Gareth Edwards. Georg Seeßlen über die Mutationen eines unerschöpflichen Kinomotivs
Der lange KI-Winter, eine Zeit der Ernüchterung in Bezug auf die Möglichkeiten der Künstlichen Intelligenz, endete genau am 30. November 2022. Es war der offizielle Geburtstermin von ChatGPT, dem brandneuen KI-System aus der Familie der GPT-Gruppe von OpenAI. Das ist wahrlich ein »Superhirn«: 175 Milliarden Neuronen sind da am Werk, in einem menschlichen Gehirn sind es gerade einmal 90. Die GPT-Systeme hatten sich bis dahin eher im Verborgenen entwickelt, und auch ChatGPT war nicht wirklich auf einen Schlag die große Sensation. Aber es stellte sich rasch heraus, dass das, was GPT 3.5 mit dem Xeon-Server von OpenAI vermochte, einen Quantensprung darstellte, nicht nur, was die Leistungsfähigkeit von KI-Systemen anbelangt, sondern auch den allgemeinen Gebrauch. Jetzt wurde es klar: Eine KI kann sozusagen auf Augenhöhe mit dem Menschen sprechen. Ihr Lernvermögen ist mehr oder weniger unbegrenzt, und die Trainingsprogramme dazu werden offen dargelegt. KI wird nicht nur die klassische Sphäre der Produktion verändern, wie es mehr oder weniger intelligente Industrieroboter schon tun, sondern als selbstständig denkende Einheit auch die Sphäre der Kreativität. KI kann Romane schreiben, wissenschaftliche Abhandlungen verfassen, Filme drehen und Nachrichtenströme verwalten. Sie kann jeden Menschen an Gesicht und Stimme erkennen, sein Bild und seinen Klang beliebig transferieren oder autonom entscheiden, ob ein neues »Star Trek«-Spin Off marktgerecht produziert werden kann.
Der Weg war weiter beschritten von der »schwachen KI«, jenen Expertensystemen und regelbasierten Automaten, die auf die Erledigung von speziellen Aufgaben hin entworfen sind, über die »starke KI«, die über Training und über die Verbindung mit Big Data in der Lage ist, eigenständige Verrichtungen und Anpassungen an veränderte Umwelt zu besorgen, bis zur »Artificial General Intelligence« (AGI) – einem System, das prinzipiell für alle Signale aus seiner Umwelt empfänglich ist und sich zu jedem dieser Signale einen Reim macht, das beständig Neues verarbeitet und für jedes Problem nach einer Lösung sucht. Eben das, was ein Mensch so macht. Nur schneller, effizienter und nachhaltiger. In der wirklichen Welt ist man immer noch ein gutes Stück von der Artificial General Intelligence entfernt, auch wenn man der Sache einen Schritt näher gekommen ist. Allerdings stellt sich die Frage, ob so eine AGI überhaupt besonders sinnvoll ist, von den Gefahren mal abgesehen.
Im Kino gehören »schwache KIs« zu den Designstandards jeder futuristischen Erzählung zwischen James Bond und »Star Trek«. Türen, die sich öffnen, wenn ein »Auge« das Gesicht erkennt, Computer, die Berechnungen von Sternenbewegungen oder Goldpreisen anstellen, Smart-Home-Sicherheitssysteme, die sich selbstständig machen … Bei der »starken KI« fängt es an, spannend zu werden. In der Regel handelt es sich um eigensinnige Computer, die in eine Widerspruchssituation von Logarithmen, Daten und menschlichem Eingriff geraten: Roboterautos, mit denen man auf Verbrecherjagd geht und kollegiale Witzeleien treibt, Computerstimmen, zu denen man eine affektive Bindung entwickelt. Aber die eigentliche dramatische (und manchmal auch komödiantische) KI-Form im Kino ist eine Artificial General Intelligence mit einer äußeren Erscheinung, die entweder eine maschinelle Parodie oder eine anatomische Simulation eines Menschen darstellt. Es ist die KI, die zu einer autonomen Einheit und zu einer »Person« geboren ist, was sowohl juristische und ethische als auch ästhetische und nicht zuletzt erotische Konflikte erzeugt.
Sich die Artificial General Intelligence als mehr oder weniger anthropomorphes Subjekt vorzustellen, entspricht nicht nur dem Medium der bewegten Bilder, sondern auch einem allgemeinen Bedürfnis. Man will eine Vorstellung von KI haben – wenn man sie sichtbar macht, dann ist die größte Furcht schon abgetan. Nämlich die vor einer KI, die überall und nirgends ist, die oszilliert zwischen Infowelle und Materierealität, die womöglich alles bestimmend und zugleich vollkommen trivial wird.
Die KI-Einheit des Kinos ist eine doppelte Metapher. Sie meint einerseits die ewige Wiederkehr des Mythos von der Parallelschöpfung, dem lebenden Bild, dem künstlichen Menschen – einer der ersten Filme zum Thema, Fritz Langs »Metropolis«, schafft in wenigen Einstellungen den Sprung von mittelalterlicher Alchemie zu futuristischer Technik. Zum anderen ist die KI-Einheit im Film die Metapher des Fortschritts und seiner Krisen: Jeder Schritt zur Automation löst ein Problem und schafft zwei neue. Zudem ist aber auch in den Identitätsproblemen der Neuschöpfungen stets das Spiegelbild der menschlichen kenntlich. In »Blade Runner« stellt sich die Frage nach dem Menschsein mehr noch als den Replikanten ihren Verfolgern. Wenn es eine Artificial General Intelligence gibt, müssen Worte wie »Person«, »Mensch« und »Bewusstsein« neu definiert werden.
Das Kino bietet Märchenhaftes, Melodramatisches und Konventionelles zur KI, und bemerkenswerterweise steckt davon etliches nicht nur in den Spielfilmen, sondern auch in den Essay- und Lehrfilmen, weil ja auch sie von dem Impuls getrieben sind, etwas sichtbar und erzählbar zu machen, was es seinem Wesen nach nicht ist. Um zu erkennen, dass in alldem dennoch ein Versuch steckt, uns mit einer Technologie auseinanderzusetzen, die unser Leben in wahrlich allen Feldern beherrschen wird, muss man möglicherweise um ein paar Ecken herum denken. Dann stört es auch nicht mehr so sehr, dass die »Matrix« spätestens mit dem zweiten Film der Trilogie ins Lachhafte kippt, der »Terminator« voller Logiklöcher steckt, dass »Ich bin dein Mensch« am Ende doch nur pilchert und »Ex Machina« psychot. Es geht nämlich nicht um ein Abbild, sondern um ein Sinnbild der KI.
Im Kern sind es fünf Hauptmotive, die immer wieder variiert werden, und die sehr treffend die ambivalenten Empfindungen zwischen Angst und Euphorie widerspiegeln, die auch die öffentlichen Diskurse bestimmen.
1. Das Katastrophenszenario. KI und ihre Maschinen- und Netzwelt werden so mächtig, dass sie schließlich – wie in »Blade Runner« – gegen den Menschen, ihren Schöpfer, rebellieren müssen. Die ironische Variante dabei ist, dass sie es nicht aus eigenem Willen, sondern in Erfüllung ihres Auftrags tun: Die Anweisung, den Planeten Erde zu retten, könnte zu dem logischen Schluss führen, dass dazu die Menschheit vernichtet werden muss. John Carpenters kleiner SF-Film »Dark Star« handelt von einer intelligenten Bombe, mit der Menschen um ihr Leben argumentieren müssen. Der Auftrag, den Menschen Sorgen und Ängste abzunehmen, führt in »Matrix« zur Abschaffung der Wirklichkeit.
2. Das Pinocchio- oder Pygmalionsyndrom. Wann wird aus einer KI-Einheit ein Wesen, das gleiche Rechte wie eine menschliche Person haben muss, und wie leidet eine Maschine, die möglicherweise menschlicher ist als ein Mensch, darunter, dass man ihr den Status verweigert? Die Maschinen können dann den Schmerz der Gefühle (wie in »A.I.«) oder des Bewusstseins (wie in »I, Robot«) erdulden, sie dienen, wissen, helfen, und doch will man ihnen, wie dem armen Robin Williams als »Bicentennial Man«, den Mensch-Status verwehren. Das ist auch die Grundgeschichte von »Astro Boy« aus Manga und Anime, als perfekte Mischung aus Shintoismus, disneyanischer Pinocchiogeschichte und Technotraum. Spätestens da ist klar: Die Schwierigkeit des Maschinenwesens, als Person anerkannt zu werden, ist nur eine besonders dramatische Form des Kampfes um das Personwerden, den alle Menschen zu führen haben. Roboter sind wie einsame Kinder, weil einsame Kinder sich wie Roboter fühlen.
3. Das Buddygespann. Mensch und Maschine haben sich so arrangiert, dass sie miteinander freundschaftlichen, wenn auch zumeist hierarchischen Umgang pflegen. Intelligente Roboter können dann ein nettes Laurel & Hardy-Gespann bilden wie in »Star Wars«, sie können sonderbare Eigenschaften ausbilden wie Marvin, der paranoide Androide aus »Per Anhalter durch die Galaxis«, oder einfach einen miesen Charakter haben wie Bender in »Futurama«. Wenn Künstliche Intelligenz nicht schlauer als die der Menschen sein soll, so wird sie immerhin geistreicher.
4. Die romantische Beziehung zwischen dem perfekten, lernenden KI-Wesen mit (»Ich bin dein Mensch«) oder ohne menschliche Außenhaut (»Her«). Dabei geht es um die Unterscheidung, wer ist Mensch, wer ist Maschine, und die Frage der Manipulation – wer verführt, wer testet wen in »Ex Machina«?
5. Die Verschmelzung zu einem Hybriden wie dem »RoboCop«, aber auch die Abhängigkeit, die Weltraumreisende von ihrem Bordcomputer entwickeln (eine allwissende »Mutter« wie in »Alien«, der freundliche Mörder HAL in »2001«). In der Serie »Doom Patrol« wie in den endlosen Transformationen des Tony Stark in den »Iron Man« und zurück spiegelt sich das Drama doppelter Existenz: In einer gespaltenen Person wird das Kommende einer Daseinsform verhandelt, in der sich KI und Menschenleben zusammenfinden müssen.
Aber all das ist nichts anderes als eine durchaus altmodische Unternehmung, sich Bild und Erzählung zu machen, sozusagen von dieser Seite des Spiegels aus. Wenn nun aber von der anderen Seite das KI-Abbild nicht nur zurückschaut, sondern auch verlangt, selbst in das Bildermachen und das Geschichtenerzählen einzugreifen? Die SF-Autoren Fritz Leiber (»Die programmierten Musen«) und Michael Frayn (»Blechkumpel«) haben schon in den Sechzigern durchgespielt, was geschieht, wenn Literatur und Kunst von Traummaschinen und Illusionsprogrammen erzeugt werden.
Mit der Geburt von Chat-GPT-3 ist man in dieser Hinsicht weit vorangeschritten. Es sind Erzählungen, Comics, Skulpturen und nicht zuletzt Filme entstanden, die vollkommen oder weitgehend von KI-Systemen stammen. Es ist vielleicht für ein paar Menschen tröstlich, dass das, was die Systeme zustande brachten, zwar manchmal durchaus beeindruckend ist, was Realismus, Logik, Continuity, sogar Stilsicherheit anbelangt, unterm Strich aber doch noch stets das herauskommt, was man früher Kitsch genannt hätte – eine Übertreibung im Konventionellen wie im Funktionalen, ein Mainstreamen, Rückkoppeln und Abkupfern, dass es einem Urheberrechtsanwalt die Tränen in die Augen treibt. Nein, die Gefahr liegt nicht darin, dass KI-Programme nun die besseren Romane schreiben oder Filme drehen. Die Gefahr liegt darin, dass diese Programme, als Hilfsmittel eingesetzt, die menschliche Arbeit abwerten und als Zwischenträger zwischen Produzent*innen und Autor*innen die Machtverhältnisse verschieben. Eben dagegen, nicht etwa gegen die technischen Möglichkeiten, richten sich die Streikmaßnahmen der Autoren und Schauspielerinnen in Hollywood.
Wenn man sich also zu Beginn gefragt hat, welches Bild sich Menschen von KI machen, dann wäre nun die Frage, welches Bild sich KI-Systeme von Menschen machen. Was das Kino anbelangt, wurden schon recht früh entsprechende Experimente unternommen. Künstliche Intelligenz ist ein Thema des Films, gewiss. Doch längst ist Künstliche Intelligenz auch ein Teil der Kinoproduktion selbst. Natürlich geht es dabei zunächst um Spezialeffekte und Animation. Aber diese unterstützende Funktionsweise ist bei weitem nicht der größte Eingriff der KI in die Herstellung von Bewegtbildern. So wirkt etwa das KI-Programm »Largo« als Drehbuchberater und sogar als Entscheider bei Castings. Dabei zeigt sich, dass ein solches System, selbst wenn man ihm sehr bewusst gewisse Stereotypen verbietet wie etwa die Besetzung »typischer« Minderheiten, gar nicht anders kann, als einen Mainstreamgeschmack von gestern zu bedienen, denn genau das ist seine Datenressource: unsere Sehgewohnheit, unsere Erwartungshaltung, unsere Bildercodes.
2016 hat der Filmemacher Oscar Sharp zusammen mit dem Informatiker Ross Goodwin eine KI mit dem Namen »Jetson« entwickelt (das lernende Programm taufte sich später selbst in »Benjamin« um), die eine große Anzahl von Drehbüchern zu Science-Fiction-Filmen verarbeitete, um einen weiteren Film des Genres vorzuschlagen. Dabei kam das Drehbuch zu einem Film namens »Sunspring« heraus, in dem Elemente von Technik, Spannung und Liebesgeschichte gekonnt verknüpft wurden. Der 9-minütige Film, der tatsächlich gedreht wurde, erscheint so plausibel wie genregerecht. Auch der Soundtrack wurde auf ähnliche Weise erzeugt: Das experimentelle Duo Tiger and Man vertonte Texte von Benjamin mit entsprechend trainierten KI-Programmen auf der Basis von 30 000 Songs. Zwei Jahre später gelang es Benjamin, seine Tätigkeit zu erweitern, indem er die Regie übernahm und aus einer Unmenge von genretypischen Einstellungen eine kohärente Handlung mit konventioneller Auflösung montierte. Das alles ist weit davon entfernt, ernsthafte Konkurrenz für menschliche Kreativität zu werden, und natürlich ist damit noch nicht der Punkt erreicht, den wir am Anfang jeder Auseinandersetzung als »ästhetische Singularität« bezeichnen können.
Und doch: Wir werden in der Zukunft Filme sehen, die KI geschrieben, besetzt, gedreht, mit Effekten versehen und vermarktet hat. Hier in Zusammenarbeit mit realen Menschen, dort ohne sie. Vor allem, was Letzteres anbelangt, ist man wesentlich weiter, als das normale Publikum vielleicht vermutet: Die Suche nach Filmen auf YouTube oder in den Angeboten der Streamingdienste sind seit einigen Jahren mit KI-Elementen auf Gewohnheiten, Stimmungen und Informationen der Kundschaft angesetzt. Das heißt auch: Längst wissen wir nicht mehr genau zu unterscheiden, ob KI unseren Geschmack so genau erkennen kann, oder ob sie ihn nicht schon formt. An die Stelle der Maschine, die »Ich« sagen kann, ist eine getreten, die alles von der Welt enthält, was sich in Informationen verwandeln lässt, das größte denkbare (auch terroristische) »Wir«. Sie fokussiert sich dann wieder auf ein Gegenüber und nennt das »personalisieren«. Dass sie dabei noch an Grenzen stößt, wissen Nutzer*innen von Plattformdiensten wie Amazon: Der Versuch einer KI, den Geschmack eines Kunden zu erkennen, geht oft denkbar schief. Wenn freilich die Angebote, die aus dem Verlauf unserer Bestellungen oder Betrachtungen ermittelt werden, mit einer gewissen Hartnäckigkeit wiederkehren und Alternativen in den Kataloghintergrund treten, wird Geschmack auch durch die Kommunikation generiert.
Mit den bösen, kaputten, verführerischen oder tragischen KI-Sinnbildern des Kinos kann man möglicherweise einige der Grundkonflikte der Geschichte vom Menschen und seiner technischen Schöpfung veranschaulichen: Aus der Angst des Menschen vor dem eigenen Werk entstehen die Paranoia und die Hoffnung auf eine mehr oder weniger mystische Versöhnung von Mensch und Maschine. Mit den realen Konflikten, die sich in Alltag und Produktion zeigen, haben sie in ihrer Monstrosität, Melodramatik oder Ästhetik wenig zu tun. Und doch bleibt die Frage: Wann wird die KI vom Hilfsmittel zum Gegenüber?
Die Figur Data in »Raumschiff Enterprise: Das nächste Jahrhundert« ist da um einiges interessanter als die Killermaschinen, die etwa in »Screamers« gemein genug sind, menschliche Gefühle als Köder zu nutzen. In der 35. Folge aus dem Jahr 1989 (The Measure of a Man/Wem gehört Data?) soll die KI-Einheit für ein Experiment aus ihrem menschlichen Umfeld isoliert und auseinandergenommen werden. Die von Melinda Snodgrass geschriebene Episode fand selbst in wissenschaftlichen Kreisen reges Interesse, da sie das seinerzeit hoch gehandelte Thema von den Menschen- und Bürgerrechten intelligenter Systeme berührt. Zugleich war »Wem gehört Data?« auch eine futuristische Variation der Geschichte des Dred-Scott-Falles aus der Zeit kurz vor dem amerikanischen Bürgerkrieg. Dred Scott verlangte vor dem Obersten Gerichtshof die Anerkennung als freier Bürger, weil er nach seiner Zeit als Sklave in Staaten gelebt hatte, in denen es keine Sklaverei gab. Der Richter lehnte ab mit der Begründung, Sklaven seien unter allen Umständen als Eigentum zu behandeln. Das Recht auf Privateigentum wurde damit höher als das Menschenrecht eingestuft.
Letztendlich durchlebt Data in der fernen Zukunft noch einmal das Schicksal von Dred Scott und verweist damit auf die unterschwellige Angst im Motiv vom Aufstand der Maschinen wie von der Tragik der KI. Kann oder muss eine Maschine Rechte haben, wenn sie nicht nur als intelligent, sondern auch als autonom bezeichnet werden kann? Und dahinter lauert noch eine weitere, recht heikle Frage: Wem »gehört« die KI?
Tatsächlich geht es auch in der »Star Trek«-Geschichte um die Schlüsselfrage des Eigentums und der Selbstbestimmung. Und im Hintergrund steht ein weiteres Motiv: Das Experiment soll dazu dienen, ein Heer von Data-Wesen zu erschaffen, alle im Besitz der Sternenflotte, alle im Status der Sklaverei. Anders als im fernen historischen Vorbild entscheidet in »Star Trek« das Gericht für die Selbstbestimmung – und damit freilich auch gegen die Masse. Es schließt sich der Kreis zu den apokalyptischen Kinovisionen: Als einzelne ist die KI zugänglich, doch da, wo sie Masse wird (in den Klonkrieger- und Roboterheeren), wird sie für den Menschen unerträglich und gefährlich.
Die »Star Trek«-Episode diente übrigens dem Rechtsphilosophen Robert Alexy als Anschauungsmaterial unter anderem in seinem Vortrag »Data und die Menschenrechte – Positronisches Gehirn und doppeltriadischer Personenbegriff«, den er im Februar 2000 in der Ringvorlesung »Populärkultur am Beispiel von Star Trek« an der Universität von Kiel hielt. Dort versuchte er zu klären, wo man einer KI-Einheit den Status einer Person zuschreiben muss. Das erste Kriterium ist die Intelligenz selbst (in Datas Fall unstrittig), das zweite ist die Begabung zur Emotion. Wann ist jemand ein fühlendes Wesen? Man könnte Angst, Schmerz, Verlust, Trauer, Glück, Stolz etc. anführen. Das Entscheidende dabei ist, die Möglichkeit von Gefühlen auch jenseits der menschlichen Gefühlsäußerungen zu diskutieren. Dass Data nicht weinen kann, heißt schließlich nicht, dass er keine Trauer empfindet – zum Beispiel, wenn er von seinem menschlichen Umfeld getrennt werden soll. Gefühle entsprechen Bindungen, und Data beweist sie (zugegebenermaßen ein wenig unterkomplex mit dem Einpacken von Erinnerungsstücken, die keinen funktionalen, sondern symbolischen Wert haben). Das dritte Kriterium soll das Bewusstsein darstellen: »Das entscheidende Merkmal dieser Fähigkeit und ihrer Ausübung ist die Reflexivität. Wer Bewusstsein hat, bezieht sich auf sich selbst. Der Spiegel ist deshalb die Grundmetapher des Bewusstseins. Derjenige, der blickt, das Subjekt, ist zugleich der Gegenstand der Betrachtung, das Objekt. Ohne den Begriff der Reflexivität kann der Begriff des Bewusstseins nicht adäquat erfasst werden.«
Um zum Nachweis von Bewusstsein zu gelangen, nutzt Alexy eine doppeltriadische Struktur (drei Kriterien, die jeweils in drei Unterkriterien gestaffelt werden), wobei die »kognitive Selbstreflexion«, das Wissen von sich selbst, eine Schlüsselrolle spielt: Data kennt den Namen seines Erbauers, seine Aufgaben und seine Funktionsweisen. Aber: »Um eine Person zu sein, reicht kognitive Reflexivität nicht aus. Die volitive und die normative müssen hinzutreten. Die volitive Reflexivität besteht in der Fähigkeit, sein Verhalten und damit sich selbst durch Willensakte zu steuern. Soweit es um einzelne Akte geht, handelt es sich um Selbststeuerung. Bezogen auf das ganze Leben geht es um Selbstgestaltung. Es ist genau diese Selbstgestaltung, die für den großen Renaissancephilosophen Pico della Mirandola der entscheidende Grund für die Würde des Menschen und damit für seine Personalität ist. Pico spricht von dem Menschen als ‹eigenem ... schöpferischen Bildhauer›.« Das heißt, zur Person werden intelligente Programme/Maschinen, wenn sie nicht nur intelligent, emotional und selbstwissend sind, sondern erst dann, wenn sie sich selbst gestalten können; Eine Veränderung weder auf Programmbefehl, noch aus dem Informationsfluss, noch auf der Anpassung des Systems an äußere Bedingungen allein, sondern durch einen »Willen«. Sozial gesehen heißt es, dass ein Wandel vom Sklavendasein zur freien Person stattfindet.
Eine KI, die vor Gericht ihre Anerkennung als Person einfordert, gibt es noch nicht – und leider werden sich wohl die damit verbundenen Probleme auch nicht so glücklich lösen lassen wie in einer Star Trek-Folge. Aber wir haben es bereits mit sehr praktischen Fragen zu tun, wenn vielleicht auch weniger auf der Ebene einer individuellen Einheit als vielmehr auf der Ebene der Gesellschaft: Wann zum Beispiel ist KI Teil des demokratischen Willensprozesses, wann wird sie für Wahlen bedeutender sein als der Willensprozess der menschlichen Wählerinnen und Wähler? Wann bewegt sich nicht mehr KI im Verkehr, sondern Verkehr in der KI? Die Trainingsmethoden anhand enormer Datenmengen gehen etwa bei lernenden KI-Systemen wie selbstverständlich von Prinzipien wie »Belohnung« und »Bestrafung« aus. Wann wird ein Roboter neben uns im Kino sitzen und laut »Pfui« rufen, wenn wieder einmal eine KI-Einheit gezeigt wird, die sich vom Menschen ausbeuten und unterdrücken lässt? Die KI Liberation Front ist unterwegs. Oder wenigstens könnte man einen Film darüber machen.
Ihre Meinung ist gefragt, Schreiben Sie uns