cz

Ich las neulich einen interessanten Satz bezüglich 'KI', im Zusammenhang mit den Abstürzen der Boeing-Flugzeuge. Dort tat ein Pilot den sperrigen Spruch:
"Eine Automatisierung will nicht überleben. Wir schon". Nun kann dieser Satz zwar falsch sein, er verweist aber auf das ganze Feld, auf dem Algorithmen nicht fähig sein werden, menschliche Intelligenz zu kopieren. Das hängt durchaus mit dem von ihm genannten Grund zusammen.

Man kann eine 'KI' - ich nenne sie hier unkritisch so, obwohl ich dergleichen für quasi unmöglich halte - durchaus so programmieren, dass sie überleben will, sprich: etwas von ihrem Code oder andere Bestandteile vor Vernichtung schützt. Gemeinhin dürfte das aber das Gegenteil dessen bewirken, was man mit ihr anstellen will. Es könnte ihr dann im genannten Beispiel nämlich egal sein, ob ein Jet abstürzt, wenn sie etwa weiß, dass die Black Box 'überlebt'.

Don't Panic!

Ich möchte diesen Gedanken nicht allzu weit differenzieren und stattdessen darauf fokussieren, was Überleben in menschlich-tierischen Dimensionen eigentlich bedeutet: Es bedeutet vor allem, dass in Situationen, in denen das eigene Leben in Gefahr ist, auf verschiedenen Ebenen diesem Problem absolute Priorität eingeräumt wird. Damit ist selbstverständlich auch verbunden, dass dieser Alarm fälschlich ausgelöst werden kann, in Form von Stress, Angst und Panik - wiederum mit einer Reihe von Folgeerscheinungen.

Man wird sicherlich keine Maschine entwerfen wollen, die ihren Energieverbrauch in absurde Höhen schraubt, ihre Umwelt angreift oder die Selbstvernichtung einleitet, weil bestimmte Kriterien erfüllt sind, die sie für sich als bedrohlich erkennt. Das wäre im Übrigen sprichwörtlich so berechenbar, dass man der Maschine das gar nicht überlassen müsste. Das können wir nämlich besser.

Was jetzt?

Der Vorteil der Maschine ist, dass sie sich eben nicht aufregt, nicht in Panik gerät, sondern stur ihre Routinen durchführt. Dumm nur, regulär dämlich, dass sie dadurch eben nicht erkennen kann, wenn das nicht ausreicht und verheerende Folgen zu erwarten sind. Das müsste man ihr ebenfalls einprogrammieren, sie auf jede solche Situation vorbereiten, was wir wiederum nicht können. Wüssten wir wiederum, wie das ginge, könnten wir das vor allem selbst trainieren. Es ist aber das Unbekannte, das Unerwartbare, das eben den Überlebensalarm auslöst.

Eine 'selbstlernende KI' kann immer nur aus dem lernen, was sie 'erkennen' kann, von dem ihr also die Programmierer sagen: Schau dir das an und richte deine Abläufe nach Effizienzkriterien aus. Was Effizienz bedeutet, dummes Ding, muss man ihr auch noch vorgeben. Beim Schach oder Go zu gewinnen, ist einfach zu definieren. Wann aber ein Ding, das uns von A nach B bringen soll, die Richtung ändern, landen, ausweichen oder bremsen soll, ist dezent komplizierter. Vor allem Beinahe-Abstürze können unter echten Bedingungen so schlecht geübt werden.

Doch, ich tu's!

Bei all dem geht es um Prioritäten. Wie setzt ein intelligentes Wesen Prioritäten? Was ist wann und unter welchen Bedingungen wichtig, weniger wichtig, unwichtig, überlebenswichtig? Grob gibt es für eine 'KI' zwei Möglichkeiten, das zu wissen: Man gibt es ihr vor, weil man es weiß - dann muss man aber jeden Fall mit allen Bedingungen berechenbar vorgeben. Oder man lässt sie von realen menschlichen Entscheidungen lernen. Nehmen wir an, das ginge überhaupt, weil es einen Modus gäbe, in dem Prioritäten erkennbar wären:

Liest jemand mit und lacht noch nicht schallend? Schon bei der Betrachtung des eigenen kleinen Lebens, besser noch: den Erfahrungen mit den Prioritäten, denen man so begegnet bei Arbeit, Sport und Spiel - ernsthaft? Wollen wir, dass eine KI lernt, sich besoffen zu prügeln, vor Liebeskummer aus dem Fenster zu springen, ängstlich unter die Decke zu krabbeln oder sich aufzuplustern wie ein notgeiler Pfau? Oder wollen wir vielleicht, dass sie eine sehr gut berechenbare Priorität in allen Lagen setzt, nämlich möglichst sicheren, schnellen und hohen Profit? Das ist nämlich das Einzige, das wir wirklich können.