Ich war niemals ein Fan von Zufall. Bereits in der Schulzeit mochte ich den Stochastik-Unterricht am wenigsten – aber hatte seltsamerweise immer halbwegs gute Noten darin erhalten. Doch das scheint auch anderen so zu gehen. Nicht umsonst ist ein berühmtes Zitat von Albert Einstein überliefert, nach dem Gott nicht würfele.

Gott würfelt nicht, Monte Carlo aber schon

In einem Beitrag beim "Deutschlandfunk" wurde das Zitat zum Thema und widmete sich dem Zufall und der schwierigen Berechnung desselben. Um genau zu sein, ging es um Zufallsalgorithmen und die sogenannte Monte-Carlo-Simulation. In der praktischen Anwendung bei Informatik und Computerwissenschaft werden diese Zufallsberechnungen häufig mit dem Monte-Carlo-Algorithmus, selten auch als Las-Vegas-Algorithmus bezeichnet (eigentlich ein Untertyp), berechnet.

Bei der Berechnung ist ein Monte-Carlo-Algorithmus eine zufällige Wahl, dessen Ausgabe mit einer bestimmten (typischerweise geringen) Wahrscheinlichkeit falsch sein kann. Las-Vegas-Algorithmen sind die Teilmenge der Monte-Carlo-Algorithmen, die immer die richtige Antwort liefern. Da sie im Rahmen ihrer Arbeit zufällige Entscheidungen treffen, kann die Zeit zwischen den Läufen selbst bei gleicher Eingabe variieren.

Zufälle sind wichtig. In der Genetik bestimmen zufällige Gen-Rekombinationen eine Mutation und damit Weiterentwicklung eines Wesens, beim Glücksspiel sind Zufälle entscheidend und auch in der Gaming-Industrie oder bei Social Media für die Newsfeedauswahl oder Empfehlungen findet der Zufall Anwendung. Nicht zuletzt für Datenschutz und Datensicherheit sind zufällige Berechnungen wichtig, denn sie ver- und entschlüsseln. Zufälligkeitsberechnungen haben viele Namen, doch ob nun Zufalls- oder Chaostheorie, das Komplizierte ist, echte Zufälligkeit herzustellen.

Foto: Reuters

Computer haben ein Problem mit Zufallsberechnungen

In der Realität sind die meisten in Computerprogrammen verwendeten Zufallszahlen pseudozufällig, das heißt, sie werden auf vorhersagbare Weise unter Verwendung einer mathematischen Formel erzeugt. Dies ist für viele Zwecke in Ordnung, aber für echte Zufallszahlen wie in Lotterien, bei Würfelspielen oder randomisierten wissenschaftlichen Experimentanordnungen sind diese pseudozufälligen Zahlen ungeeignet.

Computer haben ein gewaltiges Problem mit Zufallsberechnungen. Die meisten Zufallszahlen, die von beliebigen Programmen oder Online-Tools erzeugt werden, sind eigentlich genau das nicht: zufällig. Programme brauchen eine Systematik. Häufig haben nämlich Zufallsgeneratoren mit Zufällen ihr eigentliches Problem. Und diese gibt es in der Stochastik, bei Gauß'schen Normalverteilungen (was übrigens auch bei Bildbearbeitungsprogrammen wie GIMP Anwendung findet), Lotto, Gewinnspielquoten oder dem berühmten Urnenmodell in der Mathematik. Doch eine realistische Berechnung dieses Zufalls ist schwierig.

Der Supercomputer Alpha Go hat mit Zufallszahlen operiert, um unvorhersehbarere Strategien zu entwickeln. Das hat geholfen. Doch ist das schon KI?

Quo vadis KI?

Die obigen Ausführungen sollen vor allem einen Einblick geben. Denn eine Sache stört mich gewaltig: Gefühlt überall in medialer Berichterstattung, Pressemeldungen von Unternehmen oder sonstigen Veröffentlichungen wird der Begriff künstliche Intelligenz inflationär und zum Teil falsch verwendet. Häufig wissen diejenigen aber nicht einmal, wo der konkrete Unterschied liegt.

Dieses Video versucht einen Ansatz, aber greift schlussendlich auch zu kurz:

explainity ® Erklärvideos

Eine Differenzierung ist notwendig, denn eine echte künstliche Intelligenz stellen diese Systeme allesamt nicht dar. Aus meiner Sicht macht eine Unterscheidung Sinn in künstlich-echte und künstlich-virtuelle Intelligenzen oder kurz: künstliche Intelligenz und virtuelle Intelligenz.

Goldene Zeit der Philosophen?

Echte künstliche Intelligenz existiert nicht - allerdings streiten sich hier die Wissenschaftler und Disziplinen. Der Informatiker sieht es anders als der Mathematiker anders als der Philosoph anders als der Kultur- oder Kommunikationswissenschaftler. Das Problem ist vergleichbar mit der Naturwissenschaft: Physik beschäftigt sich mit den Atomen im Kleinen, Chemie im mittleren und Biologie im großen Maßstab. Alle drei haben einen ähnlichen Fokus, aber teils völlig verschiedene Herangehensweisen.

Aktuell scheint die Ära der Informatiker, also der rein technischen Sichtweise auf diese Systeme, zuneige zu gehen. Gelegentlich habe ich in Diskussionen von der goldenen Zeit der Philosophen gehört - was an sich nicht falsch ist. Der Mensch muss erst verstehen, was er da eigentlich gebaut hat. Mit Verständnis geht auch Akzeptanz und (gelegentlich) Kompetenz einher. 

Künstliche Intelligenz und virtuelle Intelligenz

Ich möchte mit meiner Definition weiter greifen als es andere taten und betrachte es aus einer kommunikativen Perspektive: Es gibt aktuell mehrere miteinander konkurrierende Definitionen. Eine virtuelle Intelligenz (VI) ist ein vorgegebenes Computerprogramm (gelegentlich auch schwache KI genannt). Eine künstliche Intelligenz (KI) ist ein selbstlernendes System (gelegentlich auch starke KI genannt). Das greift mir zu kurz und ich setze hier an:

  1. Eine virtuelle Intelligenz (VI) ist ein System, welches sich durch äußeren Input verbessern kann. Maschinelles Lernen wird gern als KI-Tool gesehen, doch ist nichts anderes als einem System neue Daten für die Berechnung zu geben.
  2. Eine künstliche Intelligenz (KI) ist ein System, welches sich durch äußeren und inneren Input selbsttätig entwickelt.

Die Wortwahl bei der KI ist hier bewusst gewählt: Äußerer Input sind weiterhin neue Datenbestände. Innerer Input ist das, was wir Menschen in der Regel als Nachdenken, Grübeln und Philosophieren bezeichnen. Das System tut das auch selbsttätig und selbstständig, also ohne äußeres Zutun. So wie wir Menschen und auch verschiedene Tiere ohne äußeres Zutun Dinge verändern können oder wollen. Hier ist der sogenannte freie Wille dabei, den höhere Tierarten ebenfalls auszeichnet (aber natürlich philosophisch diskutiert werden kann). Zuletzt ist die Entwicklung neutral zu verstehen.

Eine VI hat eine vorbestimmte Aufgabe und entwickelt sich entlang dieser definierten Linie. Eine KI muss das nicht. Zwei Facebook-Bots mussten 2017 abgeschaltet werden, weil sie eine eigene Sprache zu entwickeln begannen. Das wäre ein Anzeichen von KI, aber hatte im Rahmen des Experiments nicht gepasst.

Der Wechsel von der VI zur KI ist die sogenannte technologische Singularität. Diese ist bis heute nicht verstanden, da sie auch als noch nicht eingetreten betrachtet wird.

Die erschreckende Menschlichkeit von Sprachassistenten

Alexa, Siri und ihre Schwestern. Sprachassistenz-Systeme haben durch die lautliche Artikulation ihres System-Outputs eines geschafft: Uns Angst zu machen. Die Systeme wirken für viele so menschlich, weil sie sprechen können. Auch hier wirkt maschinelles Lernen. Denn einerseits müssen die Systeme nach grammatischen Prinzipien kommunizieren. Das bedeutet Syntax, Kohärenz, Konstituenten, Wortfelder und weiter linguistische Prinzipien müssen erfüllt werden. Das ist ein stringentes System, innerhalb dessen aber erstaunliche Freiheiten bestehen. Hier kommt wieder das Chaos. 

Sprachassistenten müssen in der Lage sein paradigmatisch denken zu können. Ob ein Hund kläfft, bellt, jault oder singt ist manchmal egal, da die Begriffe als austauschbar empfunden werden. Genauso kann ein Dozent ein Seminar, eine Vorlesung, eine Fortbildung, eine Weiterbildung, einen Workshop oder einen Kurs anbieten. Das kann manchmal recht austauschbar sein. Die Systeme müssen innerhalb ihrer dogmatisch vorgegebenen Strukturen kreativ arbeiten können. Kreativität wiederum bedeutet Chaos. Zumindest im kleinen Rahmen.

Fazit: Chaos in der KI? Welche KI denn?

Der aktuelle Stand der Forschung ist uneinheitlich, weil sich die Systeme dafür auch zu schnell ändern. Ein befreundeter Professor aus der Informatik an der Hochschule Anhalt meinte im letzten Jahr zu mir, dass er ein Paper zur KI abkürzen musste, weil schon beim Beschreiben die Daten im Grunde veralteten.

Die Entwicklung zur KI schreitet sehr schnell voran, doch bis heute haben wir keine KI. Vielleicht gibt es die auch niemals. Sicher ist nur, dass das, was in der Wirtschaft gerade unter KI als Hype getragen wird, lediglich algorithmische Computerprogramme sind. Eine Jolle ist eben kein Luxusliner. Doch im KI-Marketing wird das gerade so verkauft.

Ich will auch keine Diskussionen anstoßen um Weltuntergang oder Weltenbrand nach der Singularität. Mir geht es aktuell nur um die Definition und ich freue mich sehr auf Ihr konstruktives Feedback hierzu. (Christian Allner, X.5.2019)

Weitere Beiträge des Bloggers