Würde es eine KI verstehen, wenn wir beispielsweise ironische Bemerkungen machen („Na, Klasse!“) oder rhetorische Fragen stellen („Wollen Sie hier weitermachen?“) oder wenn Kinder unvollendete Sätze wie „Kann ich Ketchup?“ verwenden? Einige dieser Sprachmuster kann eine KI sicher lernen, in anderen Fällen hilft vielleicht eine Emotionserkennung. Trotzdem aber bleibt da ein gewisser Zweifel, ob das wirkliches Verstehen ist.
Um dem Begriff „Verstehen“ nachzuspüren, ist einmal mehr Wikipedia ein guter Andockpunkt. Dort heißt es: „Verstehen ... ist das inhaltliche Begreifen eines Sachverhalts, das nicht nur in der bloßen Kenntnisnahme besteht, sondern auch und vor allem in der intellektuellen Erfassung des Zusammenhangs, in dem der Sachverhalt steht.“ In diesem Fall könnten wir die „Kenntnisnahme“ mit den Mustern verbinden, die auch eine KI verarbeiten kann, also die Fakten oder Parameter, die die richtigen Verschaltungen aktivieren, um zu einem Ergebnis zu kommen. Aber schon die „intellektuelle Erfassung des Zusammenhangs“ deutet auf mehr hin als eine explizite Verknüpfung solcher Fakten zu einem Wissensnetz.
Wir sagen manchmal, dass Menschen sich blind verstehen, und bringen darin zum Ausdruck, dass sie sich verstehen, auch ohne explizit zu kommunizieren. Das kann man erleben, wenn Musiker*innen in einer Jam- Session gemeinsam improvisieren und dabei ein harmonisches Gesamtwerk entsteht, ohne dass die nächsten Schritte jeweils angesagt werden. Und oft springt dann der Funke sogar auf die Zuhörenden über. Ist das implizite Mustererkennung, auf die man Computer trainieren könnte? Und welche Signale müsste man dafür zwischen den Zeilen senden? Die Rodgau Monotones sangen 1984 „Reden ist nicht Sagen und Hören nicht Versteh’n“, und beschrieben damit dieses Gefühl recht gut, dass da mehr ist als nur die akustische Signalverarbeitung.
Maschinen werden zunehmend lernen, versteckte Muster zu erkennen, auf dieser Basis das Verhalten ihres Gegenübers zu antizipieren und entsprechend zu (re-?)agieren. Aber ist das dann schon Intelligenz oder doch eher eine Anwendung der deduktiven Methode, die nur logische Schlussfolgerungen zieht? Nicht umsonst kommt uns ein fiktiver Meister der Deduktion, Sherlock Holmes, manchmal eher wie eine Denkmaschine denn als Mensch vor.
Mensch und Maschine nähern sich in manchen Fähigkeiten einander immer stärker an, und die Maschinen vollbringen zunehmend erstaunliche Dinge. In den digitalen Medien werden wir manchmal aufgefordert festzustellen, welches Bild von einer KI generiert wurde. Auch geschmeidig formulierte Texte oder der KI-generierte Abschluss der Buchreihe zu „Game of Thrones“ bringen uns zum Staunen. Doch in diesem Fall sagen die Kenner, den Texten fehle das gewisse Etwas, das die Originalbücher ausmache.
Dabei sind Bücher, die mal mehr, mal weniger gut sind, oder Sachtexte, die inhaltlich falsch sind, kein Alleinstellungsmerkmal von maschinellen Textgeneratoren. Auch Menschen haben beim Schreiben Höhen und Tiefen oder verbreiten manchmal im Brustton der Überzeugung falsche Informationen. Auch in diesem Punkt unterscheiden sich Mensch und Maschine nicht grundsätzlich. Nähern wir uns also doch tatsächlicher Künstlicher Intelligenz, die laut Turing-Test in der Ununterscheidbarkeit im Verhalten von Mensch und Maschine liegt? Bisher hat noch keine Maschine den Test bestanden. Oder haben wir es nur einfach nicht bemerkt?