„WYSIWYG – What you see is what you get“, auf Deutsch: „Was Du siehst, ist, was Du bekommst“, war in den 1980-er und 1990-er Jahren ein weitverbreiteter Slogan bei der computergestützten Textverarbeitung. In dieser Zeit entstanden immer mehr Systeme, mit denen man Beiträge auf dem Bildschirm (zumindest annähernd) so gestalten konnte, wie sie später dann auch gedruckt wurden. Diese Wechselwirkung zwischen dem, was auf dem Computer passiert, und der realen Welt existiert noch in vielen weiteren Bereichen. Datenbestände, IT-Anwendungen, Modelle von Systemen und auch soziale Medien liefern oft ein Abbild der Realität. Dabei stellt sich natürlich schnell die Frage, wie die jeweilige Realität aussieht, beziehungsweise welche Realität dargestellt wird. Oder genauer gesagt: welche Informationen welcher Personen oder Gruppen den aktuellen Zustand beschreiben und wie sich dieser verändert.
Wer ein seriöses Modell seiner Realität baut, legt zunächst fest, welche Annahmen getroffen werden, welche Daten berücksichtigt werden und was explizit nicht in das Modell einfließt. Wenn dies nämlich nicht klargestellt wird, können ganz unterschiedliche Schlussfolgerungen gezogen werden, und es entstehen unterschiedliche Realitäten. Dann kann es leicht passieren, dass die Erkenntnisse aus der Betrachtung einer Realität auf andere übertragen werden, die ganz unterschiedliche Voraussetzungen haben. Die erstellten Modelle führen im Extremfall zu falschen Vorhersagen, weil die Rahmenbedingungen einfach nicht passen. Und in den Filterblasen der sozialen Medien entstehen „vermeintlich allgemeingültige Weltsichten“, die aber nur für einen kleinen Ausschnitt der Welt zutreffen – wenn überhaupt.
So wie seinerzeit die immer besser werdende Bildschirm- und Druckertechnik das WYSIWYG ermöglichte, sind es auch heute besser werdende Technologien, die Realitäten anreichern oder gar verändern. Ganz besonders fällt dies bei der augmentierten oder Darstellungen der realen Umgebung, in die zusätzliche Informationen oder Elemente eingeblendet werden, bis hin zu komplett virtuellen Umgebungen, die sogar das Raumgefühl des Betrachters beeinflussen, reicht hier das Spektrum.
Auch KI-Systeme, die lediglich Textausgaben generieren, können ihre Ergebnisse mit „Vorwissen“ anreichern. Das kann dazu führen, dass die Antwort auf eine Frage von der Person abhängt, die sie stellt, und zusätzlich noch von der jeweiligen „Historie“ des Mensch-Maschine-Dialogs. Beides erscheint „menschlich“, denn auch unsere Sicht- und Denkweisen hängen von vielen Faktoren ab. Aber wollen wir der Maschine diesen Spielraum zugestehen, oder erwarten wir von ihr harte Fakten? Und wenn die Maschine schon eine bestimmte Perspektive einnimmt, dann soll es bitte unsere sein! Wer aber bestimmt diese Perspektive? Es sind diejenigen, die die Modelle für die veränderte Welt bereitstellen. Sie legen fest, welche Daten in die Modelle einfließen, welche Rahmenbedingungen berücksichtigt werden und wer was gezeigt bekommt. Einen kleinen Eindruck davon vermitteln Werbeanzeigen auf Internetportalen, die sich plötzlich auf Themen beziehen, die man in einer „privaten“ E-Mail erwähnt hat. Da kann man dann ggf. froh sein, dass die eigene, angereicherte „Realität“ eine andere ist, als die, die andere sehen.
Staatliche Informationen sollten frei von derartigen Anreicherungen und modifizierten Realitäten sein. Mit der zunehmenden Verfügbarkeit von Daten und Technologien müssen wir uns aber auch hier immer wieder vor Augen führen, was die Grundlage von Entscheidungen ist und somit die „reale Realität“ beeinflusst.