Deus Ex Machina?

KI ist derzeit nicht nur in der IT-Fachwelt in aller Munde, Sie hat inzwischen Einzug in den Alltags-Sprachgebrauch gefunden. Die Technik des machine-learning, wie es in IT-Fachkreisen eher gebräuchlich ist, unterstützt uns schon in einigen Lebensbereichen.

Inform_Awareness_Fotolia_60478671_XXL_blau_minus_Artikel.jpg

Inform Awareness Bildmotiv Artikel

So gibt es heutzutage Fahrassistenz-Systeme, die nahe an das hohe Ziel des autonomen Fahrens heranreichen. Intelligente Chatbots sind so weit entwickelt, dass man teilweise gar nicht mehr merkt, wenn man mit einer Maschine statt mit einem Menschen kommuniziert. Seit Googles KI Alpha Go Mitte 2017 den Großmeister im Chinesischen Go (einem strategischen Brettspiel für zwei Spieler*innen) erfolgreich schlug, gibt es auch kein Spiel mehr, in dem Menschen einen hochspezialisierten machine-learning Algorithmus schlagen könnten. Erstaunlich: Der Computer brachte nach einer für menschliche Maßstäbe unglaublich kurzen Lernphase den Meister durch eine nach herkömmlichen Go-Mustern irrationalen Spielstrategie zu Fall. Erstaunlich ist das deswegen, da wir bislang Maschinen eine absolute Rationalität zugeschrieben haben. Dies gilt jedoch nicht mehr für neuronale Netze (Bezeichnung für die zentrale Lerneinheit einer KI). Nach dem Lern-Prozess kann niemand mehr die Rechenwege eines Verarbeitungsprozesses vorhersagen  und möglicherweise ein Ergebnis ausgegeben werden, das auf den ersten Blick nicht logisch oder rational begründbar scheint.

Diese irrationale Verarbeitungslogik scheint jedoch das Erfolgsrezept von KI zu sein, und so wundert es niemanden, dass KI inzwischen auch in der Cybercrime und deren Abwehr Fuß gefasst hat.

Derzeit wird KI hauptsächlich für die Automatisierung von Angriffen genutzt. Sogenannte Schwachstellen-Scans untersuchen heute schon Systeme im Internet automatisiert auf Verwundbarkeiten. Wenn KI mit hinzugenommen wird, steigt der Automatisierungsgrad. Z.B. können deep-learning Algorithmen inzwischen schon recht gut die Zeichenfolgen aus Captchas erkennen und an der richtigen Stelle reproduzieren. Bessere Systeme schaffen sogar die Objekterkennung aus Bild-Captchas.

Sogenannte deepfakes setzen gleich an zwei unterschiedlichen Angriffspunkten an:

  • Zum einen können IT-Trolle damit leichter Falschinformationen verbreiten, indem sie Personen Worte in den Mund legen, die diese nicht gesagt haben.
  • Zum anderen können damit biometrische Authentisierungsverfahren wie die Stimmmuster-Erkennung unterlaufen werden.

Mit KI werden gezielte Phishing-Angriffe möglich. Es gibt neuronale Netze, die z.B. Twitter-Feeds durchsuchen und analysieren. Durch den persönlichen Bezug der von der KI erstellten E-Mails fallen signifikant mehr Twitter-User auf diese Betrugsversuche herein, als ohne.

Auf der anderen Seite stehen Systeme, die in der Bekämpfung von Cyber-Crime unterstützen. In erster Linie geht es hierbei um Muster-Erkennung. Diese kann auf unterschiedliche Bereiche der IT angewendet werden. So gibt es Systeme, die auf Muster von Virensignaturen trainiert werden, andere Systeme werden auf typische DDOS-Muster trainiert und in Next Generation Firewalls zur DDOS Mitigation verwendet. Eine ganz neue Art von Gateway scannt den laufenden Datenstrom von eingehendem Netzwerk-Verkehr auf Angriffs-Muster und blockiert den Traffic im Ernstfall. Ein weiteres breites Spektrum tut sich in der Unterstützung bei der Datenanalyse im Big Data-Umfeld auf. Vor allem bei der Objekt-Erkennung in Bild-Daten wird diese Form der KI derzeit erfolgreich genutzt.

Das mag für den einen oder anderen erschreckend wirken, allerdings werden wir diese Entwicklung nicht mehr zurückdrehen können, denn Angriffe durch „intelligente“ Systeme erfordern nun mal adäquate Antworten.

Hessen-Suche