Lernfähige Netzpatrouille
Von Kai Tubbesing
Die wachsende Anzahl an Cyberangriffen setzt die deutschen Unternehmen unter Zugzwang. Zwischen 2017 und 2019 stieg der jährliche Schaden durch Datendiebstahl, Sabotage und Spionage laut einer Untersuchung des IT-Branchenverbands Bitkom von 55 Milliarden auf die Rekordsumme von 102,9 Milliarden Euro. Gleichzeitig haben sowohl die Menge als auch die Qualität der Angriffe deutlich zugenommen.
Erpressung durch Unterbrechung
In der vernetzten Industrie 4.0 schrillen daher die Alarmglocken. Kriminelle versuchen nicht nur, Kundenkontakte und Datenbestände abzugreifen, Unternehmensgeheimnisse auszuspähen oder einzelne Betriebsabläufe zu stören, sondern können die Produktion sogar vollständig zum Erliegen bringen. Das ist kein rein theoretisches Horrorszenario, wie das Beispiel des Automatisierungsspezialisten Pilz belegt: Nach einem erfolgreichen Ransomware-Angriff am 13. Oktober 2019 musste das zwischenzeitlich arbeitsunfähige Unternehmen sämtliche Netzwerke und Computersysteme abschalten, um eine Verbreitung des Schädlings einzudämmen und die Infrastruktur vor der Wiederaufnahme des Normalbetriebs durch IT-Forensiker bereinigen zu lassen.
Ab Sonntag, 13. Oktober 2019, stand bei der Pilz GmbH & Co. KG in Ostfildern fast vier Wochen lang praktisch alles still. Das Unternehmen musste wegen einer Ransomware-Attacke die IT-Systeme stilllegen und alle Zugänge sperren. (Bild: Pilz GmbH & Co. KG)
Dass die Industrie den Ernst der Lage erkannt hat, hat bereits das Leitthema gezeigt, das sich die Hannover Messe als wichtigstes Trendbarometer der Branche für 2019 gewählt hatte. Mit den Schlagworten „Integrated Industry – Industrial Intelligence“ fassten die Veranstalter die wichtigsten Entwicklungen rund um das Zusammenspiel vernetzter Maschinen und Menschen zusammen. Im Fokus standen die Möglichkeiten, die der Einsatz von künstlicher Intelligenz und maschinellem Lernen im Bereich von Produktionsprozessen, Logistik, Sicherheit und weiteren industriellen Anwendungsfeldern mit sich bringt.
Automatische Anomalieerkennung
Mit seiner Industrial Anomaly Detection (IAD) stellte Siemens bereits zur Hannover Messe 2018 eine Technologie zur frühzeitigen und selbstlernenden Erkennung von Angriffen und Betrugsversuchen vor, die sowohl auf Industrie-PCs als auch in verschiedenen Netzwerkkomponenten des Herstellers zu Einsatz kommt. Nach einer Anlernphase, während derer die Software das Verhalten sämtlicher Steuerungen und Bediensysteme im Unternehmen sowie deren Kommunikation untereinander erfasst und analysiert, ist IAD in der Lage, Abweichungen vom Referenzbetrieb zu erkennen.
Stellt das KI-gestützte Programm eine Anomalie fest, gibt es eine Warnung aus. Dann ist eine Einzelfallüberprüfung durch das Technikpersonal fällig, denn nicht bei jedem Alert handelt es sich um einen Hinweis auf einen Hackerangriff, dem es schnellstmöglich einen Riegel vorzuschieben gilt. Auch geplante Software-Updates oder neu integrierte Fertigungskomponenten stellen zum Beispiel eine Abweichung dar. Siemens selbst sieht IAD allerdings nur als einen von vielen Bausteinen in einer gut abgesicherten vernetzten Produktionsumgebung. Da jedes Sicherheitskonzept nur so stark wie das schwächste Glied in der Kette ist, erinnert das Unternehmen daran, in Security-Fragen grundsätzlich ganzheitlich zu denken.
Diesen übergreifenden Sicherheitsgedanken forciert Siemens unter anderem durch die ebenfalls 2018 initiierte Charter of Trust (CoT). Zu den Unterzeichnern zählen derzeit 17 unternehmerische Schwergewichte, darunter Vertreter aus der Industrie und IT wie Airbus, IBM und Mitsubishi Heavy Industries, aber auch die Digital-Engineering-Forscher des Hasso-Plattner-Instituts. Die Initiative hat sich das Ziel gesetzt, verbindliche Regeln und einheitliche Mindeststandards in puncto Sicherheit zu schaffen, um Schwachstellen by design und lieferkettenübergreifend zu eliminieren.
Mit ihrer Forderung adressieren die CoT-Unterzeichner nämlich ausdrücklich auch die Zulieferer sicherheitskritischer Komponenten wie etwa Prozessoren, Software und elektronischer Bauteile, aber auch die Anbieter von Produkten und Dienstleistungen. Mit kostenlosen Schulungsmaterialien zum Thema Cybersicherheit richtet sich die Initiative zudem an kleine und mittlere Unternehmen (KMU), die das Mammutprojekt ganzheitliche Absicherung oft nicht aus eigener Kraft stemmen können.
Momentan dreht sich alles um ChatGTP. Für die Zeit davor gibt eine Einführung einen ersten Überblick über den Stand der Technologien, die Fortsetzungen skizzieren praktische Einsatzgebiete für KI, insbesondere in der Industrie. Für den Lebenslauf könnten die Ratgeber zur KI-Studienstrategie bzw. zum KI-Studium (auch in Kombination mit Robotik) sowie zum Berufsbild Machine Learning Engineer und zum KI-Manager nützlich sein – aber auch die Übersicht zu den Jobs, die KI wohl ersetzen wird.
Extrabeiträge untersuchen, wie erfolgreich Computer Computer hacken, ob und wann Vorbehalte gegen KI begründet sind und warum deshalb die Erklärbarkeit der Ergebnisse (Stichwort: Explainable AI bzw. Erklärbare KI) so wichtig ist. Hierher gehört außerdem der Seitenblick auf Maschinenethik und Münchhausen-Maschinen. Als weitere Aspekte beleuchten wir das Verhältnis von KI und Vorratsdatenspeicherung sowie die Rolle von KI in der IT-Sicherheit (KI-Security), fragen nach, wie Versicherungen mit künstlicher Intelligenz funktionieren, hören uns bei den Münchner KI-Start-ups um und sehen nach, was das AIR-Projekt in Regensburg vorhat. Ein Abstecher führt außerdem zu KI-Unternehmen in Österreich.
Auf der rein technischen Seite gibt es Berichte zu den speziellen Anforderungen an AI Storage und Speicherkonzepte bzw. generell an die IT-Infrastruktur für KI-Anwendungen. Außerdem erklären wir, was es mit AIOps auf sich hat, und im Pressezentrum des MittelstandsWiki gibt es außerdem die komplette KI-Strecke aus dem Heise-Sonderheft c’t innovate 2020 als freies PDF zum Download.
Unterdessen arbeitet das Fraunhofer-Institut für mikroelektronische Schaltungen und Systeme IMS an Steuerungschips, die dem Trusted-Electronics-Ansatz für vertrauenswürdige Hardware folgen und eine eingebettete KI mitbringen. Diese basieren auf der quelloffenen RISC-V-Befehlssatzarchitektur, das IMS ergänzt die Funktionalität allerdings um die hardwarebeschleunigte Ausführung von KI-Applikationen samt hardwareseitiger Firmware-Verschlüsselung. So können die Chips unter anderem KI-Algorithmen und Lerndaten vor IP-Diebstahl bewahren und ihren Speicherinhalt vor unbefugten Zugriffen schützen.
DeepRay und Graphendatenbanken
Der Cybersecurity-Pionier G DATA in Bochum setzt unter der Bezeichnung DeepRay bereits seit 2018 auf Machine Learning, um kritische Infrastrukturen in Unternehmen zu schützen. Identifiziert die KI-basierte Mustererkennung eine sich verdächtige Datei oder damit in Verbindung stehende Prozesse, erfolgt eine Tiefenanalyse, mit der auch unbekannte oder getarnte Schadsoftware anhand typischer Verhaltensmuster aufgespürt werden soll. Die Grundlage der Mustererkennung ist ein selbstlernendes neuronales Netzwerk, das G DATA fortlaufend mit den aktuellen Bedrohungen trainiert.
Ergänzend steht dieser Funktion eine Anomalieüberwachung mittels Graphendatenbanken zur Seite. Auf abstrakter Ebene bezeichnet ein Graph eine Menge von Objekten sowie deren Verbindungen zueinander. Im Cybersecurity-Kontext dient die Struktur dazu, die Beziehung zwischen Schadcode und dessen sich teils über Wochen erstreckenden Prozessschritten zu analysieren, in deren Abfolge der Schädling etwa Änderungen am Betriebssystem vornimmt, um sich unbemerkt immer tiefer einzunisten.
Die Graphendatenbank zeichnet sämtliche Prozesse und deren Zusammenhang auf und erlaubt eine tiefgehende Analyse langwieriger und komplexer Zusammenhänge, die gründlicher ausfällt als die Klassifikation eines isolierten Prozesses als potenziell gefährlich oder ungefährlich. Stefan Hausotte, Teamleiter für automatische Bedrohungsanalyse im Bereich Protection Technologies bei G DATA CyberDefense erklärt das so:
- „Maschinelles Lernen zur Erkennung von schädlichem Verhalten hat in den vergangenen Jahren an Bedeutung gewonnen, da Angreifer ihre Tools oft wechseln, jedoch die Vorgehensweise ähnlich bleibt. Dies ermöglicht es uns durch eine Graph-Repräsentation von Verhalten, automatisch eine Unterscheidung zwischen gutartigen und schädlichen Aktionen zu treffen und entsprechend zu schützen. Da Schadsoftwareverhalten sich sehr gut als Graph abbilden lässt, verlieren wir weniger Informationen beim Machine Learning als klassische Verfahren, bei gleichzeitig einfacher Nachvollziehbarkeit.“
Muster im Kreditkartenbetrug
Auch beim Zahlungsverkehr schickt sich künstliche Intelligenz an, für mehr Sicherheit zu sorgen. Die Schweizer UBS Card Center AG etwa setzt auf die KI-basierte Fico-Falcon-Plattform, um den gängigen Maschen von Kreditkartenbetrügern auf die Schliche zu kommen. Machine-Learning-Algorithmen tragen ihren Teil dazu bei, dass das System ständig dazulernt. Anhand von Musterprofilen, Regeln und den typischen Vorgehensweisen von Betrügern analysiert das fortlaufend mit neuen Daten trainierte System täglich rund 500.000 Einzeltransaktionen, was rund 25 % aller Kreditkartenaktivitäten in der Schweiz entspricht.
Verdacht schöpft das System zum Beispiel dann, wenn der Karteneinsatz nach Branchen und Ort sowie der Anzahl der Transaktionen und des jeweiligen Betrags auffällig erscheint. Im Anschluss an die Warnmeldung prüft menschliches Personal den Einzelfall und nimmt bei Bedarf Kontakt zum betroffenen Kunden auf, denn komplett fehlerfrei arbeitet die KI noch nicht. Doch die Zusammenarbeit von menschlicher und künstlicher Intelligenz zahlt sich aus: Zwischen 2015 und 2018 konnte das System 84 % mehr Betrugsversuchen einen Riegel vorschieben und seine betrugsbedingten Abschreibungen deutlich senken. Dafür erhielt das Unternehmen im Rahmen der Retail Banker International Awards 2019 die Auszeichnung für die Security Innovation of the Year.
Dumm, aber gerissen
Es sieht so aus, als werde in absehbarer Zeit kaum eine Security-Lösung ohne KI auskommen. Allerdings gibt es auch Einschränkungen. So folgt beispielsweise nicht jede KI einem angemessen strategischen Lösungsverfahren. Wissenschaftler der TU Berlin, des Fraunhofer HHI und der Universität Singapur kamen jüngst zu dem Schluss, dass die KI-Schleifen oftmals einem naiven Weg folgen oder gar mit einem Trick ans Ziel kommen.
Meister der Klassifikation, aber mit kurioser Strategie: Dieses KI-System erkennt Züge dann, wenn Schienen zu sehen sind. (Bild: Nature Communications (CC BY))
Als Beispiel nennen die Forscher eine KI, die zwar eine sehr hohe Trefferquote bei der Klassifizierung von Bildobjekten als Schiffe oder Züge aufwies, die Zuordnung erfolgte jedoch anhand von Wasser und Schienen. Das eigentliche Ziel der intelligenten Objekterkennung wird somit verfehlt. „Insbesondere in der medizinischen Diagnostik oder in sicherheitskritischen Systemen dürfen wir keine KI-Algorithmen mit unsicheren Problemlösungsstrategien oder sonstige KI-Schummel-Kandidaten einführen“, warnt daher Prof. Dr. Klaus-Robert Müller, zuständig für maschinelles Lernen an der TU Berlin. Die Erkenntnisse ihrer Untersuchung erlauben den Forschern allerdings künftig eine bessere Qualitätsüberprüfung, die genuin schlaue von Clever-Hans-KI unterscheiden soll.
Künstliche Intelligenz und kriminelle Energie
Neue Gefahr im Verzug ist unterdessen, weil Cyberkriminelle ebenfalls, künstliche Intelligenz für ihre Zwecke einsetzen, um bestehende Sicherheitstechnologien zu umgehen. Ein Ergebnispapier der Plattform Industrie 4.0 thematisiert neue Bedrohungen aus der Richtung sogenannter Generative Adversarial Networks (GAN). Diese beschreiben zunächst nur das wechselseitige Zusammenspiel zweier konkurrierender neuronaler Netze, um neue Daten zu erzeugen.
Generative Adversarial Networks dienen auch dazu, aus Medieninhalten sogenannte Deep Fakes zu erstellen. Ein Tool des Fraunhofer-Instituts für Techno- und Wirtschaftsmathematik ITWM kann solche Fälschungen/Fiktionen derzeit recht zuverlässig erkennen – so lange, bis derzeitige GAN-Architekturen gelernt haben, den Detektor zu umgehen. (Bild: Fraunhofer ITWM)
Ein Beispiel: Das erste Netz, der sogenannte Generator, erzeugt fortlaufend möglichst realistische künstliche Bilder einer Ente, während das zweite, der sogenannte Diskriminator, die KI-Produkte mit Fotos natürlicher Enten abgleicht und versucht, die Fälschung aufzudecken. Dieses Wechselspiel könnten sich auch Cyberkriminelle zunutze machen: Mittels der anzugreifenden Schutzsoftware trainieren sie so lange ein neuronales Netz, bis es mit sehr hoher Wahrscheinlichkeit dieselben Entscheidungen über die Bedenklichkeit oder Unbedenklichkeit einer Datei wie das Sicherheitsprogramm trifft. Im Anschluss verwenden sie ein zweites, neuronales Netz als Generator, um damit so lange Schadcode zu erzeugen und in Datenrauschen zu verstecken, bis der Diskriminator ihn nicht mehr als Bedrohung erkennt. Auf diese Weise hätte KI ein passgenaues Einfallstor für einen realen Angriff geschaffen.
Viele GAN-Aspekte sind jedoch noch Gegenstand der aktiven Forschung, die unter anderem daran arbeitet, die KI-basierte Erkennung derartiger Täuschungsmanöver zu verbessern. Ob dabei die gute KI oder die böse KI die Oberhand gewinnt, ist eine Frage, die sich vermutlich im Dauerwettlauf entscheiden wird.