KI in der Cybersicherheit: Lernen ohne Fehler

35_640

von Pascal Geenens , Cyber Security Evangelist bei Radware.

Künstliche Intelligenz oder KI ist ein weites Feld, und während der Begriff KI technisch gesehen eine korrekte Bezeichnung für die in der Sicherheitsindustrie verwendeten Algorithmen ist, wird heute doch keine „echte“ KI verwendet. Eine künstliche Intelligenz ist ein System, das seine Umgebung wahrnehmen und analysieren sowie sich den wahrgenommenen Veränderungen anpassen kann, was es ihm ermöglicht, auch in neuen Situationen autonom zu handeln, die es noch nie zuvor gesehen hat.

Die tatsächlich in der Cybersicherheit verwendete KI wird heute genauer als Machine Learning bezeichnet. Machine Learning ist eine Teilmenge der KI, bestehend aus Algorithmen, deren Leistung steigt, wenn sie mit der Zeit immer mehr Daten ausgesetzt sind. Eine spezifische Teilmenge von Algorithmen, die auf mehrschichtigen neuronalen Netzwerken innerhalb des Machine Learning basieren, wird als Deep Learning bezeichnet (Bild links).

An einem Ende des Spektrums des maschinellen Lernens befinden sich die deterministischen Algorithmen, die eng an das zu lösende Problem angepasst sind (Bild unten). Das Verhalten des Algorithmus ist deterministisch und transparent, da er nach einem Modell implementiert wurde, das den gemessenen Daten aus der Welt entspricht, die er zu approximieren versucht. Die aus der Umgebung gesammelten Daten werden verwendet, um die Algorithmen des Modells zu entwickeln und Grundlinien für die optimale Leistung des Modells zu liefern. Wenn sich die Umgebung ändert, liefern neue Daten leicht modifizierte Grundlinien, die es dem Modell ermöglichen, sich anzupassen und in seiner Erkennung genau zu bleiben. Da die Algorithmen deterministisch und transparent sind, gibt es keine oder ein vorhersehbares Verhältnis von False Positives.

Mit zunehmender Komplexität der Umgebung wird es immer schwieriger, ein Modell zu erstellen, das der realen Welt entspricht. Die Annäherung an ein Problem höherer Komplexität mit einem generischen Modell, das auf der Grundlage von Stichprobenmessungen geformt werden kann und Vorhersagen mit einem gewissen Grad an Verallgemeinerung treffen kann, wird notwendig.

Auf dieser gegenüberliegenden Seite des Spektrums befinden sich die Neuronalen Netze des Deep Learning. Diese Netzwerke können als generische Modelle betrachtet werden, die durch Beispiele (Daten) trainiert werden. Die Kodierung des Modells erfolgt sozusagen auf der Grundlage vorhandener Datenproben.

Man kann sich ein neuronales Netzwerk als ein komplexes Polynom vorstellen, das eine Ebene durch Proben beschreiben kann, die in einem mehrdimensionalen Raum bereitgestellt werden, oder noch einfacher, eine Kurve durch Probenpunkte in einem zweidimensionalen Raum definieren. Um eine genaue Annäherung zu gewährleisten, muss das Polynom, in diesem Fall das neuronale Netzwerk, von ausreichender Ordnung sein, um der Vielfalt der Daten zu entsprechen. Gleichzeitig sollte die Ordnung nicht zu hoch sein, um einen Verallgemeinerungsgrad beizubehalten, der es dem Netzwerk ermöglicht, „unscharfe“ Entscheidungen auf der Grundlage neuer Stichproben zu treffen, die ähnlich sind, aber nicht genau mit den zur Modellbildung verwendeten Trainingsproben übereinstimmen.

Umfassende Trainings- und Testsets erforderlich

Aufgrund der hohen Komplexität von tiefen neuronalen Netzen (also hochgradiger Polynome) ist ein umfassendes Trainingsset, also eine große Datenmenge, zur Definition des Modells erforderlich. Da das Design von Deep-Learning-Netzwerken eher eine ingenieurtechnische Aufgabe als eine exakte Wissenschaft ist, braucht man neben einem Trainingsset jedoch auch ein Testset zur Überprüfung des Modells. Deep-Learning-Experten verlassen sich auf ihre umfangreiche Erfahrung, um ein erstes Deep-Learning-Modell zu entwerfen und das Modell durch mehrere Iterationen anzupassen, um seine Leistung zu verbessern. Der Testsatz besteht aus Daten, die es ihnen ermöglichen, die Leistung ihres Modells zu bewerten und das Modell zu verbessern, bis es ein angemessenes Maß an Annäherung und Vorhersage im Testsatz liefert, basierend auf dem Trainingssatz, mit dem das  des neuronalen Netzes gefüttert wurde. Datenmangel führt zu leistungsschwachen Modellen, während schlechte Daten zu falschen Ergebnissen führen – Garbage in, Garbage out…..

Pascal Geenens ist, Cyber Security Evangelist beim Cybersicherheits-Spezialisten Radware.

Der Bedarf an großen Mengen qualitativ hochwertiger Daten ist eine der größten Herausforderungen für die generische Anwendbarkeit von KI in der Cybersicherheit. Die synthetische Generierung von Daten wird in die Irre führen, da es eine Struktur und Korrelation zwischen den generierten Datenpunkten gibt. Daher sind reale klassifizierte Stichproben der einzige Weg, um ein leistungsfähiges Deep Learning System zu versorgen. Der Einsatz von Deep Learning bei der Malware-Erkennung und -Klassifizierung liefert gute Ergebnisse, da eine große Menge an historischen Daten für das Training und den Test von tiefen neuronalen Netzen zur Verfügung steht.

Im Zusammenhang mit dem Bedarf an großen Mengen an guten Daten ist die Herausforderung des Lernens in kontradiktorischen Kontexten zu sehen. Ein generisches Modell, das aus den Daten eines Sensors in der realen Welt lernt, ist anfällig für systematische Fehler. Es kann nämlich während seines Trainings nicht zwischen guten und schlechten Proben unterscheiden, so dass seine Entscheidungen auch von schlechten Daten beeinflusst werden, auch bekannt als Poisoning – siehe etwa Microsofts KI-Chatbot-Experiment „Tay“.

Eine weitere Herausforderung im Zusammenhang mit der Entwicklung und Abstimmung des Modells betrifft das Lernen in sich verändernden Umgebungen. Da sich die Vielfalt der Daten ändert, muss die Komplexität des Modells angepasst werden, um eine konsistente Leistung zu gewährleisten. Das Hinzufügen einer neuen Anwendung zu einem Netzwerk führt beispielsweise zu neuen Netzwerkflüssen und Datenpaketen. Ein adäquat abgestimmtes tiefes neuronales Netz bietet keine Freiheitsgrade, die es ihm ermöglichen würden, sich an neue Muster anzupassen. Daher benötigt das Modell eine zunehmende Komplexität, um die neuen Muster angemessen zu erlernen. Der Betrieb eines tiefen neuronalen Netzes erfordert ein kontinuierliches Testen und Anpassen des Modells, um seine Leistung über die Zeit zu erhalten.

Während Deep Learning in weniger sensiblen Umgebungen trainiert und abgestimmt werden kann, gilt im Bereich der Cybersicherheit von Beginn an die Fehlerquote Null! Angreifer können bei ihren Versuchen, die Sicherheit eines Unternehmens zu kompromittieren, beliebig häufig scheitern, bevor sie schließlich doch eine Schwachstelle entdecken. Die Verteidigung muss dagegen nur einmal versagen, um eine Katastrophe zu verursachen. Shortcuts funktionieren nicht und sind bei der Modellierung der Verteidigung nicht erlaubt. So ist es Forschern gelungen, KI-basierte Antivirus-Lösungen die auf Whitelist-Basis arbeiten, indem sie einfach maliziösen Inhalt an bekannte Strings aus Executables in der Whitelist hängten.

Optimierung ist gefragt

Der entscheidende Trend für die KI ist die Optimierung und Anwendung verschiedener Techniken und Technologien zur Verbesserung der Leistung von tiefen neuronalen Netzwerken in verschiedenen Anwendungen im Bereich der Cybersicherheit. Die Verwendung neuer und leicht angepasster Architekturen für tiefe neuronale Netze und die Erfahrung mit der Verwendung tiefer neuronaler Netze sorgen für schrittweise Verbesserungen und erhöhen die Anwendbarkeit für die Cybersicherheit. Ein weiterer Trend ist der verteilte Einsatz von mehrschichtigen Systemen mit Modellen auf Basis traditionellen maschinellen Lernens näher am Network Edge, während die umfangreichere und komplexere Analyse mit Big Data und Crowd Data durch Deep Learning in der Cloud zentralisiert wird.

Die Anwendung von Echtzeit-Intelligenz und -Signalisierung ermöglicht es, die aufgrund der Analyse in der Cloud generierten Regeln zu verteilen und am Edge durchzusetzen. So entstehen zusätzliche Verteidigungslinien, denn dieser mehrschichtige Ansatz bietet Schutz auch im Falle eines Ausfalls.

Die Zukunft der KI in der Cybersicherheit

Die Zukunft der KI in der Cybersicherheit liegt in automatisierten Verteidigungssystemen, die in dynamischen und gegnerischen Kontexten lernen können. Dabei geht es um Systeme, die auf der Grundlage begrenzter Datenmengen lernen und autonom zwischen Gut und Böse unterscheiden können, um ihre Verteidigung an eine sich ständig verändernde und raffinierte Bedrohungslandschaft anzupassen. Ob diese zukünftigen Systeme auf der Grundlage der aktuellen Deep- oder Machine Learning-Technologie aufgebaut werden, bleibt eine Frage, aber eines ist sicher: Künstliche Intelligenz ist eine Voraussetzung, um den Bedrohungen heute und in Zukunft zu begegnen.

 

Bildrechte:
Gerd Altmann auf Pixabay (Titelbild)

Radware GmbH (Schaubilder; Bild von Pascal Greenens)