Risiken und Chancen Generativer KI für die IT-Security (Teil 4/6)
Wie KI Cyberangriffe dynamischer und schwerer erkennbar macht
Nachdem wir im letzten Teil gezeigt haben, wie generative Systeme Social Engineering, Deepfakes und die Erstellung schädlichen Codes unterstützen, gehen wir nun einen Schritt weiter. Denn solche Systeme helfen Angreifern nicht nur bei der Vorbereitung von Attacken, sondern auch dabei, sie während des laufenden Vorgangs anzupassen, zu optimieren und gezielt auf ihre Umgebung abzustimmen.
Gerade darin liegt eine neue Qualität der Bedrohung: Angriffe werden nicht nur automatisierter, sondern auch reaktionsfähiger. Für Unternehmen bedeutet das, dass bekannte Muster nicht verschwinden, sondern flexibler, präziser und deutlich schwerer erkennbar werden. Genau diese Entwicklung zeigt sich besonders deutlich in den folgenden Angriffsszenarien.
Adaptive Malware
Ein besonders kritischer Bereich ist adaptive Schadsoftware. Gemeint sind Programme, die nicht starr nach einem festen Schema arbeiten, sondern vorhandene Schutzmechanismen auf einem Zielsystem analysieren und ihr Verhalten daran ausrichten. Sie können ihren Code, ihre Kommunikationsmuster oder ihre Aktivitätszeiten verändern, um unauffälliger zu bleiben und gängige Abwehrlösungen gezielt zu umgehen.
Für Angreifer ist das ein erheblicher Vorteil. Während klassische Malware oft anhand bekannter Muster erkannt werden kann, reagiert solche Schadsoftware dynamisch auf ihre Umgebung. Genau das erschwert die Abwehr, weil Schutzsysteme nicht mehr nur bekannte Signaturen oder feste Abläufe erkennen müssen, sondern zunehmend mit lernfähigen, anpassbaren Angriffsmustern konfrontiert sind.
Selektive Datenexfiltration
Ein besonders kritischer Bereich ist adaptive Schadsoftware. Gemeint sind Programme, die nicht starr nach einem festen Schema arbeiten, sondern vorhandene Schutzmechanismen auf einem Zielsystem analysieren und ihr Verhalten daran ausrichten. Sie können ihren Code, ihre Kommunikationsmuster oder ihre Aktivitätszeiten verändern, um unauffälliger zu bleiben und gängige Abwehrlösungen gezielt zu umgehen.
Für Angreifer ist das ein erheblicher Vorteil. Während klassische Malware oft anhand bekannter Muster erkannt werden kann, reagiert solche Schadsoftware dynamisch auf ihre Umgebung. Genau das erschwert die Abwehr, weil Schutzsysteme nicht mehr nur bekannte Signaturen oder feste Abläufe erkennen müssen, sondern zunehmend mit lernfähigen, anpassbaren Angriffsmustern konfrontiert sind.
Automatisierte Schwachstellensuche
Ein weiterer Bereich, in dem sich Angriffe beschleunigen, ist die automatisierte Schwachstellensuche. Anwendungen, Codebasen und Infrastrukturen lassen sich damit in großem Umfang und mit hoher Geschwindigkeit auf potenzielle Sicherheitslücken untersuchen. Was früher viel manuelle Arbeit, Erfahrung und Zeit erforderte, kann heute deutlich schneller und systematischer erfolgen.
Für die IT-Security erhöht das den Druck erheblich. Denn je schneller Schwachstellen gefunden werden, desto früher lassen sie sich auch ausnutzen. Besonders kritisch wird das dort, wo Zero-Day-Lücken entdeckt und angegriffen werden, bevor Hersteller überhaupt einen Patch bereitstellen konnten. Solche Verfahren machen diesen Prozess für Täter skalierbarer und effizienter – und damit auch gefährlicher.
Umgehung von Sicherheitsmaßnahmen durch Analyse
Solche Systeme können nicht nur Schwachstellen erkennen, sondern auch lernen, wie Schutzmaßnahmen in einem Unternehmen funktionieren. Genau dadurch lassen sich Angriffe so steuern, dass sie möglichst wenig Aufmerksamkeit erzeugen. Schadsoftware kann sich etwa an übliche Login-Zeiten anpassen, bekannte Nutzungsmuster imitieren oder Kommunikationsverhalten so verändern, dass es wie legitimer Datenverkehr wirkt.
Gerade diese Fähigkeit zur Verhaltensanpassung ist hochrelevant. Denn viele Schutzmechanismen basieren darauf, auffällige Abweichungen vom Normalzustand zu erkennen. Wenn sich Angriffe jedoch bewusst an typischem Nutzer- oder Systemverhalten orientieren, sinkt die Wahrscheinlichkeit, dass sie frühzeitig auffallen. Dadurch bleiben Täter oft länger unentdeckt. Umso wichtiger ist es, dass Informationssicherheit nicht nur technisch gedacht, sondern auch auf Führungsebene strategisch verankert wird. Wie Verantwortliche genau dafür ein belastbares Sicherheitsbewusstsein entwickeln können, zeigt unsere Fortbildung Informationssicherheit für Führungskräfte.
Manipulation von KI-Systemen und Datenvergiftung
Besonders brisant wird es dort, wo nicht nur klassische Systeme, sondern auch generative Anwendungen selbst angegriffen werden. Prompt-Injection, manipulierte Eingaben oder vergiftete Trainings- und Wissensdaten zeigen, dass solche Lösungen selbst zur Schwachstelle einer KI werden können. Angreifer versuchen dabei, die KI zu falschen Ausgaben zu verleiten, interne Informationen offenzulegen oder problematische Inhalte in ihre Wissensbasis einzuschleusen.
Das ist vor allem deshalb so bedeutsam, weil Unternehmen generative Anwendungen immer häufiger produktiv einsetzen – etwa in Assistenten, Helpdesks, Auswertungssystemen oder automatisierten Prozessen. Werden solche Systeme manipuliert, entsteht nicht nur ein technisches Risiko, sondern auch ein Vertrauensproblem. Angriffe richten sich damit längst nicht mehr nur gegen die bestehende IT-Security, sondern immer stärker auch direkt gegen die darauf eingesetzten Modelle.
Was Sie im nächsten Teil erwartet
Im nächsten Teil wechseln wir die Perspektive und schauen darauf, wie eine KI nicht nur missbraucht werden kann, sondern die Verteidigung auf Unternehmensseite auch stärken kann.
Dann geht es darum, wie Unternehmen diese Werkzeuge bei der Erkennung von Anomalien, der Priorisierung von Risiken und der Reaktion auf Sicherheitsvorfälle einsetzen. Genau dort zeigt sich, dass daraus nicht nur neue Bedrohungen entstehen, sondern zugleich ein entscheidender Baustein moderner IT-Security werden kann.
Jetzt mehr erfahren
Der nächste Teil unserer IT-Security Blog-Reihe ist verfügbar ab dem 29.April