Teil 3 Header - Risiken und Chancen Generativer KI für die IT-Security

Risiken und Chancen Generativer KI für die IT-Security (Teil 3/6)

Wenn KI zum Werkzeug für Angreifer wird

Nachdem wir im letzten Teil geklärt haben, welche Formen generative KI annimmt und warum sie im Security-Kontext so relevant ist, wechseln wir nun bewusst die Perspektive. Statt auf Technologien und Grundlagen schauen wir jetzt auf die praktische Anwendung – und zwar auf der Seite der Angreifer.

Diese Einführung in die Angreiferperspektive zeigt, wie sich durch KI Cyberangriffe nicht nur verändern, sondern systematisch optimieren lassen. Was früher oft Zeit, Fachwissen und manuelle Vorbereitung erforderte, lässt sich heute in vielen Fällen automatisieren, skalieren und deutlich effizienter umsetzen.

Genau darin liegt die eigentliche Dynamik: KI senkt die Einstiegshürden, beschleunigt Prozesse und erhöht gleichzeitig die Qualität von Angriffen. Für die IT-Security bedeutet das, dass bekannte Bedrohungen nicht verschwinden – sie werden lediglich leistungsfähiger.

Täuschung, Manipulation und Automatisierung von Angriffen

Ein besonders deutliches Beispiel für die Auswirkungen generativer KI zeigt sich im Bereich Social Engineering. Während betrügerische Nachrichten früher oft durch sprachliche Fehler oder unpersönliche Inhalte auffielen, entstehen heute durch KI hochgradig individualisierte Angriffe – ob per E-Mail, SMS oder über täuschend echt gestaltete Webseiten. Inhalte werden auf Basis öffentlich verfügbarer Daten aus sozialen Netzwerken, Firmenwebsites oder anderen Quellen erstellt, präzise formuliert und in einen glaubwürdigen, vertrauten Kontext eingebettet. Dadurch wirken sie authentisch, relevant und vor allem vertrauenswürdig – genau das macht sie so gefährlich.

Angriffe lassen sich zudem in großem Maßstab automatisieren. Statt einzelne Ziele manuell vorzubereiten, können tausende personalisierte Nachrichten parallel generiert und versendet werden – oft mit tagesaktuellem Bezug zu Projekten, Rollen oder Ereignissen. Für Angreifer bedeutet das eine massive Effizienzsteigerung bei gleichzeitig steigender Erfolgsquote. Gerade deshalb beginnt der Angriff auf die Firmen-IT heute häufig nicht mit einem technischen Exploit, sondern mit einer überzeugend formulierten Nachricht, über die Zugangsdaten oder andere sensible Informationen abgegriffen werden sollen.

Parallel dazu entwickeln sich auch Deepfakes rasant weiter. Stimmen, Bilder und Videos lassen sich inzwischen mit vergleichsweise geringem Datenaufwand täuschend echt nachbilden. Schon kurze Audio- oder Videoausschnitte aus dem Internet – etwa von YouTube oder aus sozialen Medien – können ausreichen, um eine Stimme, Mimik oder den Sprachduktus einer Person glaubwürdig zu imitieren. Dadurch wird selbst direkte Kommunikation angreifbar, etwa wenn vermeintliche Anweisungen von Vorgesetzten oder Kolleg:innen über Telefon oder Video erfolgen. Bekannte Beispiele reichen von überzeugend gefälschten Werbevideos bis hin zu manipulierten Inhalten im US-Wahlkampf.

Die eigentliche Herausforderung für die Security liegt in der Kombination dieser Faktoren: personalisierte Inhalte, realistische Medien und automatisierte Skalierung. Täuschung findet nicht mehr isoliert statt, sondern auf mehreren Ebenen gleichzeitig – technisch unterstützt, strategisch eingesetzt und deutlich schwerer zu erkennen als noch vor wenigen Jahren. Für Unternehmen macht genau das Security-Schulungen für Mitarbeitende unverzichtbar, damit sie typische Phishing-Muster erkennen, Angriffe besser einordnen und genau das lernen, was in unserem Anti-Phishing-Training praxisnah vermittelt wird.

Teil 3 - Risiken und Chancen Generativer KI für die IT-Security

Generierung von schädlichem Code

Neben der Manipulation von Menschen verändert KI auch die technische Seite von Cyberangriffen grundlegend. Früher brauchte es programmiertechnisches Können und entsprechendes Wissen, um eine wirksame Malware zu schreiben. Zwar konnte man Schadsoftware schon lange im Darknet kaufen oder ganze Angriffe mieten – Stichwort „Ransomware-as-a-Service“. Mit generativer KI werden solche Umwege jedoch in vielen Fällen weniger nötig. Bereits einfache Anweisungen, also Prompts, können ausreichen, um Code zu erzeugen oder bestehenden Code gezielt abändern zu lassen.

Gerade darin liegt ein erheblicher Vorteil für Angreifer. Statt ein Schadprogramm von Grund auf neu entwickeln zu müssen, lassen sich vorhandene Codes schnell variieren und so neue Malware-Varianten erstellen, die der Bedrohungserkennung zunächst entgehen. Die Entwicklung wird dadurch nicht nur schneller, sondern auch flexibler. Bekannte Angriffsmuster verschwinden also nicht, sie werden mit Hilfe der KI effizienter und leichter reproduzierbar. Das senkt die Einstiegshürden und erhöht zugleich die Geschwindigkeit, mit der neue Varianten entstehen und in Umlauf gebracht werden.

Besonders relevant ist dabei die sogenannte Obfuskation, also die Codeverschleierung. Dabei wird ein Programmcode so verändert, dass er für die Analyse weitgehend unleserlich wird, seine Funktion aber behält. Eigentlich dient diese Technik legitimen Zwecken, etwa dem Schutz vor Reverse Engineering, geistigem Eigentum oder sensiblen Daten. Im Kontext von Cyberangriffen kann sie jedoch missbraucht werden, um Schadsoftware unauffälliger zu machen und ihre Erkennung gezielt zu erschweren.

Gerade diese Verbindung aus Generierung und Verschleierung macht generative KI im technischen Angriffsbereich so brisant. Sie vereinfacht nicht nur die Erstellung von Schadcode, sondern unterstützt auch dabei, dessen Analyse und Abwehr schwieriger zu machen. Für die IT-Security bedeutet das: Bekannte Methoden wie Malware-Entwicklung oder Codeanpassung verschwinden nicht, sondern werden durch KI beschleunigt und in ihrer Wirkung verstärkt.

Teil 3 - Risiken und Chancen Generativer KI für die IT-Security

Umgehung von Schutzmechanismen großer Sprachmodelle

Ein zusätzlicher Risikofaktor liegt darin, dass große Sprachmodelle zwar grundsätzlich so trainiert sind, keine gefährlichen Anleitungen oder schädlichen Codes für Malware auszugeben, diese Schutzmechanismen aber nicht unüberwindbar sind. Immer wieder tauchen Prompts auf, mit denen sich solche Sperren zumindest teilweise aushebeln lassen. Damit kann ein Modell unter Umständen doch Inhalte liefern, die eigentlich blockiert werden sollten. Genau das erhöht die Gefahr, dass KI nicht nur zur Unterstützung legitimer Aufgaben eingesetzt wird, sondern auch als Werkzeug für missbräuchliche Zwecke dienen kann.

Hinzu kommt, dass es immer wieder Sicherheitslücken gibt, die Chatbots dazu bringen können, Informationen preiszugeben, die sie eigentlich für sich behalten sollten. Genau darin liegt ein besonders kritischer Punkt: KI kann nicht nur zur Beschleunigung technischer Angriffe beitragen, sondern selbst zum Angriffsziel werden. Sicherheitsforscher deckten im April 2025 eine Schwachstelle auf, die nahezu alle großen Sprachmodelle betraf. Schon scheinbar harmlose Konfigurationsdateien im XML-, INI- oder JSON-Format reichten aus, um Modelle zur Ausgabe der gewünschten Informationen zu bewegen.

Das zeigt, dass die Gefahr nicht nur in der Generierung von Schadcode liegt, sondern auch darin, dass sich Schutzvorgaben von KI-Systemen gezielt umgehen lassen. Für die Security ist das deshalb so relevant, weil ein Modell unter solchen Bedingungen Inhalte ausgeben kann, die eigentlich gerade nicht verfügbar sein sollten.

Was Sie im nächsten Teil erwartet

Im nächsten Teil setzen wir genau an dieser Stelle an und vertiefen die Angreiferperspektive weiter.

Wir schauen uns zusätzliche Angriffsszenarien an, die durch generative KI möglich werden – darunter adaptive Malware, automatisierte Schwachstellensuche und gezielte Umgehung von Sicherheitsmaßnahmen. Dabei wird deutlich, wie flexibel und lernfähig moderne Angriffssysteme inzwischen agieren.

Diese Betrachtung bildet die Grundlage, um anschließend gezielt über Gegenmaßnahmen zu sprechen und zu verstehen, wie sich Unternehmen gegen diese neue Generation von Bedrohungen absichern können.

Teil 4 Header - Risiken und Chancen generativer KI

Jetzt mehr erfahren

Der nächste Teil unserer IT-Security Blog-Reihe ist bereits verfügbar