Risiken und Chancen Generativer KI für die IT-Security (Teil 2/6)

Warum wir erst klären müssen, welche KI gemeint ist

Im ersten Teil haben wir eingeordnet, warum Künstliche Intelligenz die Bedrohungslage in der IT-Sicherheit verschärft – und gleichzeitig ein echter Hebel für bessere Verteidigung sein kann. Bevor wir aber in den nächsten Teilen konkret über Angriffsmuster, Missbrauchsszenarien und Gegenmaßnahmen sprechen, brauchen wir eine gemeinsame Grundlage: Von welcher Künstlichen Intelligenz reden wir im Security-Kontext überhaupt? Und welche Arten von generativer ihr sind in der Praxis relevant?

Denn „Künstliche Intelligenz“ ist ein Sammelbegriff. Wer ihn zu grob benutzt, diskutiert schnell aneinander vorbei: Die eine Seite meint klassische regelbasierte Automatisierung oder Machine Learning zur Klassifikation, die andere meint die moderne generative, die Inhalte erzeugen kann – inklusive Text, Code, Audio oder Bildmaterial. Genau diese Fähigkeit ist aus Sicht der IT-Sicherheit so brisant: Sie macht Angriffe skalierbarer, glaubwürdiger und schneller – und eröffnet gleichzeitig neue Möglichkeiten in Analyse, Automatisierung und Detektion.

Generative KI im Security-Kontext

Wenn wir im Zusammenhang mit IT-Sicherheit und Cybersecurity über KI sprechen, ist in den meisten Fällen generative KI gemeint – also „erzeugende“ KI. Diese Systeme sind in der Lage, neue Inhalte zu generieren, etwa Texte, Bilder, Videos oder Musik. Möglich wird das, weil sie in sehr großen Datenmengen Muster und Zusammenhänge erkennen und diese möglichst realistisch nachbilden.

Technisch basieren viele dieser Systeme auf großen neuronalen Netzen, die statistische Strukturen in Sprache, Bildern oder Audio lernen. Generative KI ist also kein „magisches“ System – ihre Stärke liegt vielmehr darin, Inhalte auf Basis vorhandener Daten automatisiert zu analysieren und neu zu erzeugen. Genau diese Fähigkeit macht sie aus Sicht der IT-Security so relevant: Einerseits lassen sich damit Informationen schneller auswerten und strukturieren, andererseits können auch Angriffe effizienter vorbereitet und durchgeführt werden.

Generative KI wirkt für viele wie eine neue Technologie, tatsächlich reichen ihre Grundlagen deutlich weiter zurück. Schon seit den 1960er-Jahren wird mit dialogorientierten Systemen experimentiert – ein frühes Beispiel ist der Chatbot ELIZA, der erstmals zeigte, wie Maschinen menschliche Kommunikation simulieren können.

Erst seit den 2010er-Jahren entwickelte sich generative KI jedoch rasant weiter: Neue Modellarchitekturen wie Autoencoder, GANs und Diffusionsmodelle ermöglichten realistischere Bilder und Texte. Einen entscheidenden Durchbruch brachte anschließend die Einführung der Transformer-Architektur, die das Training großer Sprachmodelle grundlegend veränderte.

Darauf aufbauend entstanden Large Language Models (LLMs) wie die GPT-Serie, die Sprache auf bisher unerreichtem Niveau verarbeiten und erzeugen können. Spätestens seit der breiten Veröffentlichung von ChatGPT im Jahr 2022 ist generative KI nicht mehr nur ein Werkzeug für Forschung und Spezialisten, sondern für Millionen Menschen frei zugänglich.

Diese Entwicklung markiert einen Wendepunkt für die IT-Security: Fähigkeiten, die früher tiefes Fachwissen erforderten, lassen sich heute über einfache Eingaben („Prompts“) nutzen. Damit wird generative KI sowohl für Sicherheitsverantwortliche als auch für Angreifer:innen zu einem immer wichtigeren Faktor.

Mit der zunehmenden Verbreitung generativer KI steigt auch die Komplexität moderner Cyberangriffe – besonders im Umfeld von Webanwendungen, die heute zu den häufigsten Angriffszielen gehören. Wer verstehen möchte, wie solche Angriffe funktionieren und wie sich Websites und Webapplikationen effektiv absichern lassen, findet im Online-Fernstudium Web Application Security eine praxisnahe Vertiefung.

Teil 3 KI-Modelle

Formen der generativen KI: Wo sie in der Praxis auftaucht

Generative KI ist kein einzelnes Tool, sondern ein ganzer Werkzeugkasten. Für die IT-Sicherheit ist es wichtig, die wichtigsten Formen zu unterscheiden, da sich daraus unterschiedliche Chancen und Risiken ergeben.

  1. Text
    Textgenerierende Modelle erstellen unter anderem Artikel, Zusammenfassungen, wissenschaftliche Texte, E-Mails, Chatbot-Antworten oder Dokumentationen. Auch Codegenerierung, Rechtschreib- und Grammatikprüfung, Übersetzungen, Zusammenfassungen oder Stimmungsanalysen gehören dazu.
    Bekannte Beispiele sind GPT-4, Gemini, Copilot oder Meta AI.
    Security-Relevanz:
    Text ist das zentrale Medium für Social Engineering, Phishing und Fraud. Wenn Inhalte fehlerfrei und massenhaft generiert werden können, steigt das Risiko täuschend echter Angriffe.
  2. Bild und Video
    Bild- und Videomodelle erzeugen realistische Bilder oder Videos aus Textbeschreibungen, können Stile übertragen und dienen auch als Editierwerkzeuge (z. B. Auflösung verbessern, Bildbereiche verändern oder erweitern).
    Typische Tools sind Midjourney, DALL-E und Stable Diffusion.
    Security-Relevanz:
    Je realistischer visuelle Inhalte werden, desto größer wird das Potenzial für Täuschung, Desinformation und Deepfakes.
  3. Audio
    Audio-Modelle können natürlich klingende Sprache synthetisieren, Stimmen klonen oder sogar komplette Songs generieren.
    Bekannte Beispiele sind Emvoice One, VoiceAI, Musicfy, Vocalist.ai, Suno oder ElevenLabs. Ein Hinweis auf die zunehmende Verbreitung: Rund 28 % aller neuen Uploads bei Deezer sollen inzwischen per künstlicher Intelligenz generiert worden sein, der Anteil hat sich seit 2025 stark erhöht.
    Security-Relevanz:
    Täuschend echte Stimmen ermöglichen neue Formen von telefonbasiertem Social Engineering oder CEO-Fraud.
  4. Softwarecode
    Coding-Modelle können Snippets vervollständigen, Code schreiben oder Programme in andere Sprachen übersetzen.
    Security-Relevanz:
    Das beschleunigt Entwicklung und Analyse – kann aber auch missbraucht werden, um Schadcode schneller zu erstellen oder bestehende Malware zu verändern.
  5. Datenaugmentation
    Hierbei werden Datensätze künstlich erweitert oder erzeugt, um andere Modelle zu trainieren – etwa wenn reale Daten fehlen oder nicht genutzt werden dürfen.
    Security-Relevanz:
    Besonders wichtig ist das beim Training von Detektionssystemen oder bei der Simulation von Angriffsszenarien.
Teil 2 Formen von KI

KI ist mächtig – aber nicht grenzenlos

Bei aller Leistungsfähigkeit ist generative KI kein Allheilmittel. Gerade in kreativen Outputs zeigt sich eine Grenze, die im Alltag oft auffällt: Es fehlt häufig an Originalität und emotionaler Tiefe, also an dem „human touch“. Weil KI von vorhandenen Daten lernt, wirkt vieles vertraut – das typische „kenne ich schon“-Gefühl.

Dazu kommt ein Punkt, der in den letzten Jahren stark an Dynamik gewonnen hat: Urheberrecht und Rechtsrisiken. Betreiber generativer Systeme sehen sich vermehrt mit Klagen konfrontiert – etwa, wenn der Vorwurf im Raum steht, beim Erzeugen und Verbreiten von Inhalten würden Rechte Dritter verletzt. Beispiele, die zuletzt öffentlich diskutiert wurden, sind unter anderem:

Klagen von Disney und Universal gegen Midjourney (Vorwurf: Verletzung von Rechten an bekannten Filmfiguren), ein geplanter Fonds, in den Anthropic rund 1,5 Milliarden US‑Dollar einzahlen wolle, nachdem Autor:innen dem Unternehmen vorgeworfen hatten, mit raubkopierten Büchern trainiert zu haben, sowie ein Rechtsstreit der GEMA gegen OpenAI rund um die Frage, ob urheberrechtlich geschützte Songtexte in Trainingsdaten eine Rolle gespielt haben.

Für Unternehmen heißt das: Wer generative KI einsetzt (egal ob in Marketing, Entwicklung oder Security), muss nicht nur technisch sauber arbeiten, sondern auch Compliance- und Rechtsfragen mitdenken. Genau diese „Nebenbedingungen“ entscheiden in der Praxis oft darüber, ob KI-Projekte tragfähig sind.

Was Sie im nächsten Teil erwartet

Jetzt, da wir geklärt haben, welche generative KI gemeint ist und welche Formen sie annimmt, können wir den Blick dorthin richten, wo es für IT-Sicherheit besonders kritisch wird: die Angreiferperspektive.

Im nächsten Teil geht es darum, wie Hacker Sie für kriminelle Zwecke missbrauchen – und warum dadurch klassische Schutzmechanismen (und auch menschliche Intuition) immer häufiger an Grenzen stoßen. Konkret schauen wir uns an, wie sich Social Engineering und Phishing automatisieren lassen, warum Deepfakes (Bild, Video, Stimme) in Betrugsfällen so gefährlich werden – und welche Rolle generative KI bei der Erstellung und Verschleierung von schädlichem Code spielt. Damit schaffen wir die Basis, um anschließend nicht nur Risiken zu beschreiben, sondern auch gezielt Gegenmaßnahmen zu diskutieren.

Jetzt mehr erfahren

Der nächste Teil unserer IT-Security Blog-Reihe ist verfügbar ab dem XX.XX.XXXX