Angriffsmethoden mit Hilfe von KI


KI-Prompt-Manipulation öffnet die Büchse der Pandora
Vergleichbar mit den SQL Injection-Angriffen der frühen 2000er Jahre setzt Prompt Hacking an der Interpretation der User-Eingaben durch Systeme an


Von Tony Fergusson, CISO in Residence EMEA bei Zscaler

Die rasche Integration von Künstlicher Intelligenz (KI) in Unternehmen tritt an, die Effizienz von Geschäftsabläufen zu revolutionieren, Arbeitsabläufe zu rationalisieren und Entscheidungsprozesse zu beschleunigen. Allerdings birgt die Nutzung dieser Tools in den falschen Händen ebenso große Risiken. Der neueste Trend der Angreifer zielt auf die Manipulation von KI-Prompts ab. Mit Hilfe von Prompt Hacking oder Prompt-Injektion nutzen die Malware-Akteure die natürliche Sprache für ihre schädlichen Machenschaften, wodurch auch ohne große Programmierkenntnisse maximaler Schaden entstehen kann.

Hier wiederholt sich die Geschichte, denn ein solches Vorgehen ist per se nicht neu. Vergleichbar mit den SQL Injection-Angriffen der frühen 2000er Jahre setzt Prompt Hacking an der Interpretation der User-Eingaben durch Systeme an. So kann heute ein böswilliger Akteur ausgefeilte Prompts erstellen, die eine KI dazu bringt, sensible Informationen preiszugeben, unbefugte Aktionen auszuführen oder den Betrieb zu stören. Da KI-Systeme mittlerweile in Prozesse wie Kundenkommunikation, Gehaltsabrechnung und Datenmanagement eingebettet sind, können die Folgen einer solchen Manipulation von Prompts gravierend ausfallen. Ein einziger wohlformulierter Prompt-Angriff kann finanzielle Verluste, Dienstunterbrechungen oder sogar Reputationsschäden nach sich ziehen.

Eine solche Manipulation von Eingabebefehlen geht mit einer niedrigen Einstiegsbarriere einher. Prompt Hacking erfordert keine fortgeschrittenen technischen Kenntnisse: Die Manipulation erfolgt in natürlicher Sprache und nicht in Programmiercode. Da diese Angriffe auf Worten und nicht auf technischen Schwachstellen beruhen, sind sie auf den ersten Blick schwer zu erkennen. Wenn beispielsweise die Textfarbe für die Befehle auf weiß eingestellt wird und damit für das menschliche Auge nicht erkennbar ist, wird auf einfache Art und Weise ein klassischer Mechanismus ausgehebelt. Die einfache Zugänglichkeit erweitert den Kreis der Malware-Akteure und erhöht gleichzeitig die Anforderungen an wirksame Abwehrstrategien.

Die Sicherheitsstandards erhöhen
Indem die Macht der Sprache genutzt wird, gibt es nicht nur einen einzigen Angriffsvektor oder ein einziges Ergebnis von Prompt Hacking – diese Erkenntnis muss sich in Sicherheitsteams erst durchsetzen. Sie müssen sich mit schädlichen "Aufforderungen" statt mit bösartigem "Code" auseinandersetzen. Hier kann das Zero Trust-Prinzip in der Abwehr seine Stärken ausspielen. Die Einführung eines Zero Trust-Sicherheitsframeworks stellt eine Möglichkeit dar, diesem Problem zu begegnen. Denn der Ansatz basiert auf der Prämisse, dass keinem User, keinem System und keiner Interaktion von vornherein vertraut wird. Zero Trust legt den Schwerpunkt auf kontinuierliche Überprüfung, was bedeutet, dass Unternehmen alle Prompts und Eingaben auf ungewöhnliches Verhalten überwachen können, unabhängig von ihrer Quelle oder ihrer wahrgenommenen Legitimität.

Demnach gilt es, Sicherheitspraktiken so anzupassen, dass die besonderen Risiken durch Sprachmanipulation erkannt werden können. Anstelle der technischen "Code-Probleme" müssen Unternehmen nun böswillige Eingabemuster oder "Problem-Prompts" antizipieren, die versuchen, Schutzmaßnahmen auszuhebeln. Durch die Einbettung von Sicherheit in jeden Teil des KI-Betriebs, von der Systemarchitektur bis hin zu Workflow-Berechtigungen, können Unternehmen einer KI-gestützten Zukunft mit größerer Zuversicht entgegenblicken.

Die Büchse der Pandora ist geöffnet
Prompt Hacking ist vergleichbar mit der Büchse der Pandora. Stetig wandelnde Eingabeaufforderungen im Verborgenen sind eine Herausforderung, die Unternehmen beim Einsatz von KI nicht ignorieren dürfen. Da KI-Systeme zunehmend in zentrale Geschäftsfunktionen integriert werden, nehmen die mit der Manipulation von Prompts verbundenen Risiken weiter zu. Es handelt sich schon lange nicht mehr um ein rein hypothetisches Problem, so dass Handlungsbedarf besteht. Unternehmen tragen die Verantwortung, sich mit dem Einsatz von KI-Tools auch deren Absicherung zuzuwenden. Die Aktualisierung von Richtlinien, Systemen und Schulungen ist auf allen Ebenen erforderlich.

Durch die KI wandeln sich Branchen rasant. Wettbewerbsvorteile entstehen für diejenigen Unternehmen, die die Möglichkeiten der KI für sich erkennen und ausschöpfen. Um das Potenzial der KI auch sicher zu nutzen, muss von Anfang an eine proaktive Verteidigungsstrategie eingeplant werden. Robuste Schutzmaßnahmen sind erforderlich, um sensible Daten und Prozesse zu schützen und das Vertrauen der Kunden zu bewahren. (Zscaler: ra)

eingetragen: 06.11.25

Zscaler: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Security-Produkte

  • Risiken in KI-Modellen erkennen

    Trend Micro stellt im Dezember 2026 auf der AWS re:Invent das "Trend Vision One AI Security Packag"e vor - ein Lösungspaket, das proaktives, zentralisiertes Exposure-Management mit umfassenden Analysen für KI-gesteuerte Umgebungen bietet. Dieses neue Paket schützt den gesamten KI-Anwendungsstack von der Modellentwicklung bis zur Laufzeit und erweitert die proaktive Sicherheit auf alle Phasen der KI-Bereitstellung. Zudem werden eine Reihe weiterer KI-Sicherheitsfunktionen auf der Veranstaltung vorgestellt.

  • Management von Speicherkapazitäten

    Datadobi hat ihren "Advanced Storage Optimizer" vorgestellt. Dieser erlaubt das präzise Management von Speicherkapazitäten in Unternehmen. Er hilft Unternehmen, Möglichkeiten zur Kostensenkung zu erkennen, ihre Effizienz zu maximieren und so ihre Speicherausgaben zu reduzieren. Advanced Storage Optimizer ist in "StorageMAP 7.4" verfügbar, der neuesten Version der Datenmanagement-Plattform von Datadobi.

  • Überblick über E-Mail-basierte Bedrohungen

    Arctic Wolf, Anbieterin von Security-Operations-Lösungen, kündigt eine neue Integration zwischen der Arctic Wolf Aurora Platform und Abnormal AI an. Damit erweitert das Unternehmen seine Detection- und Response-Funktionen nun um E-Mail, eine der am häufigsten attackierten Angriffsflächen. Die Integration bringt die fortschrittlichen Verhaltensanalysen von Abnormal AI direkt in die Managed Detection and Response (MDR)-Lösung von Arctic Wolf ein und stärkt so den Schutz der Kunden vor Business E-Mail Compromise (BEC), Phishing, Malware und Insider-Bedrohungen.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen