Select your country

Not finding what you are looking for, select your country from our regional selector:

Suche

So sichern Sie KI-Anwendungen

Wenn künstliche Intelligenz (KI) richtig verwaltet wird, kann sie eine Quelle unendlicher Möglichkeiten sein. Wird sie jedoch missbraucht, kann sie zu einem gefährlichen trojanischen Pferd werden. Die zunehmende Verbreitung von künstlicher Intelligenz in Unternehmen, öffentlichen Institutionen und kritischen Infrastrukturen vergrößert die Angriffsfläche für Hacker und wirft Bedenken auf vielen Ebenen auf. Vom unbefugten Einsatz eines LLM-Tools („Large Language Model“) bis hin zur Ausnutzung von Schwachstellen durch Cyberangreifer ist es entscheidend, umfassende KI-Sicherheitsprotokolle zu implementieren.

Einen kontrollierten und sicheren Einsatz von KI umsetzen

Künstliche Intelligenz, insbesondere generative KI, wird derzeit in vielen Berufsfeldern und Tätigkeitsbereichen erforscht und verändert Arbeitsmethoden und -prozesse.

  • Spezifische Schwachstellen von KI-Systemen bereiten den IT- und Sicherheitsabteilungen von Unternehmen und Organisationen Sorge, da sie deren zunehmende Nutzung absichern möchten;
  • Daher ist es entscheidend, dass die Einführung generativer KI-Lösungen strengen Cybersicherheitsmaßnahmen unterliegt – insbesondere in Bezug auf Zugriff, Eingaben (Prompts), Daten sowie die gesamte Infrastruktur, in die das LLM integriert ist und mit der es interagiert;
  • Dies erfordert einen proaktiven, risikobewussten Ansatz sowie eine kontinuierliche Aktualisierung der Sicherheitspraktiken, um KI-Systeme und die von ihnen verarbeiteten Daten effektiv zu schützen.

Schauen wir uns die Maßnahmen an, die Sie umsetzen können.

Eine globale Sicht auf KI-Systeme etablieren, um das Risikomanagement zu optimieren

Es ist ratsam, alle in Ihrem Unternehmen oder Ihrer Organisation genutzten KI-Systeme im Blick zu behalten. Zwei Strategien sollten dabei berücksichtigt werden:

Das Problem der Schatten KI angehen:

Die zunehmende Verbreitung generativer KI-Anwendungen für die breite Öffentlichkeit bringt neue Cybersicherheitsrisiken mit sich, die oft als „Schatten KI" bezeichnet werden.

Um dieses Problem zu bewältigen, müssen Organisationen die Nutzung solcher Tools durch ihre Mitarbeiter überwachen und nicht autorisierte Anwendungen, die die Datensicherheit gefährden könnten, identifizieren. Die Implementierung von Cloud Access Security Broker (CASB)-Lösungen ermöglicht es, den Zugriff auf diese Dienste zu kontrollieren und klare Richtlinien für die Nutzung festzulegen (z.B. vollständige Sperrung, bedingte Autorisierung oder uneingeschränkte Freigabe).

Gleichzeitig ist es essenziell, Data Leak Protection (DLP)-Mechanismen zu integrieren, um sensible Informationen zu schützen und Datenlecks durch die Interaktion von Mitarbeitern mit solchen Anwendungen zu verhindern.

Überwachung der Sicherheitslage interner LLM-Anwendungen:

Mit dem AI Security Posture Management (AI-SPM)-Ansatz behalten Unternehmen den Überblick über alle intern genutzten KI-Anwendungen und deren Komponenten:

  • Inventarisierung von LLM-APIs, Daten & Trainings, Inferenzdatensätze, Hostings, Plugins und Nutzerzahlen;
  • End-to-end AI pipeline detection to identify AI-related risks, such as misconfigurations, presence of vulnerabilities and prioritizations, agent over-privileges, identification of sensitive data across datasets...).
  • End-to-End-KI-Pipeline-Erkennung, um Risiken wie Fehlkonfigurationen, Schwachstellen, übermäßige Zugriffsrechte und das Vorhandensein sensibler Daten zu identifizieren.

Diese umfassende Sichtweise stärkt nicht nur die Sicherheit, sondern gewährleistet auch die Einhaltung aktueller Compliance Standards. Durch die Umsetzung dieser Strategien können Unternehmen das komplexe KI-Umfeld sicher navigieren und gleichzeitig ihre Daten und Ressourcen schützen.

Sicherung Ihrer LLM-Anwendungen

Während eine globale Sicht auf KI-Systeme entscheidend ist, ist es ebenso wichtig, die spezifischen Risiken von KI-Anwendungen zu verstehen und zu minimieren.

Die Absicherung von LLM-basierten Anwendungen erfordert einen strukturierten Ansatz, beginnend mit einem Bewusstsein für spezifische Bedrohungen. Unternehmen, Entwickler- und Sicherheitsteams müssen sich potenzieller Gefahren bewusst sein, darunter Prompt Injections, Data Poisoning, Datenextraktion und Leaks sensibler Informationen. Diese Bedrohungen unterscheiden sich von klassischen Cybersecurity-Risiken, weshalb Threat Intelligence eine wertvolle Informationsquelle ist, um Angriffe vorherzusehen und Verteidigungsstrategien anzupassen.

Zur Bewältigung dieser Herausforderungen erfordert LLM-Sicherheit eine Kombination aus traditionellen Sicherheitslösungen, ergänzenden Schutzmechanismen und speziell entwickelten Sicherheitsmaßnahmen.

KI-SPM & DSPM (Data Security Posture Management): Diese Lösungen bilden die erste Verteidigungslinie, überwachen die Sicherheitslage von Modellen und schützen Trainingsdaten. Ergänzt werden diese Tools durch Data Leak Protection (DLP), die unerlässlich sind, um sensible Datenlecks zu verhindern – ein besonders kritisches Risiko bei LLMs, da diese unbeabsichtigt vertrauliche Informationen in ihren Antworten preisgeben können.

API-Security & CASB-Lösungen: Sie ermöglichen eine präzise Kontrolle der Interaktionen mit KI-Diensten, während speziell für LLMs entwickelte KI-Firewalls böswillige Prompts und Angriffsversuche filtern. Diese Tools sind besonders relevant für die Entstehung neuer Angriffstechniken wie das Einschleusen feindwilliger Prompts.

Pentesting für LLMs: Durch dedizierte Penetrationstests (auch als „Pentests“ bezeichnet) wird die Widerstandsfähigkeit von KI-Systemen überprüft und die Verteidigungsstrategie angepasst. Diese noch junge Praxis kombiniert klassische Pentesting-Methoden mit Social Engineering Techniken, die speziell auf KI-Interaktion abzielen. Sie gewinnt zunehmend an Bedeutung, da Angriffstechniken gegen Sprachmodelle immer ausgefeilter werden.

Angesichts der sich stetig weiterentwickelnden Bedrohungslandschaft ist dieser mehrschichtige Sicherheitsansatz unerlässlich. Sicherheitsteams müssen kontinuierlich auf dem neuesten Stand bleiben und eine proaktive Haltung einnehmen, um das volle Potenzial von LLMs sicher zu nutzen.

KI-Sicherheit mit Orange Cyberdefense – Schutz für die Zukunft

Von Schulungen bis hin zum Krisenmanagement unterstützen die Experten von Orange Cyberdefense Unternehmen und Institutionen bei der Absicherung ihrer KI-Anwendungen:

  • Schulungen für Unternehmen, Entwicklungs- und Sicherheitsteams zur Sensibilisierung für KI-Risiken;
  • Audit und Risikoanalyse von GenAI-Anwendungen;
  • Pentesting von GenAI- und LLM-Anwendungen;
  • Absicherung von KI-Anwendungen;
  • Bereitstellung eines sicheren KI-Codegenerierungsassistenten;
  • Unterstützung bei der sicheren Integration von Microsoft 365 Copilot;
  • SOC, MSSP, CERT (Security Operations Center, Managed Security Services Provider, Computer Emergency Response Team);
  • Red Team, Blue Team, Purple Team-Simulationen;
  • Cyber Threat Intelligence (CTI)
  • Krisenmanagement bei Cyberangriffen.

Erfahren Sie mehr, minimieren Sie Risiken und gestalten Sie die Zukunft mit unserem Security Navigator 2025!

Geschrieben von Emilie Brochette

Business Development AI & Cybersecurity at Orange Cyberdefense

Incident Response Hotline

Ein Cybersecurity Incident, bei dem Sie sofortige Hilfe benötigen?

Kontaktieren Sie unsere 24/7/365 Incident Response Hotline.