
11 März 2025
Wenn künstliche Intelligenz (KI) richtig verwaltet wird, kann sie eine Quelle unendlicher Möglichkeiten sein. Wird sie jedoch missbraucht, kann sie zu einem gefährlichen trojanischen Pferd werden. Die zunehmende Verbreitung von künstlicher Intelligenz in Unternehmen, öffentlichen Institutionen und kritischen Infrastrukturen vergrößert die Angriffsfläche für Hacker und wirft Bedenken auf vielen Ebenen auf. Vom unbefugten Einsatz eines LLM-Tools („Large Language Model“) bis hin zur Ausnutzung von Schwachstellen durch Cyberangreifer ist es entscheidend, umfassende KI-Sicherheitsprotokolle zu implementieren.
Künstliche Intelligenz, insbesondere generative KI, wird derzeit in vielen Berufsfeldern und Tätigkeitsbereichen erforscht und verändert Arbeitsmethoden und -prozesse.
Schauen wir uns die Maßnahmen an, die Sie umsetzen können.
Es ist ratsam, alle in Ihrem Unternehmen oder Ihrer Organisation genutzten KI-Systeme im Blick zu behalten. Zwei Strategien sollten dabei berücksichtigt werden:
Das Problem der Schatten KI angehen:
Die zunehmende Verbreitung generativer KI-Anwendungen für die breite Öffentlichkeit bringt neue Cybersicherheitsrisiken mit sich, die oft als „Schatten KI" bezeichnet werden.
Um dieses Problem zu bewältigen, müssen Organisationen die Nutzung solcher Tools durch ihre Mitarbeiter überwachen und nicht autorisierte Anwendungen, die die Datensicherheit gefährden könnten, identifizieren. Die Implementierung von Cloud Access Security Broker (CASB)-Lösungen ermöglicht es, den Zugriff auf diese Dienste zu kontrollieren und klare Richtlinien für die Nutzung festzulegen (z.B. vollständige Sperrung, bedingte Autorisierung oder uneingeschränkte Freigabe).
Gleichzeitig ist es essenziell, Data Leak Protection (DLP)-Mechanismen zu integrieren, um sensible Informationen zu schützen und Datenlecks durch die Interaktion von Mitarbeitern mit solchen Anwendungen zu verhindern.
Überwachung der Sicherheitslage interner LLM-Anwendungen:
Mit dem AI Security Posture Management (AI-SPM)-Ansatz behalten Unternehmen den Überblick über alle intern genutzten KI-Anwendungen und deren Komponenten:
Diese umfassende Sichtweise stärkt nicht nur die Sicherheit, sondern gewährleistet auch die Einhaltung aktueller Compliance Standards. Durch die Umsetzung dieser Strategien können Unternehmen das komplexe KI-Umfeld sicher navigieren und gleichzeitig ihre Daten und Ressourcen schützen.
Während eine globale Sicht auf KI-Systeme entscheidend ist, ist es ebenso wichtig, die spezifischen Risiken von KI-Anwendungen zu verstehen und zu minimieren.
Die Absicherung von LLM-basierten Anwendungen erfordert einen strukturierten Ansatz, beginnend mit einem Bewusstsein für spezifische Bedrohungen. Unternehmen, Entwickler- und Sicherheitsteams müssen sich potenzieller Gefahren bewusst sein, darunter Prompt Injections, Data Poisoning, Datenextraktion und Leaks sensibler Informationen. Diese Bedrohungen unterscheiden sich von klassischen Cybersecurity-Risiken, weshalb Threat Intelligence eine wertvolle Informationsquelle ist, um Angriffe vorherzusehen und Verteidigungsstrategien anzupassen.
Zur Bewältigung dieser Herausforderungen erfordert LLM-Sicherheit eine Kombination aus traditionellen Sicherheitslösungen, ergänzenden Schutzmechanismen und speziell entwickelten Sicherheitsmaßnahmen.
KI-SPM & DSPM (Data Security Posture Management): Diese Lösungen bilden die erste Verteidigungslinie, überwachen die Sicherheitslage von Modellen und schützen Trainingsdaten. Ergänzt werden diese Tools durch Data Leak Protection (DLP), die unerlässlich sind, um sensible Datenlecks zu verhindern – ein besonders kritisches Risiko bei LLMs, da diese unbeabsichtigt vertrauliche Informationen in ihren Antworten preisgeben können.
API-Security & CASB-Lösungen: Sie ermöglichen eine präzise Kontrolle der Interaktionen mit KI-Diensten, während speziell für LLMs entwickelte KI-Firewalls böswillige Prompts und Angriffsversuche filtern. Diese Tools sind besonders relevant für die Entstehung neuer Angriffstechniken wie das Einschleusen feindwilliger Prompts.
Pentesting für LLMs: Durch dedizierte Penetrationstests (auch als „Pentests“ bezeichnet) wird die Widerstandsfähigkeit von KI-Systemen überprüft und die Verteidigungsstrategie angepasst. Diese noch junge Praxis kombiniert klassische Pentesting-Methoden mit Social Engineering Techniken, die speziell auf KI-Interaktion abzielen. Sie gewinnt zunehmend an Bedeutung, da Angriffstechniken gegen Sprachmodelle immer ausgefeilter werden.
Angesichts der sich stetig weiterentwickelnden Bedrohungslandschaft ist dieser mehrschichtige Sicherheitsansatz unerlässlich. Sicherheitsteams müssen kontinuierlich auf dem neuesten Stand bleiben und eine proaktive Haltung einnehmen, um das volle Potenzial von LLMs sicher zu nutzen.
Von Schulungen bis hin zum Krisenmanagement unterstützen die Experten von Orange Cyberdefense Unternehmen und Institutionen bei der Absicherung ihrer KI-Anwendungen:
Erfahren Sie mehr, minimieren Sie Risiken und gestalten Sie die Zukunft mit unserem Security Navigator 2025!
Geschrieben von Emilie Brochette
Business Development AI & Cybersecurity at Orange Cyberdefense
11 März 2025
18 Februar 2025
Security Navigator 2025: Forschungsbasierte Erkenntnisse, um eine sicherere digitale Gesellschaft aufbauen zu können, proaktive Sicherheitsmaßnahmen auf der Grundlage von Informationen über Cyber-Bedrohungen.