KI-Sicherheitsschulung
Dieser Kurs für Fortgeschrittene vermittelt Cybersicherheitsexperten und KI/ML-Ingenieuren praktische Fähigkeiten zur Sicherung von KI-Systemen während ihres gesamten Lebenszyklus. Durch Live-Unterricht, Gruppenarbeit und laborbasierte Simulationen lernen die Teilnehmer, KI-spezifische Bedrohungen zu modellieren, sichere Architekturen zu entwerfen, sich gegen gegnerische Angriffe zu verteidigen, auf Anomalien zu achten und auf reale Sicherheitsvorfälle zu reagieren.
Für Fortgeschrittene
Spezialisiertes Wissen
Auf
Englisch
Nächster Starttermin
27. November
Online-Schulung unter Anleitung
4 Wochen Ausbildung | 4 Stunden pro Woche | 16 Stunden insgesamt | donnerstags von 16:00 bis 20:00
Preis des Kurses: CHF 1'590 inkl. Materialien, Lizenzgebühren und interne Prüfungen.
Nach Abschluss des Kurses stellt das Swiss Cyber Institute allen erfolgreichen Teilnehmern das Zertifikat "AI Security Engineer" in elektronischer Form zur Verfügung.
Jetzt KI-Sicherheit beherrschen!
Info Session
Online.
Onsite.

Kursziele
Am Ende des Kurses werden Sie in der Lage sein:
- KI-spezifische Bedrohungen zu modellieren und Schwachstellen wie Data Poisoning und Umgehung zu erkennen.
- sichere KI-Systeme unter Verwendung von Least Privilege, Sandboxing und Integritätskontrollen zu entwickeln.
- gegnerische Angriffe auszuführen und effektive Verteidigungsmassnahmen wie gegnerisches Training einzusetzen.
- Echtzeit-Überwachung und Anomalie-Erkennung unter Berücksichtigung von Compliance-Standards einzurichten.
- Playbooks für die Reaktion auf Vorfälle zu erstellen, Rollen zuzuweisen und die Eindämmung zu koordinieren.
- forensische Analysen von KI-Artefakten durchzuführen, um Berichte zu erstellen und Verbesserungen zu empfehlen.
Studieninhalt
Interaktives Live-Lernen, angeleitet von internationalen KI-Akademikern und -Forschern, mit praktischen Trainingsübungen.
Der Kursinhalt basiert auf führenden industriellen und akademischen Praktiken für KI-Sicherheit und orientiert sich an Frameworks und Standards wie NIST, ISO 42001 und MITRE ATLAS.
- Warum Bedrohungsmodellierung für KI wichtig ist: Unterschiede zur traditionellen IT, Schlüsselkonzepte (Assets, Angreifer, Angriffsfläche).
- Gehen Sie durch STRIDE, PASTA, OCTAVE, zugeschnitten auf KI-Workflows.
- Häufige KI-Schwachstellen (Data Poisoning, Modellumgehung, Inferenzangriffe) und deren Zuordnung zu Bedrohungsmodellen.
- Praktische Gruppenübung: Erstellen eines Bedrohungsmodells für einen KI-Beispielservice in VMs.
- Grundprinzipien (Least Privilege, Defense-in-Depth, Fail-Secure), die auf Daten-, Modell- und Inferenzkomponenten angewendet werden.
- Entwurfsmuster (Sandboxing-Inferenz, Modellsignierung, verschlüsselte Trainingsdaten) und wann sie zu verwenden sind.
- Integration von Sicherheitsgates in CI/CD für KI: Datenvalidierung, Modelltests, Code-Reviews.
- Entwicklung in der Gruppe und Präsentation einer sicheren End-to-End-KI-Pipeline unter Verwendung der bereitgestellten VM-Sandbox.
- FGSM, PGD, Poisoning, Backdoors: wie sie unter der Haube funktionieren.
- Verteidigungsmassnahmen wie gegnerisches Training, Eingabesanierung, Modellhärtung.
- Messung der Robustheit: Abwägung zwischen Genauigkeit und Robustheit, zertifizierte Schutzmassnahmen, Benchmarks.
- Red-Team/Blue-Team-Übung: Angriff auf ein Modell, dann Implementierung und Test der Verteidigungsmassnahmen.
- Protokollierungsstrategien, Telemetrie für KI-Workloads, ML-gestützte Anomalieerkennung.
- Erstellung von IR-Plänen für KI-Vorfälle, Rollen/Zuständigkeiten, Kommunikationsflüsse.
- Sammeln und Aufbewahren von KI-Nachweisen: Modellartefakte, Protokolle, Speicherauszüge.
- Team-basierte Übung: Entdeckung einer Live-Kompromittierung, Eindämmung und Erstellung eines forensischen Berichts.
Voraussetzungen
Verständnis grundlegender Sicherheitsgrundsätze (Vertraulichkeit, Integrität, Verfügbarkeit), gängiger Bedrohungen und Risikomanagementverfahren.
Grundlegende Kenntnisse darüber, wie ML-Modelle trainiert, validiert und eingesetzt werden (z. B. überwachtes Lernen, Modelllebenszyklus).
Erfahrung im Umgang mit Linux-basierten Umgebungen, Befehlszeilenschnittstellen und virtuellen Maschinen.
Python-Kenntnisse werden empfohlen, insbesondere für die Interaktion mit ML-Bibliotheken (z. B. scikit-learn, PyTorch, TensorFlow).
Kenntnisse über Netzwerke, APIs, Cloud-basierte Bereitstellungen und Softwareentwicklungszyklen (SDLC).
Zielgruppe
Sicherheitsingenieure, -analysten und -architekten, die ihr Fachwissen in den Bereichen KI-spezifische Bedrohungsmodellierung, sicheres Design und Verteidigungsstrategien erweitern möchten.
Entwickler für maschinelles Lernen und Datenwissenschaftler, die die Sicherheitsrisiken und Abwehrmechanismen im Zusammenhang mit dem Einsatz von KI-Systemen verstehen müssen.
SOC-Analysten und blaue Teams, die an der Erkennung, Untersuchung und Reaktion auf Sicherheitsvorfälle mit KI-gestützten Anwendungen beteiligt sind.
Entwickler von KI-Systemarchitekturen, die eine sichere Integration von Modellen, Datenpipelines und APIs über den gesamten Lebenszyklus hinweg gewährleisten wollen.
ZERTIFIKAT
Nach Abschluss des Kurses stellt das Swiss Cyber Institute allen erfolgreichen Teilnehmern das Zertifikat "AI Security Engineer" in elektronischer Form zur Verfügung.
TEAM-SCHULUNG
Wir konzipieren massgeschneiderte Teamtrainings für Ihr Unternehmen, um Ihr KI-Wissen innerhalb der Organisation zu stärken. Wir sind hier, um Ihr Team auf die Zukunft vorzubereiten.
All our courses
Subscribe for updates
We share the most important cyber security news. Stay informed for free and stay cyber secure.








