Zum Inhalt springen

Machine Learning Security Engineer (m/w/d)

  • vor Ort, Standort flexibel, Hybrid
    • München, Bayern, Deutschland
    • Berlin, Berlin, Deutschland
    • Germany-Remote, Bayern, Deutschland
    • Leipzig, Sachsen, Deutschland
    • Bremen, Bremen, Deutschland
    • Innsbruck, Tirol, Österreich
    +5 weitere
  • Machine Learning Security

Jobbeschreibung


Stellenbeschreibung

Unternehmensübersicht:
Bei Machine Learning Reply bieten wir fortschrittliche Beratungsleistungen an der Schnittstelle von Cybersicherheit und KI an. Unser Expertenteam unterstützt Unternehmen dabei, KI-gestützte Systeme, Datenpipelines und Cloud-Infrastrukturen vor sich entwickelnden Sicherheitsbedrohungen zu schützen. Wir engagieren uns dafür, KI und Datenprodukte für Unternehmen sicherer, ethischer und widerstandsfähiger zu gestalten. Im Zuge unseres Wachstums suchen wir einen qualifizierten AI Security Engineer, der unser Beratungsteam verstärkt und unseren Kunden Cybersecurity-Lösungen bereitstellt.


Über die Rolle
Wir suchen einen ML Cybersecurity Engineer (Consultant) zur Verstärkung unseres Beratungsteams, der für die Identifizierung und Minderung von Sicherheitslücken, die spezifisch für KI-Modelle und Daten sind, verantwortlich ist. Diese Rolle erfordert fundierte Kenntnisse in Cybersicherheitspraktiken, Cloud-Computing und/oder KI-Frameworks, um die spezifischen Sicherheitsherausforderungen der KI zu bewältigen. Sie arbeiten mit Kunden zusammen, um sichere KI- und Datenarchitekturen zu implementieren, Risikofaktoren zu bewerten und Empfehlungen zu Best Practices für ethischen und sicheren KI-Einsatz zu geben. Ideale Kandidaten haben einen Hintergrund in Cybersicherheit und/oder KI und sollten ein starkes Interesse daran haben, beide Bereiche im Rahmen der Beratung zu vereinen.


Aufgaben:

  • Durchführung detaillierter Sicherheitsbewertungen von KI-Modellen, mit Fokus auf Risiken wie Modellvergiftung, Prompt Injection und unbefugten Zugriff, um die Integrität der Daten und die Zugangskontrolle zu schützen.
  • Entwicklung von Strategien zur Echtzeit-Überwachung und Vorfallreaktion, einschließlich der Analyse von Protokollen für KI-Systeme, um proaktive Verteidigungsmaßnahmen gegen KI-spezifische Bedrohungen sicherzustellen.
  • Implementierung verantwortungsvoller KI-Frameworks durch Fairness-Audits, Bias-Analysen und Überprüfungen der Erklärbarkeit von KI, um ethischen Richtlinien gerecht zu werden.
  • Design von automatisierten Bedrohungserkennungssystemen mithilfe KI-gesteuerter Tools zur kontinuierlichen Stärkung von Sicherheitsmodellen.
  • Schutz von geistigem Eigentum und KI-generierten Ausgaben durch sichere Zugangsschichten, Inhaltsüberprüfungsmethoden und Wasserzeichen.
  • Durchführung von Code-Sicherheitsscans und Optimierung von Workflows mit fortschrittlichen KI-Sicherheitstools, um die Einhaltung von Sicherheitsstandards zu gewährleisten.
  • Zusammenarbeit mit Kunden zur Ermittlung von Sicherheitsanforderungen, Bereitstellung präziser und umsetzbarer Sicherheits-Empfehlungen und Beratung zu KI-Sicherheits-Frameworks.

Stellenanforderungen

Anforderungen


Erforderliche Qualifikationen:

  • Bildung: Bachelor- oder Masterabschluss in Informatik, Cybersicherheit, KI, Datenwissenschaft oder einem verwandten Bereich.
  • Technischer Hintergrund: Nachgewiesene Erfahrung in Cybersicherheit und/oder KI, idealerweise mit einem starken Interesse an der Sicherung von KI-Lösungen. Erfahrung in der KI-Modellentwicklung, adversarial Testing, Sicherheitsbewertungen insbesondere im KI-Kontext, Cybersicherheitsanalysen sind von Vorteil.
  • Kundenerfahrung: Starke zwischenmenschliche und kommunikative Fähigkeiten, idealerweise Erfahrung in einer beratenden oder kundenorientierten Rolle. Fähigkeit, komplexe technische Erkenntnisse in verständliche, umsetzbare Einblicke für verschiedene Kundengruppen zu übersetzen.
  • Verständnis von KI-Sicherheitsbedrohungen: Vertrautheit mit KI-spezifischen Schwachstellen wie Model Poisoning, Prompt Injections und Data Obfuscation.

  • Monitoring- und Observability-Fähigkeiten: Praktische Erfahrung mit Monitoring- und Observability-Plattformen (z.B. Splunk, ELK Stack) ist vorteilhaft.
  • Kenntnisse in verantwortungsvoller KI-Praxis: Erfahrung mit erklärbarer KI, Fairness-Audits und ethischen KI-Praktiken.
  • Analytische Fähigkeiten: Stark ausgeprägte Fähigkeiten zur Analyse von Sicherheitsbefunden, Durchführung von KI-gesteuerten Bedrohungsbewertungen und effektiver Berichterstattung von Erkenntnissen.
  • Programmierkenntnisse: Kenntnisse in Python, Erfahrung mit KI/ML-Frameworks (z.B. TensorFlow, PyTorch) und Cybersicherheitstools (z.B. Metasploit, Nmap) sind von Vorteil.
  • Cloud-Computing: Vertrautheit mit Cloud-Frameworks (AWS, Azure), mit Fokus auf die Absicherung von Machine-Learning-Workloads.


Bevorzugte Qualifikationen:

  • Zertifizierungen im Bereich Sicherheit (z.B. CISSP, CEH, Security+) und/oder relevante Cloud-Computing-Zertifizierungen (z.B. AWS SA)
  • Kenntnisse und Fachwissen im Bereich der EU-KI-Verordnung (EU AI Act)
  • Vertrautheit mit Zero-Trust-Architekturen für KI-Systeme.


Vorteile und Zusatzleistungen:

  • Möglichkeit, mit einer Vielzahl von Kunden aus unterschiedlichen Branchen zusammenzuarbeiten.
  • Wettbewerbsfähiges Gehalt und leistungsabhängige Boni.
  • Freie Wahlmöglichkeit zwischen MacBooks/Windows und iPhones/Android-Geräten.
  • Zugang zu modernsten KI-Sicherheitstechnologien.
  • Berufliche Weiterentwicklung und kontinuierliche Lernmöglichkeiten durch beispielsweise Kostenübernahme für Zertifizierungen.
  • Flexible Arbeitsgestaltung.

oder