Skip to content

DevOps/ML Engineer (m/f/d)

  • vor Ort
    • München, Bayern, Deutschland
  • Machine Learning Engineering

Jobbeschreibung

Bei Machine Learning Reply arbeiten wir mit unseren Kunden an hochmodernen Projekten, für die wir DevOps- und ML-Engineers suchen, um unsere Kundenprojekte rund um Machine Learning und Data Processing in verschiedenen Branchen zu unterstützen. Um unser Team zu erweitern, suchen wir talentierte und hochqualifizierte Berater*innen mit technischem Hintergrund für unser Team. Als Berater*in seid ihr für die fachliche Beratung und technische Unterstützung unserer Kunden verantwortlich.

Ob du schon ein erfahrener DevOps- oder ML-Engineer bist oder gerade erst in dem Bereich Machine Learning und/oder DevOps-Engineering einsteigst - wenn du nie den Fokus verlierst, Coding, Daten und KI liebst und mit Leidenschaft deine Ideen zum Leben erweckst - dann möchten wir von dir hören!


Verantwortlichkeiten

  • Konzeption innovativer, technischer Ansätze für datenintensive und -intensive Anwendungen mit Schwerpunkt auf Machine Learning und künstlicher Intelligenz verantwortlich
  • Implementierung und Verantwortung deiner Lösungen entweder in Cloud-basierten (AWS, Azure oder GCP) und/oder On-Premises-Infrastrukturen unserer Kunden
  • Automatisierung wiederkehrende Aufgaben durch modernste DevOps- und MLOps-Konzepte, so dass Kunden ihre Time-to-Delivery deutlich reduzieren können
  • Du kümmest dich um die notwendigen Überwachungs-, Failover- und Recovery-Infrastrukturen, die unseren Kunden einen sicheren Betrieb ihrer Machine-Learning-Lösungen in Übereinstimmung mit den neuesten regulatorischen Anforderungen ermöglichen
  • Enge Interaktion mit Kunden und Interessengruppen, um konkrete und komplexe Geschäftsanforderungen in produktionsreife Lösungen zu übersetzen
  • Zusammenarbeit mit verschiedenen Disziplinen wie Enterprise Architects, Analysten, Data Scientists oder Data Engineers zur Entwicklung datenintensiver Anwendungen wie Data Warehouses, Data Lakes und/oder Datenplattformen

Was wir Ihnen bieten:


  • Zugang zu branchenübergreifenden Projekten (große und mittelständische Unternehmen aus den Bereichen Banken, Versicherungen, Automotive, Einzelhandel usw.)
  • Erweitere deine Kompetenzen durch interdisziplinäres Arbeiten und Schulungen in den Bereichen Data Engineering, Cloud-Architektur und Data Science
  • Profitiere von branchenführenden Kooperationen in den Bereichen Cloud, BI und AutoML
  • Sehr aktives Rahmenprogramm - einschließlich Schulungen, Konferenzen, Team Buildings, Reply Exchange, Communities of Practices und Hackathons
  • Arbeite in einer offenen, flachen Umgebung, innerhalb eines breiten Reply-Netzwerks zum Wissensaustausch
  • Preisgekrönte Büroräume in der Münchner Innenstadt mit Zugang zur Stammstrecke
  • Fahrkarte für öffentliche Verkehrsmittel mit Deutschlandticket
  • Zuschuss zu einer Fitnessstudio-Mitgliedschaft in einem Fitnessstudio Ihrer Wahl
  • Flexible Arbeitsumgebung zwischen Kunden, Reply-Büro und Remote-Arbeit

Stellenanforderungen

Mindestanforderungen an die Stelle/Qualifikationen

  • Bachelor-/Master-Abschluss in Informatik oder einem anderen verwandten Fachgebiet (z. B. Ingenieurwesen, Statistik, Physik)
  • Erste praktische Erfahrungen mit DevOps/MLOps-Prinzipien und Cloud-Plattformen wie Microsoft Azure, AWS und GCP sowie Databricks.
  • Die Fähigkeit, analytische Ergebnisse überzeugend zu kommunizieren und dem Management zu präsentieren
  • Wir decken den gesamten Data Lifecycle ab, von Cloud-Infrastruktur, Data Engineering, Datenanalyse und Visualisierung bis hin zu ML Engineering und MLOps. Interesse und/oder Erfahrung in einigen dieser Bereiche ist ein Vorteil
  • Du sprichst fließend Englisch und kannst Deutsch mindestens auf B2-Niveau sprechen

Erwünscht

  • Arbeitserfahrung in Cloud-Technologien (AWS, Azure oder GCP), Kubernetes und Programmiersprachen wie Python, Java und Scala
  • Praktische Erfahrung mit SQL- und NoSQL-Datenbanktechnologien und Data Lakes
  • Erfahrung mit Big-Data-Technologien (Apache Spark), Daten-Streaming (Apache Kafka) und Workflow-Orchestrierung (Apache Airflow, Dagster)

oder