Jobbeschreibung
Bei Machine Learning Reply unterstützen wir Unternehmen dabei, modernste AI-Technologien in reale Anwendungen und skalierbare digitale Produkte zu verwandeln.
Zur Verstärkung unseres Teams suchen wir einen AI Application Engineer, der Freude daran hat, AI-powered solutions und intelligente Produkt-Features mit Hilfe von modernen Machine Learning und Generative AI Technologien zu entwickeln.
Während sich unsere GenAI Engineers auf die Modellentwicklung und AI-Architekturen konzentrieren, liegt der Fokus der AI Application Engineers auf der Entwicklung nutzerzentrierter AI-Applications und der Überführung von AI-Capabilities in skalierbare Produkte.
In dieser Rolle arbeitest du an der Schnittstelle von AI Engineering, Backend Development, Produktentwicklung und Cloud Deployment, um produktionsreife AI-Systeme zu bauen, die echten geschäftlichen Mehrwert schaffen.
Deine Aufgaben
Als AI Application Engineer konzipierst und entwickelst du AI-powered Applications und Produkt-Features für Unternehmenskunden. Deine Projekte umfassen unter anderem:
Design und Entwicklung von AI-Applications, wie z. B. Enterprise Assistants, AI Copilots, semantische Suchplattformen und intelligente Automatisierungssysteme.
Bau von LLM-powered Applications unter Nutzung von Retrieval-Augmented Generation (RAG) und modernen AI-Frameworks.
Entwicklung von End-to-End AI-Produkten durch die Integration von LLM APIs, Unternehmensdatenquellen und Backend-Services.
Design skalierbarer AI-Microservices und APIs, um AI-Capabilities in Unternehmensplattformen einzubinden.
Implementierung von Vector Search, Embeddings-Pipelines und Knowledge Retrieval Systems.
Rapid Prototyping von AI-Features und Proof-of-Concepts sowie deren Weiterentwicklung zu Produktionssystemen.
Enge Zusammenarbeit mit Product Managern, Designern, AI Engineers und Kunden, um wirkungsvolle AI-Solutions zu entwickeln.
Deployment von AI-Systemen auf Cloud-Plattformen und in Produktionsumgebungen unter Nutzung moderner DevOps-Practices.
Sicherstellung zuverlässiger und skalierbarer AI-Services durch CI/CD-Pipelines, Monitoring und containerisierte Deployments.
Deine Benefits
Arbeite in einem offenen und kollaborativen Umfeld innerhalb des globalen Reply-Netzwerks und entwickle Next-Generation AI Applications sowie intelligente digitale Produkte.
Zusammenarbeit mit interdisziplinären Teams aus AI Engineers, Software-Entwicklern und Data Scientists über Branchen wie Banking, Insurance, Automotive und Retail hinweg.
Ein sehr aktives Social Program mit bezahlten Trainings, Konferenzen, Communities of Practice, Hackathons und dem Reply XChange.
Finanzielle Benefits: Mobility-Paket, Gym-Zuschuss & WellPass, Versicherungs- & Rentensysteme, Corporate Savings Plan sowie KiTa- und Kinderbetreuungszuschuss.
Flexible Arbeitsgestaltung: Wechsel zwischen Home-Office, EU-weiten Workation-Optionen, Büroarbeit in unserem Münchner Innenstadt-Büro (direkt an der Stammstrecke) und Vor-Ort-Besuchen beim Kunden (maximal 20 % Reiseanteil).
Stellenanforderungen
Abschluss in Computer Science, Software Engineering, Data Science oder einem vergleichbaren technischen Fachbereich
Überzeugende Kommunikations- und Präsentationsfähigkeiten in Deutsch (C1) und Englisch (C1), um an Workshops in beiden Sprachen teilzunehmen
Fundierte Programmierkenntnisse in Python und modernen Backend-Frameworks
Erfahrung im Bau von Applications unter Nutzung von AI, Machine Learning oder Generative AI Technologien
Vertrautheit mit Retrieval-Augmented Generation (RAG) und Vector Databases
Vertrautheit mit Cloud-Plattformen wie AWS, Azure oder GCP
Direkter Austausch mit Enterprise-Kunden, um deren geschäftliche Herausforderungen zu verstehen und High-Impact-Opportunities für AI-driven Solutions zu identifizieren
Nice to have
Erfahrung in der Durchführung technischer Workshops oder in der Moderation von Solution Design Sessions
Erfahrung mit Frameworks wie LangChain, LlamaIndex oder HuggingFace
Erfahrung in der Entwicklung von APIs, Microservices und skalierbaren Backend-Systemen, einschließlich Vector Databases
Erfahrung mit Containerization und DevOps-Practices (Docker, CI/CD Pipelines, Kubernetes oder ähnliches)
Erfahrung im Deployment von AI-Services in Cloud-Umgebungen
Kenntnisse in AI Observability, Monitoring und der Evaluation von LLM-Systemen
Beispielprojekte, an denen du arbeiten könntest
Enterprise AI Knowledge Assistants
AI Copilots für interne Business-Tools
Semantic Search Plattformen für Unternehmensdaten
Document Intelligence Systeme auf Basis von LLMs
AI Agents und Automatisierungssysteme für Enterprise Workflows
oder
Alles erledigt!
Ihre Bewerbung wurde eingesendet!

