Zum Inhalt springen

AI Application Engineer – AI Products (LLM & RAG) (m/f/d)

  • vor Ort, Hybrid
    • Berlin, Berlin, Deutschland
    • München, Bayern, Deutschland
    +1 weitere
  • Machine Learning Engineering

Jobbeschreibung

Bei Machine Learning Reply unterstützen wir Unternehmen dabei, modernste AI-Technologien in reale Anwendungen und skalierbare digitale Produkte zu verwandeln.

Zur Verstärkung unseres Teams suchen wir einen AI Application Engineer, der Freude daran hat, AI-powered solutions und intelligente Produkt-Features mit Hilfe von modernen Machine Learning und Generative AI Technologien zu entwickeln.

Während sich unsere GenAI Engineers auf die Modellentwicklung und AI-Architekturen konzentrieren, liegt der Fokus der AI Application Engineers auf der Entwicklung nutzerzentrierter AI-Applications und der Überführung von AI-Capabilities in skalierbare Produkte.

In dieser Rolle arbeitest du an der Schnittstelle von AI Engineering, Backend Development, Produktentwicklung und Cloud Deployment, um produktionsreife AI-Systeme zu bauen, die echten geschäftlichen Mehrwert schaffen.

Deine Aufgaben

Als AI Application Engineer konzipierst und entwickelst du AI-powered Applications und Produkt-Features für Unternehmenskunden. Deine Projekte umfassen unter anderem:

  • Design und Entwicklung von AI-Applications, wie z. B. Enterprise Assistants, AI Copilots, semantische Suchplattformen und intelligente Automatisierungssysteme.

  • Bau von LLM-powered Applications unter Nutzung von Retrieval-Augmented Generation (RAG) und modernen AI-Frameworks.

  • Entwicklung von End-to-End AI-Produkten durch die Integration von LLM APIs, Unternehmensdatenquellen und Backend-Services.

  • Design skalierbarer AI-Microservices und APIs, um AI-Capabilities in Unternehmensplattformen einzubinden.

  • Implementierung von Vector Search, Embeddings-Pipelines und Knowledge Retrieval Systems.

  • Rapid Prototyping von AI-Features und Proof-of-Concepts sowie deren Weiterentwicklung zu Produktionssystemen.

  • Enge Zusammenarbeit mit Product Managern, Designern, AI Engineers und Kunden, um wirkungsvolle AI-Solutions zu entwickeln.

  • Deployment von AI-Systemen auf Cloud-Plattformen und in Produktionsumgebungen unter Nutzung moderner DevOps-Practices.

  • Sicherstellung zuverlässiger und skalierbarer AI-Services durch CI/CD-Pipelines, Monitoring und containerisierte Deployments.

Deine Benefits

  • Arbeite in einem offenen und kollaborativen Umfeld innerhalb des globalen Reply-Netzwerks und entwickle Next-Generation AI Applications sowie intelligente digitale Produkte.

  • Zusammenarbeit mit interdisziplinären Teams aus AI Engineers, Software-Entwicklern und Data Scientists über Branchen wie Banking, Insurance, Automotive und Retail hinweg.

  • Ein sehr aktives Social Program mit bezahlten Trainings, Konferenzen, Communities of Practice, Hackathons und dem Reply XChange.

  • Finanzielle Benefits: Mobility-Paket, Gym-Zuschuss & WellPass, Versicherungs- & Rentensysteme, Corporate Savings Plan sowie KiTa- und Kinderbetreuungszuschuss.

  • Flexible Arbeitsgestaltung: Wechsel zwischen Home-Office, EU-weiten Workation-Optionen, Büroarbeit in unserem Münchner Innenstadt-Büro (direkt an der Stammstrecke) und Vor-Ort-Besuchen beim Kunden (maximal 20 % Reiseanteil).

Stellenanforderungen

  • Abschluss in Computer Science, Software Engineering, Data Science oder einem vergleichbaren technischen Fachbereich

  • Überzeugende Kommunikations- und Präsentationsfähigkeiten in Deutsch (C1) und Englisch (C1), um an Workshops in beiden Sprachen teilzunehmen

  • Fundierte Programmierkenntnisse in Python und modernen Backend-Frameworks

  • Erfahrung im Bau von Applications unter Nutzung von AI, Machine Learning oder Generative AI Technologien

  • Vertrautheit mit Retrieval-Augmented Generation (RAG) und Vector Databases

  • Vertrautheit mit Cloud-Plattformen wie AWS, Azure oder GCP

  • Direkter Austausch mit Enterprise-Kunden, um deren geschäftliche Herausforderungen zu verstehen und High-Impact-Opportunities für AI-driven Solutions zu identifizieren

Nice to have

  • Erfahrung in der Durchführung technischer Workshops oder in der Moderation von Solution Design Sessions

  • Erfahrung mit Frameworks wie LangChain, LlamaIndex oder HuggingFace

  • Erfahrung in der Entwicklung von APIs, Microservices und skalierbaren Backend-Systemen, einschließlich Vector Databases

  • Erfahrung mit Containerization und DevOps-Practices (Docker, CI/CD Pipelines, Kubernetes oder ähnliches)

  • Erfahrung im Deployment von AI-Services in Cloud-Umgebungen

  • Kenntnisse in AI Observability, Monitoring und der Evaluation von LLM-Systemen

Beispielprojekte, an denen du arbeiten könntest

  • Enterprise AI Knowledge Assistants

  • AI Copilots für interne Business-Tools

  • Semantic Search Plattformen für Unternehmensdaten

  • Document Intelligence Systeme auf Basis von LLMs

  • AI Agents und Automatisierungssysteme für Enterprise Workflows

oder