Zum Inhalt springen

Junior AI Application Engineer – AI Products (LLM & RAG) (m/f/d)

  • vor Ort, Hybrid
    • Berlin, Berlin, Deutschland
    • München, Bayern, Deutschland
    +1 weitere
  • Machine Learning Engineering

Jobbeschreibung

Bei Machine Learning Reply unterstützen wir Unternehmen dabei, modernste AI-Technologien in reale Anwendungen und skalierbare digitale Produkte zu verwandeln.

Zur Verstärkung unseres Teams suchen wir einen Junior AI Application Engineer, der Freude daran hat, AI-powered solutions und intelligente Produkt-Features mit Hilfe von modernen Machine Learning und Generative AI Technologien zu entwickeln.

Während sich unsere GenAI Engineers auf die Modellentwicklung und AI-Architekturen konzentrieren, liegt der Fokus der AI Application Engineers auf der Entwicklung nutzerzentrierter AI-Applications und der Überführung von AI-Capabilities in skalierbare Produkte.

In dieser Rolle arbeitest du an der Schnittstelle von AI Engineering, Backend Development, Produktentwicklung und Cloud Deployment, um produktionsreife AI-Systeme zu bauen, die echten geschäftlichen Mehrwert schaffen.

Aufgaben

Als Junior AI Application Engineer (m/w/d) entwirfst und entwickelst du KI-gestützte Anwendungen und Produktfunktionen für Unternehmenskunden. Zu deinen Aufgaben gehören:

  • Konzeption und Entwicklung von KI-Anwendungen wie Enterprise-Assistenten, Copiloten, semantischen Suchplattformen und Automatisierungssystemen

  • Unterstützung bei der Entwicklung von LLM-basierten Lösungen (inkl. RAG) sowie End-to-End-KI-Produkten unter Integration von APIs, Unternehmensdaten und Backend-Services

  • Aufbau skalierbarer KI-Microservices, APIs sowie Vektorsuche-, Embedding- und Retrieval-Systeme

  • Schnelles Prototyping von KI-Features und deren Weiterentwicklung zu produktiven Systemen

  • Enge Zusammenarbeit mit Produktmanagern, Designern, KI-Ingenieuren und Kunden zur Entwicklung wirkungsvoller Lösungen

  • Deployment von KI-Systemen in Cloud- und Produktionsumgebungen unter Nutzung moderner DevOps-Praktiken

  • Sicherstellung von Zuverlässigkeit, Skalierbarkeit und Observability durch CI/CD, Monitoring und containerisierte Deployments

Benefits

  • HYBRIDES ARBEITEN

  • FIRMEN EVENTS

  • EXPERTEN NETZWERK

  • ZERTIFIZIERUNGEN

  • Regelmäßige und systematische (externe und interne) Weiterbildungsmöglichkeiten in den Bereichen Generative AI, LLM-Entwicklung, Cloud-Architektur und Data Science

  • Arbeit in einer offenen, flachen Umgebung, innerhalb eines breiten Reply-Netzwerks zum Wissensaustausch

  • Preisgekrönte Büroräume in der Münchner Innenstadt mit Zugang zur Stammstrecke

  • Fahrkarte für öffentliche Verkehrsmittel mit Deutschlandticket

  • Beteiligung an deinen sportlichen Aktivitäten über den EGYM Wellpass und weitere Benefits der Reply Gruppe

  • Flexible Arbeitsumgebung zwischen Kunden, Reply-Büro und Remote-Arbeit

Stellenanforderungen

Anforderungen

  • Abgeschlossenes Studium in Informatik, Software Engineering, Data Science oder einem vergleichbaren technischen Bereich

  • Programmierkenntnisse in Python und modernen Backend-Frameworks sowie Erfahrung mit KI-, Machine-Learning- und generativen KI-Anwendungen

  • Erste Erfahrung in der Entwicklung skalierbarer Backend-Systeme, APIs und Microservices sowie Kenntnisse in RAG, Vektordatenbanken und Retrieval-Technologien

  • Praxis in Containerisierung und DevOps (z. B. Docker, CI/CD, Kubernetes) sowie Deployment von KI-Services in Cloud-Umgebungen (AWS, Azure, GCP)

  • Berührungspunkte mit relevanten Frameworks (z. B. LangChain, LlamaIndex, Hugging Face)

  • Kenntnisse in Monitoring, Observability sowie Evaluation und Optimierung von LLM-Systemen

  • Sehr gute Deutsch- und Englischkenntnisse für Workshops und Kommunikation

Beispielprojekte, an denen du arbeiten könntest

  • Enterprise AI Knowledge Assistants

  • AI Copilots für interne Business-Tools

  • Semantic Search Plattformen für Unternehmensdaten

  • Document Intelligence Systeme auf Basis von LLMs

  • AI Agents und Automatisierungssysteme für Enterprise Workflows

oder