Über statworx
statworx ist ein führendes Beratungs- und Entwicklungsunternehmen für Daten und KI mit Sitz in Frankfurt am Main. Das Unternehmen bietet strategische Beratung für mittelständische Unternehmen und globale Konzerne, entwickelt innovative Daten- und KI-Lösungen sowie Bildungsformate. Mit über 10 Jahren Erfahrung, mehr als 1000 abgeschlossenen Projekten und über 100 Kunden aus verschiedenen Industrien unterstützt statworx Unternehmen bei allen Aspekten der digitalen Transformation.
Die AI Development-Abteilung fungiert als Katalysator für Data & AI Transformation mit ganzheitlicher Herangehensweise von der KI-Reife-Evaluierung bis zur Skalierung von Lösungen.
Aufgaben
- Entwicklung moderner und skalierbarer Datenarchitekturen (Data Warehouses, Data Lakes, Lakehouses) sowie performante Datenmodelle für Analytics-, ML- und AI-Use-Cases
- Beratung von Kunden zu Technologien, Plattformen und Best Practices mit Übersetzung technischer Konzepte für Fachbereiche und Management
- Integration strukturierter und unstrukturierter Datenquellen mit Implementierung robuster ETL-/ELT-Prozesse und Sicherung hoher Datenqualität
- Aufbau von Cloud- und On-Premises-Dateninfrastrukturen (Azure, AWS, GCP) mit Infrastructure-as-Code und automatisierten Deployment- und Monitoring-Prozessen
- Beachtung von Data Governance, Datenschutz und Sicherheitsanforderungen entlang der gesamten Datenwertschöpfungskette
- Unterstützung moderner AI-Anwendungsfälle (Vektordatenbanken, Embeddings, RAG) durch geeignete Datenpipelines und Infrastruktur
- Mentoring jüngerer Kollegen und Förderung einer teamorientierten Kultur des Wissensaustauschs
- Aktive Wissensvermittlung durch Workshops, technische Blogbeiträge und Präsentationen
Anforderungen
- Erfolgreich abgeschlossenes Masterstudium in (Wirtschafts-)Informatik oder vergleichbarem Studiengang
- Mindestens 5 Jahre relevante Berufserfahrung im Bereich Data Engineering oder Datenarchitektur
- Sehr gute Kenntnisse in SQL, Python und Bash/Shell sowie Entwicklung effizienter, wartbarer Datenpipelines
- Fundiertes Verständnis moderner Datenarchitekturen mit Erfahrung in Datenmodellierung und ETL-/ELT-Prozessen
- Praktische Erfahrung mit Cloud-Plattformen (Azure, AWS oder GCP), verteilten Systemen (Spark, Kafka) und modernen Datenplattformen (Databricks, Snowflake)
- Vertrautheit mit Data Governance, Datenschutz (DSGVO) und Sicherheitsanforderungen in Cloud-Umgebungen
- Souveräne Führung technischer Diskussionen und effektive Kommunikation mit Stakeholdern auf allen Ebenen
- Fließend Englisch (Wort und Schrift) und fortgeschrittene Deutschkenntnisse (B2 oder höher)
Benefits
- Vielfältige und anspruchsvolle Projekte mit namhaften Kunden aus verschiedenen Branchen
- Kontinuierliche fachliche Weiterentwicklung und Expertise-Aufbau in Data & AI
- Professionelle Entwicklung durch Feedback, individuelle Förderung, Weiterbildung und Mentoring
- Offenes, diverses und wertschätzendes Arbeitsumfeld mit flachen Hierarchien und kurzen Entscheidungswegen
- Moderne Arbeitskultur mit Eigenverantwortung und Raum für neue Ideen
- Faire und transparente Gehaltsstufen mit regelmäßiger Marktanpassung
- Flexible Arbeitsweise mit Remote-Optionen und bis zu 4 Wochen Arbeit pro Jahr aus dem EU-Ausland
- Hochwertiges IT-Equipment, ermäßigtes Deutschlandticket, Team-Events und weitere Zusatzleistungen
Anforderungen