Logistics is People Business - dieser Leitsatz macht deutlich, dass die Mitarbeitenden für DACHSER der Schlüsselfaktor für den Unternehmenserfolg sind. Gemeinsam verfolgen wir die Mission, die weltweit intelligenteste Kombination und Integration logistischer Netzkompetenzen zu schaffen und so die Logistikbilanz unserer Kunden zu optimieren. Gestalten Sie mit uns die Logistik von morgen.
Aufgaben
- Entwerfen, Entwickeln und Pflegen der skalierbaren Datenpipelines
- Implementieren von Datenintegrationsprozessen mit Nifi, Airflow, Apache Kafka und Universal Messaging
- Verantwortung für die Datenqualität, -integrität und -sicherheit während des gesamten Datenlebenszyklus
- Neugier und Freude im Ausprobieren und Bewerten neuer Technologien
- Zusammenarbeit mit BI-Spezialisten, Datenwissenschaftlern und Cloud-Ingenieuren
Anforderungen
- Abgeschlossenes Studium oder Ausbildung im IT-Umfeld
- Gute SQL-Kenntnisse und Erfahrung mit Python
- Erfahrung mit Azure und Plattformen wie Teradata, Cloudera oder Databricks
- Kenntnisse über moderne Datenbanksysteme
- Erfahrung mit Jira, Git und Terraform
- Sehr gute Englischkenntnisse
Benefits
- Möglichkeit zum hybriden Arbeiten, moderne Arbeitsumgebung und flexible Arbeitszeiten (Gleitzeitregelung, Arbeitszeitkonto)
- Meine DACHSER Benefits - Ein flexibles Nebenleistungsangebot, das Ihnen den Benefit ermöglicht, der am besten zu Ihren Bedürfnissen passt
- Nachhaltig wachsendes und familiengeführtes Unternehmen sowie vielfältige Aufgabenstellungen in einer der Zukunftsbranchen
- Umfassendes Onboarding-Programm und Karriereplanung (DACHSER Academy)
- Fitness- und Sportangebote, eigenes Gesundheitsmanagement
- Zahlreiche Vergünstigungen auf Freizeitaktivitäten, Veranstaltungen und für Onlineshops durch unsere Corporate Benefits Plattform
- Möglichkeit zum Dienstfahrrad über Company Bike