Über Monda
Monda glaubt, dass jedes Unternehmen in der Lage sein sollte, die Daten zu teilen und darauf zuzugreifen, die sie benötigen, um KI voranzubringen. Daher schaffen wir ein grenzenloses Daten-Sharing-Ökosystem, um die KI-Revolution voranzutreiben und den menschlichen Fortschritt zu beschleunigen. Wir ermutigen und befähigen Unternehmen auf der ganzen Welt, ihre Daten sicher zu teilen und zu monetarisieren.
Aufgaben
- Design und Bau generischer, konfigurierbarer Datenpipelines, die über Kunden und Anwendungsfälle hinweg funktionieren, um maßgeschneiderte Implementierungen und operativen Overhead zu reduzieren
- Entwicklung von Kernkomponenten für die Backend, die es Kunden ermöglichen, diverse Datenquellen zu verbinden und marktfähige Datenprodukte für den sicheren Datenaustausch und die Monetarisierung zu veröffentlichen
- Ende-zu-Ende-Verantwortung für die Zuverlässigkeit des Datenflusses: Beobachtbarkeit, Leistung, Fehlerbehandlung und Skalierbarkeit von Python-basierten Pipelines, die mit Prefect orchestriert und auf AWS ECS ausgeführt werden
- Aufbau von Fähigkeiten zum cloudübergreifenden Datenaustausch, die einen sicheren, hochleistungsfähigen Datenaustausch zwischen Snowflake und anderen Cloudumgebungen ermöglichen
- Weiterentwicklung der Plattformarchitektur, wobei Flexibilität und Standardisierung ausbalanciert und die langfristige Wartbarkeit im Hinterkopf behalten werden
- Enge Zusammenarbeit mit Produkt, Engineering und Kunden, um reale Datenworkflows in robuste Plattformabstraktionen zu übersetzen
- Kontinuierliche Verbesserung der Entwickler- und Kundenerfahrung, um betriebliche Reibungsverluste für interne Teams und Daten-Konsumenten zu reduzieren
Anforderungen
- Mindestens 5 Jahre Berufserfahrung als Software-Ingenieur, Daten-Ingenieur oder in einer hybriden Rolle, beim Aufbau und Betrieb von produktionsreifen Datenplattformen oder Backend-Systemen
- Starke Python-Expertise mit Fokus auf das Schreiben von sauberem, testbarem und wartbarem Code über Einmal-Pipelines hinaus
- Solide Erfahrung beim Entwerfen skalierbarer Datensysteme auf Snowflake, einschließlich Leistungsoptimierung, Sicherheit und Datenaustauschkonzepte
- Erfahrung beim Aufbau und Betrieb generischer, wiederverwendbarer Datenpipelines anstelle von hochgradig angepassten, kundenspezifischen Workflows
- Praktische Kenntnisse von Workflow-Orchestrierungsframeworks (z.B. Prefect, Airflow, Dagster); Fähigkeit, Orchestrierungsmuster unabhängig von spezifischen Tools zu beurteilen
- Gutes Verständnis von cloudnativen Architekturen, einschließlich Containerisierung (Docker) und dem Ausführen von Workloads auf AWS (ECS oder ähnliches)
- Komfortabel in der Zusammenarbeit mit funktionsübergreifenden, produktorientierten Teams, in enger Abstimmung mit Engineering, Produkt und kundennahen Rollen
Benefits
Leider sind keine expliziten Benefits in der Stellenausschreibung genannt.