Let's make work better.

company cover
Was die Firma über den Job sagt
header-image

Über uns

Für meinen Stammkunden suche ich einen Data Engineer (gn). Das international aufgestellte Hamburger Unternehmen beschäftigt insgesamt rund 2000 Mitarbeitende, davon ca. 60 innerhalb der IT.

Aufgaben

  • Aufbau und Wartung effizienter und skalierbarer Datenpipelines zur Erfassung, Verarbeitung und Speicherung von Daten aus verschiedenen Quellen.

  • Sicherstellung der Datenqualität, -integrität und -verfügbarkeit.

  • Gestaltung und Implementierung von Datenbankschemata und -strukturen, die eine optimale Speicherung, Abfrage und Verarbeitung der Daten ermöglichen.

  • Entwicklung, Verwaltung und Optimierung von ETL-Prozessen, um Daten aus verschiedenen Quellen zu extrahieren, zu transformieren und in Zielsysteme zu laden.

  • Sicherstellung einer zeitnahen und präzisen Datenbereitstellung.

  • Nutzung von Snowflake und Azure Data Factory zur Verwaltung cloudbasierter Data-Warehouse- und Datenintegrationsprozesse.

  • Sicherstellung einer effizienten Datenspeicherung und -zugänglichkeit.

  • Integration von IoT-Daten mithilfe von Azure IoT Hub, um eine Echtzeit-Datenverarbeitung und -analyse zu ermöglichen.

  • Implementierung und Verwaltung von Daten-Workflows mit Apache Airflow, um ETL-Prozesse und andere datenbezogene Aufgaben zu automatisieren und zu steuern.

Profil

  • Abgeschlossenes Bachelor-Studium in Informatik, Informationstechnologie, Ingenieurwesen oder einem verwandten Bereich.

  • Mindestens 5 Jahre Erfahrung als Data Engineer oder in einer vergleichbaren Position.

  • Fundierte Erfahrung mit Datenpipeline-Tools und -Techniken.

  • Sehr gute Kenntnisse in Snowflake und Azure Data Factory.

  • Erfahrung mit der Integration von IoT-Daten über Azure IoT Hub.

  • Praktische Erfahrung mit Apache Airflow zur Workflow-Automatisierung.

  • Expertenwissen in ETL-Prozessen und den dazugehörigen Tools.

  • Starke SQL-Kenntnisse und Erfahrung mit relationalen Datenbanken.

  • Vertraut mit Datenmodellierungsprinzipien und Best Practices.

  • Erfahrung mit Datenvisualisierungstools, insbesondere Microsoft Power BI.

  • Kenntnisse in Cloud-Computing-Konzepten, insbesondere Microsoft Azure.

  • Erfahrung mit weiteren Cloud-Plattformen wie AWS oder Google Cloud.

  • Vertraut mit Big-Data-Technologien wie Hadoop, Spark oder Kafka.

  • Erfahrung mit Python oder anderen Skriptsprachen.

  • Kenntnisse in Data Governance und Datenqualitäts-Frameworks.

  • Sehr gute Deutsch- und Englischkenntnisse erforderlich.

Wir bieten

  • Eine unbefristete Festanstellung in Vollzeit (37,5 Std./ Woche bei Vollzeit)

  • Flexibles Arbeitszeitmodell

  • Eine hybride Homeoffice-Lösung (2-4 Tage Homeoffice/ Woche möglich)

  • 30+ Urlaubstage

  • Interne & externe Weiterbildungsangebote

  • Urlaubsgeld, Bonuszahlungen, BAV & VWL

  • Fitnessstudio vor Ort, Kantine mit Essenszulagen, Fahrtkostenzuschuss, Jobrad, Mitarbeiter- & Teamevents

Kontakt

Kirill Kim

Senior Sales Consultant DevOps & Cloud

Tel.: 015906100972

Mail: kirill.kim@workidentity.de

Dann bewirb dich gleich für den Job bei workidentity GmbH.