Aufgaben
- Konzeption und Umsetzung von Datenpipelines und BI Dashboards
- Definition, Dokumentation und Implementierung von Datenflüssen und Schnittstellen zwischen IT /OT Systemen und der cloudbasierten Datenplattform
- Zusammenführung operativer Daten (z.B. Messdaten, Betriebsführung, GIS, Asset Management) zu einer einheitlichen Datenbasis für projektbezogene Analyse- und Nutzungsszenarien.
- Design, Implementierung und Weiterentwicklung von ETL-/ELT Prozessen auf Basis moderner Azure und Databricks Komponenten
- Analyse von Quellstrukturen sowie Aufbau und Pflege projektweiter Datenmodelle
- Unterstützung beim Aufbau, der Konfiguration und dem Monitoring der Datenplattform sowie der zugehörigen Schnittstellenprozesse.
- Aufbereitung und Bereitstellung von Daten für unterschiedliche technische und analytische Nutzungsszenarien im Projekt
- Entwicklung und Betreuung projektbezogener Reporting Lösungen (u.a. Power BI) sowie Sicherstellung der verwendbaren Datenversorgung für das Projekt
- Analyse fachlicher Anforderungen aus den Teilbereichen des Projekts sowie Ableitung von IT Architekturen und technischen Konzepten
- Abstimmung mit beteiligten Fachbereichen, IT Teams und externen Partnern
Profil
- Tiefes Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-Lösungen
- Erfahrung in Projekten rund um Cloud-Datenplattformen, Data Engineering, Schnittstellen und Datenintegration
- Technologisches Know-how (mind. in mehreren Bereichen)
- Azure Data Services, insbesondere: Databricks, Data Factory, Azure DevOps, Power BI
- Containertechnologien (Docker, Kubernetes)
- Python, Git, CI/CD
- ETL-/ELT-Prozesse, z.B. über REST-APIs
- SQL, Unity Catalog, moderne Data-Governance-Konzepte
Benefits
- Eine übertarifliche Bezahlung
- Betriebliche Altersvorsorge
- Betreuung im gesamten Bewerbungsprozess
- Ein renommiertes Unternehmen mit ausgezeichnetem Ruf