Projektinformationen
- Kein Sub-Contracting möglich, ausschliesslich Personalverleih über die Hays (Schweiz)
Aufgaben
- Aufbau und Entwicklung sowie Wartung von Datenpipelines mit Apache Airflow
- Entwicklung von PL/SQL-Abfragen und Prozeduren
- Nutzung von NoSQL-Datenbanken (z.B. MongoDB)
- ETL-Prozesse zur Datenintegration in die CMDB
- Integration von Datenquellen via MuleSoft
- Modellierung nach dem Common Information Model (CIM)
- Datenabgleich und Qualitätssicherung
- Zusammenarbeit mit Teams zur Anforderungsanalyse
- Dokumentation von Prozessen und Datenmodellen
Profil
- Nachgewiesener Erfahrung in Data Engineering und Datenmodellierung
- Kenntnissen in Python und weiteren Skriptsprachen
- Fundiertem Verständnis von Service Asset and Configuration Management (SACM)
- Expertise im Common Information Model (CIM)
- Erfahrung mit Apache Airflow und Container-Lösungen (Kubernetes)
- PL/SQL-Kenntnissen und Erfahrung mit NoSQL-Datenbanken (MongoDB)
- Praktischer Erfahrung mit MuleSoft oder ähnlichen Integrationsplattformen
- Kompetenzen in Datenqualitätsmanagement und ETL-Prozessen
- Web-Frontend-Entwicklungserfahrung
- Analytischen Fähigkeiten und Teamorientierung
- Englisch fliessend und gute Deutschkenntnisse
Benefits
- Verantwortungsvolle und abwechslungsreiche Tätigkeit in einem technisch spannenden Umfeld
- Zugang zu modernsten Technologien und Tools
-
Remote-Möglichkeit
- Ihr Umfeld und Ihr Arbeitsalltag werden engagiert und abwechslungsreich sein