Job Informationen
Arbeitsort: Bonaduz, 1 Tag Homeoffice pro Woche Pensum: 80-100% Aufgaben: Datenengineering und -architektur Entwurf, Entwicklung und Wartung skalierbarer Datenpipelines (ETL/ELT) zur Integration von Daten aus mehreren Systemen und Quellen Sicherstellung der Datenqualität, -konsistenz und -integrität in allen Umgebungen Optimierung der Datenflüsse und Abfrageleistung in Data Warehouses (z. B. Snowflake, Azure Synapse, BigQuery, Redshift usw.) Pflege und Verbesserung von Data-Lake- und Warehouse-Strukturen in Übereinstimmung mit Best Practices und Governance-Standards Datenmodellierung und BI Entwurf und Implementierung logischer und physischer Datenmodelle, die für Analyse- und Self-Service-BI-Tools (Power BI, Tableau, Qlik usw.) optimiert sind Entwicklung wiederverwendbarer semantischer Modelle, Datensätze und Berechnung von Kennzahlen Zusammenarbeit mit den Stakeholdern aus dem Unternehmen, um KPIs, Metriken und analytische Dimensionen zu definieren Unterstützung der Endbenutzer beim Verständnis und Zugriff auf Daten für Berichte und Analysen Governance & Quality Implementierung von Standards für Datenvalidierung, Versionierung und Dokumentation Mitwirkung an Initiativen zur Daten-Governance und Sicherstellung der Einhaltung von Datenschutz- und Datensicherheitsvorschriften (DSGVO usw.) Proaktive Überwachung und Fehlerbehebung bei Datenpipelines und BI-Leistungsproblemen Profil: Bachelor- oder Master-Abschluss in Informatik, Datenverarbeitung, Informationssystemen oder einem verwandten Bereich Mindestens 3 Jahre Erfahrung in den Bereichen Datenverarbeitung, BI-Entwicklung oder Datenmodellierung Fundierte SQL-Kenntnisse und Erfahrung mit relationaler und dimensionaler Datenmodellierung (Stern-/Schneeflockenschemata) Praktische Erfahrung mit modernen Data-Warehouse-Technologien (z. B. Azure Synapse, Snowflake, BigQuery, Redshift) Beherrschung von ETL/ELT-Tools (z. B. Azure Data Factory, dbt, Informatica, Talend, SSIS) Erfahrung mit BI-Tools wie Power BI, Tableau oder Qlik Kenntnisse in Skript- oder Programmiersprachen (Python, PySpark) sind von Vorteil Fundierte Kenntnisse in den Bereichen Data Governance, Metadatenmanagement und Datenlebenszyklusprinzipien Soft Skills: Ausgeprägte analytische und problemlösungsorientierte Fähigkeiten Ausgezeichnete Kommunikations- und Kooperationsfähigkeiten mit technischen und nicht-technischen Stakeholdern Strukturierte und detailorientierte Arbeitsweise Proaktive Denkweise mit Fokus auf kontinuierlicher Verbesserung und Automatisierung Bevorzugte Technologie-Stack Cloud: Microsoft Azure (Data Lake, Synapse, Data Factory, Power BI) Datenbank: SQL Server / Snowflake Tools: dbt, Git, Jira, DevOps CI/CD
Benötigte Skills
- Azure
- Business Intelligence
- ETL
- Senior
- CLOUD
- Python
- SQL
- DevOps
- Jira
- Bachelor
- Master
Job Details
-
Job Status Aktiv
-
Pensum Voll-/Teilzeit