Hol dir die App

Scanne den QR-Code, melde dich bei truffls an und finde deinen Job mit einem simplen Swipe.

Hier befindet sich ein QR Code. Mit dem Telefon gescannt, führt er zum App Store deines Geräts. QR Code

Senior Data Engineer (d/m/w) Snowflake AWS & Analytics

Unternehmen

Haufe Group SE

Über diese Stelle

Freiburg im Breisgau
Datenbanken, IT & Tech, Medizin, Medizinische Assistenz
Festanstellung
Teilweise Remote Work

Über Haufe Group SE

Für unser Team Data & Analytics Services im Geschäftsbereich IT suchen wir zum nächstmöglichen Termin am Standort Freiburg eine:n Senior Data Engineer (Lead, Principal) – Snowflake AWS & Analytics (d/m/w) .

Aufgaben

  • Als Senior Data Engineer mit Spezialisierung in Snowflake und AWS wirst du robuste und cloud-native Snowflake-Lösungen auf Enterprise-Niveau entwerfen und implementieren. Diese hands-on Engineering-Position hat signifikanten architektonischen Einfluss wirkt als technischer Gegenpol zu Data Architects. Du arbeitest intensiv mit Snowflake, AWS, dbt und anderen modernen Datenwerkzeugen.
  • Deine Kernaufgaben:
  • Snowflake Platform Engineering: Account-Setup, Warehouse, Performance-Optimierung
  • Cloud Integration & Data Pipelines: u.a. ELT z.B. mit Fivetran/dbt, Snowpipe, AWS S3/Stages
  • Governance Implementation: DQ-Tests (dbt), Tagging/Masking Policies, Data Contracts
  • Self-Service Enablement: Analytics Engineering Patterns, Data Products

Fähigkeiten

  • Dein Profil:
  • Bachelor-Abschluss in Data Science, Computer Science, Engineering oder einem verwandtem Bereich
  • Mindestens 4 Jahre Erfahrung als Data Engineer (d/m/w) mit Fokus auf Cloud-Datenarchitekturen
  • Sehr gute Deutsch Kenntnisse und fließende English Kenntnisse (C1) in Wort und Schrift runden dein Profil ab
  • Technische Expertise (Must-Have):
  • Snowflake-AWS-Integration: u.a. Architektur, RBAC, Performance-Tuning, S3, IAM
  • Daten-Ingestion: ELT-Plattformen (z.B.Fivetran, Stitch, Snowpipe)
  • SQL & Datenmodellierung: SQL, dbt, dimensionale Modellierung und Data Vault
  • Programmierung: Python für Datenverarbeitung und Automatisierung
  • DataOps: Analytics Engineering, Data Mesh und Self Service Principles
  • Nice-to-have:
  • Deployment Backbone: Terraform inkl. Versioning, State-Management ggf. GitOps-Workflows
  • Verständnis von Data- Management und Data-Governance-Frameworks sowie Datenqualität.
  • Erfahrung mit Datenvalidierung, Testmethodologien (dbt tests)
  • Orchestrierung & DevOps: Airflow/Dagster, CI/CD, Git-Workflows.
  • Vertrautheit mit Visualisierungstools unter anderem: Tableau, Power BI, Streamlit
  • Zertifizierungen oder gleichwertige Erfahrung wie Snowflake SnowPro, AWS, Terraform

Standort

Adresse

Freiburg im Breisgau, Deutschland


Social Media


Weitere Links


Diese Stellen könnten interessant für Dich sein