Unternehmen
DeutschlandRadio KdÖR
Über diese Stelle
Über DeutschlandRadio KdÖR
Deutschlandradio produziert an seinen Standorten Köln und Berlin drei bundesweit ausgestrahlte Hörfunkprogramme: Deutschlandfunk, Deutschlandfunk Kultur und Deutschlandfunk Nova. Im Netz findest du uns über die zugehörigen Webseiten und die Deutschlandfunk App. Als Teil des öffentlich-rechtlichen Rundfunks tragen wir mit unseren vielfältigen und hochwertigen Angeboten wesentlich zur Meinungs- und Medienvielfalt in Deutschland bei.
Wir suchen zum nächstmöglichen Zeitpunkt eine/n
Daten-Ingenieur/in / Data Engineer (m/w/d)
am Standort Köln oder Berlin für die Medienforschung der Programmdirektion. Das Team unterstützt und berät Redaktionen mit Nutzungsdaten in der Programm- und Formatentwicklung, versorgt Führungskräfte und Geschäftsleitung mit strategisch relevanten Erkenntnissen. Dafür arbeitet das Team mit unterschiedlichen Bereichen im Deutschlandradio zusammen – von der IT bis hin zu den Redaktionen. Ein Großteil der Arbeit kann auch im Homeoffice erledigt werden.
Aufgaben
- Weiterentwicklung und Optimierung unserer On-Premise-Datenplattform (PostgreSQL, OpenSearch) für die Analyse von insbesondere Podcast-Logfiles
- Wartung und Verbesserung der ETL/ELT-Pipelines (Airflow) zur Verarbeitung von Nutzungsdaten aus verschiedenen Quellen
- Pflege der CI/CD-Pipeline (GitLab) und Deployment-Prozesse für automatisierte Datenverarbeitung und Dashboard-Updates
- Technische Betreuung unserer Tracking-Lösung (Piano Analytics) sowie Sicherstellung hoher Datenqualität für Analysen
- Bereitstellung zuverlässiger Daten für das Team der Medienforschung und die Redaktionen sowie Unterstützung bei technischen Fragen zu Dashboards und Reports
- Weiterentwicklung von Monitoring und Alerting sowie Sicherstellung der DSGVO-Compliance bei allen Datenprozessen
Fähigkeiten
- Abgeschlossenes (Fach-)Hochschulstudium in Informatik, Mathematik, Data Science oder vergleichbarer beruflicher Werdegang mit mehrjähriger Erfahrung als Data Engineer
- Sehr gute Programmierkenntnisse in Python und fundierte SQL-Kenntnisse, idealerweise praktische Erfahrung mit PostgreSQL
- Erfahrung mit Airflow zur Orchestrierung von ETL/ELT-Pipelines sowie Vertrautheit mit GitLab CI/CD, Docker und Linux-Umgebungen
- Erfahrung mit Logfile-Analyse und -Verarbeitung sowie idealerweise Kenntnisse mit OpenSearch, Elasticsearch oder ähnlichen Such-Engines
- Grundlegendes Verständnis von Machine Learning und NLP für künftige Projekte wünschenswert, ebenso Cloud-Kenntnisse (GCP, AWS)
- Kommunikationsstärke, Freude an eigenverantwortlichem Arbeiten und die Fähigkeit, technische Sachverhalte verständlich zu vermitteln
- Gute Deutschkenntnisse in Wort und Schrift (C1-Niveau oder höher)
Standort
Adresse
Köln, Deutschland