Data Engineer/Analyst (m/w/d)

Unternehmen

EvoLogics GmbH

Über diese Stelle

Berlin
Analyse, Datenbanken, Finance & Insurance, IT & Tech, Medizin, Medizinische Assistenz
Festanstellung

Über EvoLogics GmbH

EvoLogics ist ein innovatives High-Tech-Unternehmen mit Sitz in Berlin.

Wir entwickeln und vermarkten weltweit Produkte und Schlüsseltechnologien in der maritimen und Offshore-Technik. Unsere Expertise umfasst die Schwerpunkte Robotik (USV, AUV und ROV), High-Tech-Sensorik, künstliche Intelligenz, fortgeschrittene Informatik, Kommunikationstechnologie sowie Positionierung.

Das Unternehmen wurde im Jahr 2000 durch international renommierte Entwicklungsexperten und Wissenschaftler gegründet und ist seitdem kontinuierlich gewachsen. Wir sind stolz auf unsere weltweite Technologieführerschaft für Anwendungen in der Meeresforschung, der smarten Robotik und der maritimen Sicherheit.

Der Mitarbeiterstamm rekrutiert sich aus internationalen erfahrenen Fachexperten, Ingenieuren und Software-Entwicklern, die über praktische Expertise und tiefgreifende wissenschaftlich-technische Kompetenzen in den Bereichen Elektronik- und Softwareentwicklung, Robotik und in der Integration komplexer IT-Systeme verfügen.

Aufgaben

  • Entwerfen, erstellen und warten von skalierbaren Datenpipelines sowie ETL/ELT-Workflows
  • Implementieren von Active-Learning-Workflows, Pre-Labelling-Pipelines und Feedback-Loops zur Verbesserung der Annotationseffizienz
  • Integrieren von Daten aus verschiedenen Quellen bei gleichzeitiger Sicherstellung von Datenqualität, Zuverlässigkeit und Verfügbarkeit
  • Entwickeln automatisierter Validierungs-, Monitoring- und Observability-Mechanismen für daten- und ML-gestützte Labeling-Prozesse
  • Zusammenarbeit mit Analytics-, ML- und Produktteams zur Bereitstellung kuratierter Datensätze für Reporting und Modellentwicklung
  • Automatisieren von Deployments, Workflow-Orchestrierung und Dateninfrastruktur unter Nutzung von DataOps-Best-Practices
  • Beheben von Pipeline-Problemen, Durchführen von Root-Cause-Analysen und Sicherstellen einer kontinuierlichen Verbesserung der Datensysteme

Fähigkeiten

  • Ein abgeschlossenes Studium im Bereich Informatik, Ingenieurwesen oder vergleichbarer Fachrichtung
  • Erfahrung mit Python für Datenverarbeitung, Pipeline-Entwicklung und Automatisierung von ML-Workflows
  • Vertrautheit mit SQL und allgemeinen Datenbankkonzepten (ausreichend zum Abfragen, Transformieren und Validieren von Daten)
  • Praxisnahe Erfahrung mit ETL/ELT-Prozessen und Orchestrierungs-Tools (Airflow, dbt, Prefect etc.)
  • Erfahrung mit Cloud-Datendiensten und verteilten Datenverarbeitungs-Frameworks
  • Kenntnisse in Active-Learning-Prinzipien, Datenlabeling-Strategien und Annotations-Tools
  • Verständnis grundlegender ML-Konzepte – Modelllebenszyklus, Feature-Pipelines, Evaluationsmethoden und Datenanforderungen für überwachtes Lernen
  • Erfahrung mit MLOps-Konzepten wie Modell-/Datenversionierung, Monitoring und Reproduzierbarkeit
  • Erfahrung mit CI/CD-Praktiken und Infrastructure-as-Code-Tools (Terraform, CloudFormation)

Standort

Adresse

Berlin, Deutschland


Social Media


Weitere Links


Diese Stellen könnten interessant für Dich sein