Cloud Big Data Engineer / DevOps Engineer

Unternehmen

QIMIA GmbH

Über diese Stelle

Köln
Analyse, Datenbanken, Finance & Insurance, IT & Tech, Medizin, Medizinische Assistenz, Software-Entwicklung
Festanstellung
Teilweise Remote Work

Über QIMIA GmbH

Qimia ist ein international aufgestelltes Unternehmen mit einer Start-up-Mentalität für die digitale Transformation. Wir unterstützen Unternehmen umfassend bei ihrer Digitalisierung durch innovative und hervorragende Software & Lösungen, Big Data (& AI), Cloud Computing, Machine Learning und Artificial Intelligence. Unsere Mission ist es, Technologien der Zukunft zu entwickeln. Damit verändern wir die Art und Weise, wie Menschen Daten nutzen, mit ihnen interagieren, sie erforschen und daraus Erkenntnisse gewinnen. Sind Sie ein Verfechter von Spitzentechnologien, arbeiten Sie gerne in einem agilen und innovativen Umfeld und halten Sie mit der sich ständig weiterentwickelnden technischen Landschaft Schritt? Lernen Sie gerne Neues und haben Sie eine Macher- und Ingenieurmentalität? Dann ist Cloud Engineering / DevOps Engineering genau das Richtige für Sie. Wir suchen ab sofort oder zu einem späteren Zeitpunkt einen Cloud Big Data Engineer / DevOps Engineer in Vollzeit. Standorte,
an denen
wir nach neuen Kollegen suchen: Hannover oder Köln.

Aufgaben

  • Entwicklung innovativer Plattformen und Technologien, insbesondere in den Bereichen Data Analytics, Machine Learning und Artificial Intelligence.
  • Entwicklung von Empfehlungsmaschinen, Web- und Text-Data Mining unter Verwendung von Natural Language Understanding-Modellen, Anwendung von Algorithmen und Tools zur Netzwerk- und Graphenanalyse, Deep Neural Network Learning.
  • End-to-End-Design und -Implementierung von Data Analytics-Systemen; dazu gehören Datenerfassung, Requirements Engineering und Spezifikation sowie das Design von technischen Lösungen auf der Grundlage von Geschäftsanforderungen.
  • Entwicklung von ETL-Pipelines für große komplexe Datensätze und Verarbeitung strukturierter und unstrukturierter Daten mit Spark, Hive, Kafka, Flume, Oozie usw.
  • Prototyping und Implementierung von massiv skalierten Data Analytics-Lösungen auf der Grundlage von Big Data-Tools (Hadoop, Spark, HIVE / Impala, SQL, H2O, Python und R).
  • Arbeiten mit Cloud-Plattformen (Amazon Web Services, Microsoft Azure oder Google Cloud Platform).
  • Entwicklung von Event-Streaming-Lösungen in einer Container-basierten Umgebung.

Fähigkeiten

  • Hochschulabschluss in Informatik, Informationssystemen oder gleichwertiger Abschluss in Informatik, Statistik, Operations Research, Bioinformatik, Mathematik oder Physik.
  • Grundlegendes Verständnis von relationalen und nicht-relationalen Datenbanken.
  • Erfahrung im Umgang mit AWS- oder Azure-Technologie und praktische Erfahrung in der Programmierung mit AWS- oder Azure-APIs.
  • Verständnis der Automatisierung auf AWS oder Azure unter Verwendung von Deployment-Tools und/oder anderen Continuous-Integration/Configuration-Management-Tools (z. B. Ansible und Terraform).
  • Lösungsorientierter Ansatz und Implementierung Ihrer Lösung für unsere Kunden.
  • Proaktivität, Teamfähigkeit, starke Kommunikationsfähigkeiten, Belastbarkeit, eine selbständige, analytische und konzeptionelle Arbeitsweise zeichnen Sie aus.
  • Erfahrung mit einer oder mehreren Mehrzweck-Programmiersprachen, einschließlich, aber nicht beschränkt auf: Java, C / C ++, Python, Scala oder JavaScript.
  • Die Fähigkeit, Kunden oder Kollegen komplexe technische Strukturen und Sachverhalte zu erklären.
  • Sehr gute Beherrschung der deutschen und englischen Sprache in Wort und Schrift.
  • Mobilität und Flexibilität, um beim Kunden vor Ort zu arbeiten, gehören zu unserem Job.

Standort

Adresse

Köln, Deutschland


Diese Stellen könnten interessant für Dich sein