Senior Big Data Experte

  • ELCA
  • Basel, BS, Switzerland
  • 26/05/2021
Full time Data Science Data Analytics Big Data Data Management Statistics

Job Description

Bewerben

Unsere Business Line für Business Intelligence und Big Data, ein Team innerhalb von ELCA, das für die Bereitstellung wichtiger Technologieplattformen verantwortlich ist, die das Wachstum unserer Kunden unterstützen, sucht einen Senior Big Data Experten, der die praktischen Entwicklungsaufgaben innerhalb unseres Delivery-Teams übernimmt. Als Hauptverantwortlicher werden Sie eng mit Data Engineers, Data Architects und Data Scientists in mehreren Teams zusammenarbeiten, um erstklassige Datenanalyseplattformen aufzubauen und zu betreiben.

Sie werden an Projekten mit agilen Methoden mitwirken, um skalierbare, zuverlässige Technologien und Infrastrukturen für die Datenanalyseplattformen unserer Kunden aufzubauen. Diese Rolle kombiniert bewährte technische Fähigkeiten in Big Data-Ökosystemen mit einem starken Fokus auf Open Source-Software (Apache Spark, Kafka, Hadoop, CDP usw.) und Cloud-Infrastruktur (Azure, AWS oder Google).

Idealerweise beherrschen Sie mehrere Big Data-Technologien fliessend - einschliesslich Hadoop-, Spark-, MPP-Datenbanken und NoSQL-Datenbanken - und verfügen über umfassende Erfahrung in der Implementierung komplexer, verteilter Computerumgebungen, die grosse Datenmengen aus Dutzenden von Quellen aufnehmen, verarbeiten und in beinahe-Echtzeit an Data Scientists und andere Stakholder zur Analyse weiterleiten.

Ihre Aufgabe

Im Rahmen von Kundenprojekten, führen Sie folgende Aufgaben aus:

  • Sie sind an mehreren Projekten im Bereich Big Data beteiligt und fungieren als Mentor für die Mitglieder des Projektteams sowie als zentrale Anlaufstelle für unsere Kunden
  • Sie unterstützen die Akquisition neuer Kundenprojekte, indem Sie Angebote vorbereiten und Kundenpräsentationen abhalten
  • Sie werden dazu beitragen, spezifische Value Propositions in verschiedenen Bereichen der Big Data-Nutzung und -Architektur zu erarbeiten und zu leiten
  • Sie sind für das Design, den Aufbau, die Bereitstellung und die Wartung unternehmenskritischer Analytics-Lösungen verantwortlich, die grosse Datenmengen im Rahmen unserer Kundenprojekte schnell verarbeiten
  • Sie tragen zum Entwerfen, Codieren, Konfigurieren und Dokumentieren von Komponenten bei, die die Datenaufnahme, das Echtzeit-Streaming, die Batch-Verarbeitung, die Datenextraktion, die Transformation und das Laden über mehrere Datenquellen und Anwendungen hinweg verwalten
  • Sie schulen andere Teammitglieder in den zu entwickelnden Technologien und lernen kontinuierlich neue Technologien von anderen Teammitgliedern
  • Sie interagieren mit Projektteams in verschiedenen Projektteams und stellen sicher, dass die Lösungen die Kundenanforderungen in Bezug auf Funktionalität, Leistung, Verfügbarkeit, Skalierbarkeit, Sicherheit und Zuverlässigkeit erfüllen
  • Sie bekleiden nach Bedarf Entwicklungs-, Qualitätssicherungs- und DevOps-Aufgaben, um die Gesamtverantwortung für Lösungen sicherzustellen
  • Sie arbeiten direkt mit Business Analysten und Data Scientists zusammen, um deren Anwendungsfälle zu verstehen und zu unterstützen

Unser Angebot

  • Ein anregendes und professionelles Arbeitsumfeld in einem dynamischen Team mit umfassender Expertise
  • Spannende Projekte mit den neuesten Technologien
  • Flache Organisationshierarchien und funktionsübergreifende Teamarbeit
  • Enger Kontakt zu Kunden in unterschiedlichen Branchen
  • Eine unterstützende Kultur mit hervorragenden Möglichkeiten zur beruflichen und persönlichen Weiterbildung und Entwicklung
  • Gute Work-Life-Balance (41 Stundenwoche und 25 Tage Ferien)
  • Beitrag an bestehendes Mobiltelefon oder Business Handy (abhängig von der Funktion)
  • 1/2 Tax Abonnement und geschäftlich unterwegs im Zug mit 1. Klasse
  • Flexible Arbeitszeiten
  • Homeoffice
  • Attraktive Pensionskassenmodelle
  • Übernahme der NBU (privat)
  • Kranktaggeldversicherung
  • Flottenrabatt (Amag, Opel und Renault)

Ihr Profil

  • Über 5 Jahre Codierungserfahrung in Java, Python oder Scala mit soliden Grundlagen für Cloud-Services, einschliesslich Datenstruktur und Algorithmusdesign
  • Über 4 Jahre Erfahrung in F&E oder Produktionssdeployments grosser Backend-Datenverarbeitungs- und Analysesysteme
  • Über 3 Jahre praktische Erfahrung in der Implementierung mit einer Kombination der folgenden Technologien: Spark, Kafka, Hadoop, MapReduce, Pig, Hive, Impala, Presto, Storm, Hbase oder Cassandra
  • Über 3 Jahre Erfahrung in Deployment und Automatisierung von Lösungen in der Cloud
  • Kenntnisse über SQL- und MPP-Datenbanken (z.B. Vertica, Netezza, Greenplum, Aster Data, Snowflake)
  • Kenntnisse über professionelle Best Practices des Software Engineerings während des gesamten Lebenszyklus der Softwareentwicklung, einschliesslich Codierungsstandards, Code Reviews, Verwaltung der Quellcodeverwaltung, Build-Prozesse, Tests und Operations
  • Teilnahme an agilen Softwareentwicklungsteams, z.B. SCRUM
  • Eine konsistente Erfolgsbilanz bei der Bereitstellung von Software aussergewöhnlich hoher Qualität für grosse, komplexe und funktionsübergreifende Projekte
  • Fähigkeit, mehrere konkurrierende Prioritäten in einer schnelllebigen Umgebung zu handhaben
  • Hervorragende mündliche und schriftliche Kommunikationsfähigkeiten
  • Starke zwischenmenschliche Fähigkeiten und der Wunsch, kollaborativ zu arbeiten
  • Erfahrung beim Unterstützen von Data Scientists und komplexen statistischen Anwendungsfällen ist sehr wünschenswert
  • Fliessend Deutsch und gutes Englisch, Französisch ist ein optionales Asset.
  • Arbeitsort: Vorzugsweise Bern, Zürich möglich.