Du willst den Aufbau eines Datalakes und die Nutzung von Datenanalysen, Machine Learning und KI für einen effizienteren Bahnbetrieb im Nahverkehr Schiene aktiv vorantreiben? Du willst das Team bei Datenbeschaffung, Datenanalyse und bei der Umsetzung von Analytics Projekten unterstützen? Dann werde für mindestens 3 Jahre Teil des DB Regio Teams OneSource (P.RVC) in Frankfurt!
Was Dich erwartet:
Werde Teil unserer neu geschaffenen Business Intelligence Organisation bei der DB Regio AG. Wir bauen ein komplett neues Team auf mit dem Ziel datengetriebene Mehrwerte für die Organisation bereitzustellen. Wir suchen dich und deine Expertise um gemeinsam eine moderne und leistungsfähige Organisation aufzubauen.
Zum nächstmöglichen Zeitpunkt suchen wir Dich als Senior Data Engineer (w/m/d) für das Geschäftsfeld DB Regio am Standort Frankfurt am Main.
Deine Aufgaben:
Du begleitest die Initiativen des Unternehmens zur Vernetzung bislang isolierter Datenbereiche. Ziel ist es hierdurch neue Analysemöglichkeiten und die Grundlagen für neue Geschäftsideen zu schaffen
Du realisierst die Konzeption sowie den Auf- und Ausbau eines leistungsfähigen Datalakes. Darüber hinaus entwickelst Du die zugrundeliegende Infrastruktur für die Nutzung in Business Intelligence-Applikationen und Data Science Projekten
Du bindest neue Datenquellen und Schnittstellen mit Microservices (Python) an
Du entwickelts unsere bestehende Cloud-Infrastruktur weiter und ergänzt sie ggf. durch neue Komponenten
Du fungierst als Ansprechpartner für BI Entwickler und Analysten bei technischen Fragen sowie der Weiterentwicklung der Datensysteme
Dein Profil:
Du verfügst über ein abgeschlossenes Hochschulstudium in den Bereichen Informatik oder eines verwandten Studiengangs oder vergleichbare Qualifikationen durch langjährige relevante Berufserfahrung
Du hast langjährige Erfahrung in einem der Bereiche Data Engineering, Business Intelligence sowie ein tiefes Verständnis von Cloud-Technologien
Du hast gute Kenntnisse von Docker, Unix Systemen, Continuous Integration und Cloud-Umgebungen.
Du bringst umfassende Erfahrungen im Arbeiten mit relationalen und nicht relationalen Datenbanken mit
Programmierkenntnisse, vorzugsweise in einer der Sprachen Python oder R stellen für Dich kein Problem dar
Wünschenswert sind Erfahrungen im Bereich PySpark, Apache Nifi, Apache Airflow
Mit ausgeprägten analytischen und konzeptionellen Fähigkeiten sowie einer hohen Motivation und Kommunikationsfähigkeit begeisterst Du Dein zukünftiges Team
Du schätzt Vielfalt im Team und hast Spaß daran, gemeinsam etwas zu erreichen
Was du noch über uns wissen solltest:
Wir leben flache Hierarchien in einem motivierenden und selbstbestimmten Arbeitsumfeld und bieten dir die Möglichkeit, innerhalb unserer neuen Organisation mit vielfältigen Aufgaben Verantwortung zu übernehmen und dich persönlich weiterzuentwickeln.
Durch die Datenvielfalt und spannende Use Cases in unserem Geschäftsfeld können wir Mehrwerte durch die Anbindung unzähliger Quellsysteme in unseren Datalake, dem Standard Reporting bis hin zu komplexen Analysen mit Verfahren aus dem Bereich Künstlicher Intelligenz / Machine Learning schaffen.