Erstellung von Reports, Power BI) Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Mind. 5 Jahre Berufserfahrung in den Bereichen Data Engineering oder Business Intelligence oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Erfahrung mit der Modellierung von Daten (Star Schema, Data Vault, Dritte Normalform) und der Umsetzung in Softwareprodukten Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Erstellung von Reports, Power BI) Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Mind. 5 Jahre Berufserfahrung in den Bereichen Data Engineering oder Business Intelligence oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Erfahrung mit der Modellierung von Daten (Star Schema, Data Vault, Dritte Normalform) und der Umsetzung in Softwareprodukten Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Dein Profil Du hast ein abgeschlossenes Studium der Informatik oder eine vergleichbare Qualifikation mit analytischer Stärke.Du beherrschst Python und Spark idealerweise in Kombination mit Databricks und verfügst über tiefgehende Azure-Kenntnisse.Du bringst Erfahrung im Bereich Infrastructure-as-Code mit, z.
Scrum, ITIL) und in der Datenmodellierung Praxis in gängigen Tools wie Git, Jira, Confluence, SQL, Python und R; von Vorteil: Kenntnisse in QlikView/QlikSense, Power BI, Oracle, DB2, MySQL, Teradata oder MS SQL Server Die ausgeprägte Fähigkeit, die Kundenperspektive einzunehmen, Skepsis abzubauen und praxisnahe Lösungen zu entwickeln Abgeschlossenes Studium in (Wirtschafts-)Informatik, Data Science, AI, Mathematik, Statistik, Physik, Ingenieurwissenschaften oder eine vergleichbare Qualifikation Darauf darfst Du Dich schon freuen Flexible Arbeitsmodelle: Hochflexible (hybride) Arbeitszeit-/ortsmodelle, 30 Tage Urlaub und (Integrated) Sabbatical-Möglichkeiten sorgen für eine ausgewogene Work-Life-Balance.
Ganz nach Ihren Interessen und abhängig von Ihren Erfahrungen und Qualifikationen. Sie profitieren dabei von einer professionellen Betreuung von der ersten Ansprache bis zum Antritt Ihres neuen Projektes bzw.
Ganz nach Ihren Interessen und abhängig von Ihren Erfahrungen und Qualifikationen. Sie profitieren dabei von einer professionellen Betreuung von der ersten Ansprache bis zum Antritt Ihres neuen Projektes bzw.
Du beherrschst Deutsch und Englisch sicher (mindestens B2-Niveau) und kannst deine Rolle in beiden Sprachen ausführen.Innerhalb unseres einheitlichen und transparenten Gehaltsframeworks ordnet sich das Bruttojahresgehalt der Position bei einer Spanne von 60.000 – 76.000 EUR ein und orientiert sich an verschiedenen Faktoren, wie Qualifikation und Erfahrung.Daniela +49 821 885882-0 work@xitaso.com
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du identifizierst technische Verbesserungsmöglichkeiten und setzt diese um – etwa durch Performance Tuning, Automatisierung oder die gezielte Nutzung bestehender oder neuer Features Du gestaltest die Weiterentwicklung unserer Plattform aktiv mit, indem du technische Standards mitentwickelst, Architekturentscheidungen begleitest und eng mit anderen Engineering Teams zusammenarbeitest Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.