Entwicklung, Implementierung und Wartung von skalierbaren Datenpipelines und ETL-Prozessen (Extract, Transform, Load).
Design und Implementierung von Datenmodellen und Datenbanken, um die Datenintegrität und -qualität sicherzustellen.
Zusammenarbeit mit Data Scientists und Data Analysts, um sicherzustellen, dass die Datenanforderungen erfüllt werden und die Daten für Analysen und maschinelles Lernen verfügbar sind.
Optimierung der Datenverarbeitungssysteme, um die Leistung und Effizienz zu verbessern.
Implementierung von Daten-Governance- und Sicherheitsrichtlinien, um den Schutz und die Compliance sensibler Daten zu gewährleisten.
Unterstützung bei der Entwicklung und Pflege von Daten-Dashboards und Berichten zur Visualisierung von Daten.
Kontinuierliche Überwachung und Wartung der Dateninfrastruktur, um Ausfallzeiten zu minimieren und die Systemverfügbarkeit zu maximieren.
Mitarbeit bei der Auswahl und Implementierung neuer Technologien und Tools zur Verbesserung der Datenverarbeitung und -analyse.
Anforderungen:
Abgeschlossenes Studium in Informatik, Datenwissenschaft, Ingenieurwesen oder einem verwandten Bereich.
Mindestens 3 Jahre Berufserfahrung im Bereich Data Engineering oder einer ähnlichen Rolle.
Starke Kenntnisse in SQL und Erfahrung mit relationalen Datenbanken (z.B. MySQL, PostgreSQL).
Erfahrung mit Big Data-Technologien wie Hadoop, Spark, Hive oder Kafka.
Kenntnisse in Programmiersprachen wie Python, Java oder Scala.
Erfahrung mit Cloud-Plattformen wie AWS, Google Cloud oder Azure.
Vertrautheit mit ETL-Tools und -Frameworks (z.B. Apache NiFi, Talend, Airflow).
Kenntnisse in Datenmodellierung und Datenarchitektur.
Erfahrung mit Datenvisualisierungstools wie Tableau, Power BI oder Looker.
Starke analytische Fähigkeiten und Problemlösungskompetenz.
Gute Kommunikationsfähigkeiten und die Fähigkeit, technische Konzepte klar und verständlich zu erklären.
Wünschenswert:
Erfahrung mit NoSQL-Datenbanken (z.B. MongoDB, Cassandra).
Kenntnisse in maschinellem Lernen und Data Science.
Erfahrung mit agilen Entwicklungsmethoden und DevOps-Praktiken.
Zertifizierungen in relevanten Technologien (z.B. AWS Certified Big Data, Google Professional Data Engineer).
If your compensation planning software is too rigid to deploy winning incentive strategies, it’s time to find an adaptable solution.
Compensation Planning
View Core, Job Family, and Industry Job Skills and Competency Data for more than 15,000 Job Titles
Skills Library