Mission :
Compétences :
Niveau Python avancé, capacité à modéliser et développer des data pipelines sur Databricks
Niveau SQL avancé (connaissance de la norme ANSI92, analyze de plan d'executions) et capacité a travailler sur de gros volumes avec des exigences de performances fortes
Connaissance de l'état de l'art de la modélisation décisionnelle : Kimball, Inmon et Data Vault et capacité a mettre ces méthodes en pratique (Slowly Changing Dimensions, Point in time tables, chasm/fan trap management )
Outils de reporting (idéalement SAP BI42, Tableau software)
Compétences additionnelles :
Modélisation de données financière (compta analytique et technique, pricing)
CI/CD pipeline (artifactory, jenkins sweagle)
Orchestration de data processing en python (base sur une stack pyodbc, celery, redis, postgresql, django)
Containers (docker-compose)
Technologies de datalake
Technologies de master data management
Contexte technique:
Datalake : Azure Data Lake Gen 2
Data engineering : Microsoft Azure Databricks
Datawarehouse : IBM DB2 Warehouse sur le Cloud Azure
Data sources : SQLServer, IBM DB2 Warehouse , Oracle
Reporting : SAP BI 4.2, Tableau Software
ELT : inhouse python + SQL generation
Soft Skills :
Rigueur (environnement projet complexe de par le nombre d'environnements et de branche de développement)
Bon relationnel et capacité de dialogue avec des interlocuteurs techniques
Capacité à intégrer rapidement les contraintes d'un existant complexe
Autonomie, curiosité
Client: est une SSII spécialisée dans le placement des ressources humaines.
Durée indicative: 6 mois
Tarif journalier indicatif: 480-550 €
Type de mission: Freelance en régie
Démarrage: ASAP
Lieu: Paris