Missions principalesConcevoir, documenter et faire évoluer l’architecture data globale de l’entreprise : data lake, data warehouse, data mesh, modèles analytiques, flux temps réel, services orientés IA/ML, etc.Définir une architecture cible robuste, évolutive et alignée avec les cas d’usage business (BI, IA, automatisation, APIs, etc.).Encadrer et challenger les équipes data engineering, machine learning, MLOps et DevOps pour garantir la performance, la scalabilité, la sécurité et la maintenabilité des pipelines.Structurer la gouvernance des données (catalogue, lineage, qualité, sécurité, confidentialité, conformité RGPD).Accompagner les projets d’industrialisation IA/ML, notamment autour des LLM (Large Language Models), MLOps, Feature Store, monitoring des modèles.Participer activement à la roadmap data et IA/ML, en collaboration avec les équipes produit, métier et techniques.Piloter les choix technologiques stratégiques (outils d’orchestration, moteurs de calcul, bases de données, architectures hybrides).Définir et promouvoir les bonnes pratiques : modélisation, versionning, CI/CD, testabilité, observabilité des systèmes de données.Superviser les audits techniques des plateformes existantes et des nouveaux projets.Veiller à l’alignement avec les politiques de sécurité et d’architecture globales de l’entreprise.Exigences de l'emploiCompétences requises :Concepteur - développeur - base de données capable d'expliquer la donnée avec des schémas clairs.Maîtrise de la modélisation de données avancée (modèles conceptuels, logiques, physiques).Compréhension fine des changements d’état de la donnée (gestion des versions, états transitoires).Connaissances en infrastructure (serveurs, configuration, déploiement).Architecture & TechnologiesExpérience avérée en architecture data distribuée (batch & streaming).Maîtrise des composants GCP : BigQuery, Dataflow, Pub/Sub, Cloud Composer, Vertex AI, GCS, IAM, etc.Excellente connaissance des pipelines de données, ETL/ELT, orchestration (Airflow, Dagster, dbt…).Solide compréhension des architectures ML et MLOps : CI/CD pour modèles, monitoring, déploiement continu.Très bonne maîtrise des langages Python et Go, utilisés dans les développements de pipelines, microservices, et frameworks d’orchestration IA/ML.Maîtrise de Terraform et des principes d’Infrastructure as Code (IaC).Très bonne connaissance des modèles de données : en étoile, 3NF, Data Vault, Lakehouse, etc.Bonne maîtrise des outils de catalogue et gouvernance (ex: Data Catalog, Collibra, Alation…).Leadership & Collaboration :Aptitude à vulgariser les concepts techniques et à accompagner les équipes dans les choix d’architecture.Expérience de collaboration avec des équipes pluridisciplinaires : data scientists, ingénieurs, PO, sécurité, dev, ops.Capacité à piloter des audits techniques, participer aux comités d’architecture, et défendre les choix techniques au COMEX.Compétences appréciées (plus) :Expérience avec les LLM (Large Language Models), pipelines IA générative, fine-tuning et infrastructure associée.Connaissance des outils de test et d’observabilité : Great Expectations, Evidently AI, Prometheus, Grafana, etc.Connaissance des standards de sécurité dans la donnée et l’IA (audit trail, PII masking, data residency…).Certification GCP (Data Engineer ou Cloud Architect) ou équivalentDate d'expiration05/09/2025