Aller au contenu
David Martins
Expertise · Data

Construire votre plateforme data,
industrialiser vos métriques.

Douze ans à concevoir des plateformes data pour des grands groupes, start-ups, scale-ups. Architecture cloud, orchestration, modélisation dbt, analytics engineering, BI. Les standards d'ingénierie logicielle appliqués à la donnée — tests, CI/CD, contracts, observabilité.

Cloud
AWS · GCP · Azure
Warehouse & lakehouse
Snowflake · BigQuery · Databricks
Orchestration
Airflow · Dagster
Transform
dbt
Cloud & infraWarehouse & lakehouseIngestion & streamingOrchestration & transformationBI & datavizML & AgenticLangagesCRM & BusinessQualité & gouvernance
Les standards

Les exigences d'une data qui tient sous la charge.

Embarqués sur chaque mission, quel que soit le périmètre : les standards d'ingénierie logicielle appliqués à la donnée. Tests, CI/CD, versioning, data contracts, observabilité, documentation active. Les mêmes exigences que dans un grand groupe — dimensionnées à votre échelle.

01

Fondation cloud

Warehouse ou lakehouse (Snowflake, BigQuery, Databricks), orchestration Airflow ou Dagster, infra-as-code, RBAC, politiques de coûts. Un socle dimensionné pour la charge réelle, pas pour la démo.

02

Pipelines fiables

Ingestion batch ou CDC, transformations dbt idempotentes, tests unitaires et de fraîcheur, data contracts sur les sources critiques. Le code de données se revoit et se déploie comme du code applicatif.

03

Modélisation gouvernée

Architecture medallion (bronze/silver/gold), marts sémantiques, métriques définies une fois, réutilisées partout. Une source de vérité traçable jusqu'à la donnée brute, cohérente dans tous les outils BI.

04

Observabilité & lineage

Lineage de bout en bout, alerting sur fraîcheur et volumétrie, documentation active (dbt docs, data catalog), runbooks d'incident. Ce qui tombe se voit avant que le métier n'appelle.

/01
Offres Data

Mes missions. La plateforme et la couche analytique.

Data Engineering, architecture & plateforme pour poser le socle. Analytics engineering pour industrialiser les métriques. Les deux s'enchaînent naturellement — ou se prennent indépendamment, selon où vous en êtes.

/02
Ma stack technique

La stack, en détail.

Technologies manipulées quotidiennement en production, sur des missions actuelles et passées. Rien de listé qui ne soit déployé en conditions réelles.

Cloud & infra

AWS · GCP · Azure · Docker · Kubernetes · Terraform

Warehouse & lakehouse

Snowflake · BigQuery · Databricks · Iceberg

Ingestion & streaming

Airbyte · Fivetran · Segment · Kafka

Orchestration & transformation

Airflow · Dagster · dbt · Spark

BI & dataviz

Looker · Metabase · Power BI · Tableau

ML & Agentic

Machine Learning · Agentic AI · BigQuery ML · Snowflake Cortex

Langages

Python · SQL · Java

CRM et Outils Business

HubSpot · Salesforce · Braze · Intercom · Planhat · Heap · Google Analytics · GTM

Qualité & gouvernance

Observability · Data Quality · Data Catalog

/03
La méthode

Construire pour durer.

Une plateforme data, ce n'est pas un projet sexy en démo et catastrophique six mois plus tard. C'est un socle qui tient sous la charge, se teste, se documente, se passe en production. Les mêmes standards qu'en grand groupe — appliqués à votre échelle.

01

Cadrer l'architecture cible.

Volumétrie, latences, dépendances métier, contraintes de conformité. L'architecture se dessine au tableau avant la première ligne de SQL. C'est l'étape où se jouent les choix structurants pour trois ans.

02

Poser le socle cloud.

Snowflake, BigQuery ou Databricks selon le contexte. Orchestration Airflow ou Dagster. Infra-as-code, CI/CD, RBAC, politiques de coûts. Des fondations posées pour durer.

03

Modéliser avec des tests.

Architecture medallion, transformations dbt, data contracts, tests unitaires et de fraîcheur. Chaque métrique définie une fois, versionnée, documentée — et réutilisable.

04

Brancher l'observabilité.

Lineage de bout en bout, alerting sur fraîcheur et volumétrie, documentation active. Les équipes reprennent la plateforme et la font évoluer. Pas de boîte noire, pas de lock-in.

On se parle 30 minutes ?

Un premier échange pour comprendre votre contexte data ou IA et voir ce qui a du sens — ou pas — chez vous. Gratuit, sans engagement, concret.