Sortir de la “servitude technique” dans les Systèmes de Données

 

Sortir de la

“servitude technique” dans les

Systèmes de Données

Pendant trente ans, la data s’est construite sur une succession d’outils de transformation : ETL, ELT, avec des jobs de plus en plus complexes, donc des pipelines de plus en plus longs et évidemment une multitude d’outils de data visualisation. 

 

Pourtant, la “servitude technique” ne vient pas tant de la multiplicité des solutions que de leur opacité :
quand personne ne sait vraiment comment un pipeline fonctionne de bout en bout, quand les règles de gestion diffèrent d’un outil à l’autre dans la couche de data visualisation sans que personne ne l’identifie clairement, alors la donnée perd beaucoup de sa valeur. 

 

Un désir quasi unanime émerge aujourd’hui : sortir de cette "servitude" par une véritable interopérabilité.


Et paradoxalement, c’est le SQL - langage du passé et horizon du futur - qui semble redevenir la clé pour construire des systèmes réellement interopérables.

1. Analyser automatiquement les systèmes existants

  • Jobs ETL / ELT,
  • Procédures stockées, 
  • Intelligence logée dans les outils de dataviz, etc. 

Chaque chaîne est reconstituée de manière complète grâce à un reverse engineering automatique, y compris dans des environnements propriétaires / legacy très anciens.

2. Recomposer la chaîne de traitement entière en SQL

Nos moteurs permettent de traduire ces règles de gestion et cette intelligence en SQL à plat : lisible, portable, exécutable sur n’importe quelle base moderne. 

Même la logique embarquée dans les outils de dataviz peut “glisser” en SQL vers le Cloud DWH pour recentrer les outils BI sur un rôle minimaliste  / léger : requêter et visualiser la donnée. 

 

 |  Le SQL généré peut devenir la pierre angulaire du système de données, pour un système réellement interopérable...

3. Déployer ce SQL dans un écosystème ouvert et non captif

Parce que ce SQL ne dépend d’aucun "vendor", il peut être réinjecté partout, sans recréer de dépendance technologique : 

  • Dans un Cloud DWH moderne (BigQuery, Snowflake, Azure SQL, Redshift, etc.)

  • Dans une plateforme ouverte (Parquet + moteur SQL distribué), gouvernée par le data lineage - nous proposons des migrations largement automatisées vers ce type d'architectures.

  • Dans un autre ETL / ELT si nécessaire (dbt par exemple), mais léger et ouvert. 

 

Commentaires

Posts les plus consultés de ce blog

E-book / Maîtriser & Simplifier une plateforme SAP BO avec {openAudit}

La 1ère action de modernisation d’un Système d'Information : Ecarter les pipelines inutiles ?

Migration Talend-dbt : un passeport pour moderniser ses données