L’Actualité de la donnée de Septembre 2025

Nous approchons des trois ans depuis le lancement de ChatGPT. Jamais une technologie n’avait bouleversé aussi rapidement le marché. Une véritable frénésie s’est installée, avec pour seul objectif : identifier l’application que toutes les organisations jugeront indispensable.

À vrai dire, cette application miracle n’a pas encore été trouvée. Pourtant, nous avançons à marche forcée. Cela se traduit, d’une part, par la hausse des tarifs des outils du quotidien dans lesquels l’IA a été injectée. Et d’autre part, par l’attente généralisée de nombreuses organisations qui ne savent toujours pas comment intégrer l’IA dans leurs processus… Comme si la solution allait émerger d’elle-même.

Les premiers à en pâtir sont les jeunes. Adulés pour leur audace face aux outils d’IA, ils sont aussi les premières victimes : ils ne sont pas embauchés. Heureusement, le patron d’AWS a lancé un appel fort pour inverser cette tendance : il faut compter sur les jeunes.

Enfin, le Data Act est entré en vigueur le 12 septembre. Cette loi européenne impose aux acteurs du cloud une véritable obligation de réversibilité effective. Une avancée importante pour les budgets, pour les jeunes… et pour la souveraineté numérique.






Architecture et web Agentique

Lors du dernier meetup Apache Iceberg Paris Community #2, Yingjun de RisingWave plaisantait en disant que tout le monde a aujourd’hui son PostgreSQL. Cette allusion n’a rien d’anodin. En effet, si vous lisez Fred Cavazza, qui observe les tendances du web depuis plus de vingt ans, il explique que la nouvelle trouvaille pour faire adopter l’IA partout serait le web agentique.

Allez fouiller par vous-même pour comprendre ce phénomène. Après le web, après le mobile, il faut sans doute que les organisations se munissent de leur “agency”… Je vous embrouille ? À vous de jouer et de farfouiller pour savoir de quoi il s’agit !

En tout cas, ce ne sont ni Databricks ni Snowflake qui me contrediront ! Tous deux ont ajouté PostgreSQL à leur stack. “Si tu n’as pas ton PostgreSQL, tu n’as pas réussi ta vie !” Non… ton offre.

Et c’est ici que l’on reboucle avec les “agencies” : pour faire simple, un processus long et coûteux que l’on va confier à une IA sur un périmètre très circonscrit. Et comme chaque organisation est particulière… tout comme vous avez un site web, tout comme vous avez une application mobile… je vous laisse imaginer la suite.

Par exemple, je suis la SNCF, et je vais fournir un agent qui permettra aux voyageurs — ou grands voyageurs — d’interroger leurs propres données de voyage en langage naturel. Je crée un agent intelligent qui relance mes clients pour m’assurer que la relation client est au beau fixe. Ainsi, la prochaine fois que je les solliciterai, ils seront naturellement plus sensibles à mes propositions.









Parce que parler aux bases de données est déjà une réalité

Aujourd’hui, nombre d’investissements sont fléchés vers l’intelligence artificielle. Dans notre métier de l’intégration de données, cela se traduit par la capacité à générer des tableaux de bord, des requêtes SQL… et tout cela en langage naturel.

Dremio propose désormais un serveur MCP permettant d’interroger les données comme si vous dialoguiez avec un data analyste. C’est bluffant ! Les solutions évoluent vite, et la brèche est ouverte.

Si interroger les données en langage naturel devient une réalité, il faut reconnaître que la combinaison, la coopération et la coordination entre agents IA spécialisés dans la donnée constituent déjà les nouveaux défis des projets passés en production.

Synaltic est ravi d’emprunter ces nouvelles routes de l’information et s’engage pleinement dans cette course, pour accompagner ses clients dans leurs choix stratégiques.









Le lakehouse entraîne toute la plateforme de données

Synaltic intervient sur des chaînes qui intègrent Dremio… mais il existe bien d’autres solutions de gestion de données, n’est-ce pas ? Microsoft Fabric, par exemple. Et oui, nos clients choisissent, et notre polyvalence fait le reste.

Ce qui frappe, c’est la capacité des équipes Synaltic à s’adapter. Aujourd’hui, l’architecture Lakehouse crée des ponts entre les grands fournisseurs et les principales solutions du marché. De Qlik et Talend à Microsoft Azure Fabric, en passant par Snowflake et Databricks… ™ est devenu une pierre angulaire.

Modéliser un data warehouse, un MDM (Master Data Management), un CDP (Customer Data Platform), ou un PIM (Product Information Management) reste complexe — même dans cette ère de l’IA. Comme le rappelle Amanda Kelly, Directrice de la gestion des produits chez Snowflake, la donnée demeure difficile à appréhender.

Pourtant, la gestion des données se redessine avec le Lakehouse. Sa modularité, inspirée de la philosophie Linux, permet à chaque composant de se concentrer sur sa tâche et de l’exécuter de manière optimale.

DuckDB illustre bien cette évolution : il ramène la donnée dans le Lakehouse avec une simplicité déconcertante — presque comme pousser un fichier sur un serveur FTP, mais avec la qualité en plus.

Idem pour le streaming et les charges de travail multimodales (texte, spatial, image, son, vidéo…). On pousse le bouchon : Microsoft Power BI et Google BigQuery pourraient enfin collaborer efficacement… grâce à Apache Iceberg.











LOGICIELS


  Qlik Open Lakehouse 

Nouvelle offre basée sur Apache Iceberg™, ingestion temps réel, moteur adaptatif IA et interopérabilité étendue.



  Talend Studio 8.0.2 R2025-07 

Optimisation du patch mensuel, nettoyage automatique des bibliothèques obsolètes et renforcement de la sécurité Maven.



  Dremio 26.0.1 

Tri et partition dans les Reflections, métadonnées Iceberg plus stables et correctif de sécurité CVE-2025-46762.




  Tableau 2025.2 

Lancement de Concierge, app Google Workspace, apprentissage sémantique et paramètres spatiaux dynamiques.



  Debezium 3.2.0.Final 

Support Kafka 4.0, intégration OpenLineage, sink Qdrant et extension Quarkus DevService/GraalVM.