Tension sur le cloud !
Les déploiements multicloud se multiplient sous couvert de duel entre Microsoft Azure et AWS
2021, une année sous le signe de l’austérité pour les DSI
Tableau reste une valeur sûre selon Gartner
BI : AWS vient côtoyer Microsoft et Salesforce au Magic Quadrant
Tableau dans la catégorie des leaders pour la 9e année consécutive
Plus question de rater une vente, une livraison, une demande de livraison, une demande de fabrication… Vos systèmes interconnectés : ERP, CRM, chaîne logistique, boutique en ligne et le désormais fameux et célèbre click and collect doivent fournir leur service en 24/7. Toutefois, il est tout aussi important que l’interconnectivité le soit aussi !
Synaltic vous a déjà proposé quelques ressources autour de Debezium. Nous sommes déjà certain que nous allons continuer à vous en parler parce que nous sommes convaincus que vous en aurez besoin.
Si la technologie du Change Data Capture n’est pas nouvelle, Debezium apporte une vraie fraîcheur et une simplicité dans la mise en œuvre…
Si la technologie du Change Data Capture n’est pas nouvelle, Debezium apporte une vraie fraîcheur et une simplicité dans la mise en œuvre…
Debezium et Kafka sont devenus un élément central de la stratégie de modernisation de la plate-forme de données de Shopify. Les composants de son architecture lui ont permis de standardiser ses outils d’extraction de données, d’abandonner des traitements batch coûteux et lents et d’unifier ses traitements de sources de données en batch et en streaming.
Désormais Shopify est en mesure de capturer chaque modification apportée à une table d’une base de données de production, lui fournissant les informations et des analyses plus claires. Le délai entre le moment où un événement métier (commandes, ventes, livraisons…) se produit et le moment où Shopify est en mesure d’agir a considérablement diminué, offrant ainsi la fraîcheur des données dont ses analystes, partenaires commerciaux et développeurs d’applications ont grandement besoin.
Saga Orchestration for Microservices Using the Outbox Pattern
Change Data Capture and Processing with Flink SQL
Debezium et Kafka sont devenus un élément central de la stratégie de modernisation de la plate-forme de données de Shopify. Les composants de son architecture lui ont permis de standardiser ses outils d’extraction de données, d’abandonner des traitements batch coûteux et lents et d’unifier ses traitements de sources de données en batch et en streaming.
Désormais Shopify est en mesure de capturer chaque modification apportée à une table d’une base de données de production, lui fournissant les informations et des analyses plus claires. Le délai entre le moment où un événement métier (commandes, ventes, livraisons…) se produit et le moment où Shopify est en mesure d’agir a considérablement diminué, offrant ainsi la fraîcheur des données dont ses analystes, partenaires commerciaux et développeurs d’applications ont grandement besoin.
Le mouvement NoSQL initié vers 2010 a soufflé une certaine désaffection autant pour les SGBDR que pour le langage SQL lui-même. Certes, nous sommes d’accord qu’à chaque problématique il faut le bon outil. Et si SQL devenait le langage pour comprendre toute les activités des serveurs, et autres opérations réseaux qui s’y déroulent…
Why SLOs Are Essential for Observability
Use cloudquery and osquery to simplify your cloud monitoring
La donnée bouge vite et on a trop souvent le sentiment que l’on ne peut pas facilement la versionner aussi bien la donnée que sa métadonnée, et sa structure (son schéma)… La mise en oeuvre de votre chaîne de dataOps passe aussi par des solutions qui rendent vos bases de données liquides.
Talend Cloud connecte votre infrastructure en toute sécurité avec AWS PrivateLink
En adoptant AWS PrivateLink Talend Cloud facilite la mise en œuvre d’une interconnection très sécurisé entre son infrastructure et celles des clients en cloud chez AWS et même on premise (toujours pour les client AWS).
Accelerate-your-digital-transformation-with-Talend-Data-Fabric-on-AWS-PrivateLink Talend Help Center: Setting up IP allowlist policy to restrict user access
Dremio February 2021
Cette nouvelle version intègre entre autres la connectivité avec Delta Lake. Delta Lake est un format de table open source qui fournit une cohérence transactionnelle et une échelle accrue pour les ensembles de données Data Lake en créant une définition cohérente des ensembles de données, y compris à la fois les changements d’évolution de schéma et les mutations de données.
Announcing Dremio February 2021
Meltano : une gestion de bout en bout de votre plateforme de données orienté ETL
Initié par Gitlab, ce projet commence sérieusement à prendre forme. Son ambition est désormais très explicite.
Meltano est open source, il peut être auto-hébergé, il est d’abord orienté lignes de commande (mais pas que). Il est par essence bâti pour être facilement déboguable et extensible. Les pipelines (flux) sont développés “as code”, versionnés, conteneurisés et bénéficient du déploiement en continue. On développe et on teste localement, puis on déploie en production via Airflow, ou kubernetes, ou un autre orchestrateur. Meltano est basé sur Singer pour l’extraction et le chargement et sur dbt pour ce qui est des trasformation.
Airbyte : Une interface graphique simple
Tant les analystes que les petites entreprises ont besoin de simplicité pour consolider leurs données… Les fondateurs de Airbyte, ont flairé le filon de l’ELT. Ils souhaitent aller plus loin dans ce découplage et proposent que les transformations soient bien dissociées et facilitent tant la collecte des données que leur distribution. C’est ainsi que Airbyte offre par une interface graphique simple et une expérience utilisateur épurée pour interconnecter des sources diverses vers les bases analytiques…
https://airbyte.io Why the Future of ETL Is Not ELT, But EL(T)