En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d'intérêts. En savoir plus et gérer ces paramètres. OK X
 
 

 

 

Actualité des entreprises

Datadog lance Observability Pipelines

Publication: Juin 2022

Partagez sur
 
Le nouveau produit Observability Pipelines de Datadog apporte un contrôle des coûts plus précis, réduit la dépendance envers une technologie particulière et améliore la conformité et la standardisation des données. Il aide les organisations à passer à l’échelle dans leurs pratiques d’observabilité...
 

Datadog, fournisseur de la plateforme de monitoring et de sécurité des applications Cloud, annonce le lancement de Datadog Observability Pipelines, un nouveau produit qui permet aux entreprises de mieux contrôler leurs flux de données afin de passer à l’échelle en toute fiabilité dans leurs pratiques d’observabilité. Datadog Observability Pipelines repose sur Vector, un framework open source très performant pour la conception de pipelines de télémétrie.

Les entreprises doivent aujourd’hui gérer de nombreuses applications, qui sont fournies par des centaines de services et donnent lieu à la création de milliers de milliards de logs, de métriques et de traces chaque mois. L’énorme quantité de données en jeu et la complexité qui en résulte, tant au niveau applicatif qu’au niveau organisationnel, peuvent entraîner des problèmes de fiabilité, une dépendance envers une technologie particulière, sécurité ou encore des coûts excessifs.

Datadog Observability Pipelines résout ces problèmes en fournissant aux clients une vue unifiée pour monitorer le flux de toutes les métriques, logs et traces de leurs infrastructures et applications. Les utilisateurs peuvent désormais collecter, enrichir, transformer, assainir et acheminer en toute simplicité les données d’observabilité de n’importe quelle source vers n’importe quelle destination, et ce avant même que les données ne quittent leur environnement. Cette vue unifiée donne aux entreprises une visibilité complète sur les montants qu’elles dépensent et où elles les dépensent, les outils qu’elles utilisent et qui a accès à quelles données, de sorte qu’elles peuvent gérer les coûts avec plus de précision, réduire la dépendance envers une technologie particulière, améliorer la conformité et la standardisation de la qualité des données et, enfin, passer à l’échelle.

« Nous voulons donner à nos équipes les moyens d’utiliser tous nos systèmes et outils tout en respectant le budget. Observability Pipelines nous donne de la flexibilité quant à la façon dont nos données sont traitées et où elles aboutissent, de sorte que nos équipes, en constante croissance, ont toujours les bonnes informations pour prendre des décisions, » déclare Andreas Kasprzok, Observability Tech Lead chez Blockfi.

« Alors que le volume de télémétrie continue de croître dans les entreprises, les équipes sont souvent submergées, voire aveugles, sur l’inflation des coûts et des risques de fiabilité et conformité qui découlent d’un manque de visibilité sur les données d’infrastructure et applicatives, » déclare Zach Sherman, Senior Product Manager chez Datadog. « Nous avons conçu Datadog Observability Pipelines pour offrir aux entreprises un moyen puissant de reprendre le contrôle de leurs données, sans compromettre la visibilité des équipes d’ingénierie, de sécurité et de SRE. »

Datadog Observability Pipelines aide les équipes informatiques et de sécurité à atteindre leurs objectifs de gestion et de passage à l’échelle de l’observabilité à un coût abordable, avec une flexibilité et un contrôle complets sur la manière dont les logs, les métriques et les traces sont collectés, transformés et acheminés. Ainsi, ce nouveau produit aide les entreprises à :

- Piloter les coûts : agréger, filtrer et acheminer toutes les données d’observabilité en fonction des cas d’usage et sans compromettre l’observabilité

- Simplifier les migrations et réduire les dépendances techniques : organiser et surveiller le traitement des données de n’importe quelle source à n’importe quelle destination à travers une vue unifiée

- Maîtriser les données sensibles : filtrer, expurger et monitorer les données sensibles avant qu’elles ne quittent votre réseau afin de répondre aux exigences de conformité

- Assurer la qualité des données : standardiser le format des logs, des métriques et des traces pour améliorer l’observabilité entre les équipes

- Passer à l’échelle en toute confiance : passer à l’échelle avec fluidité grâce à un produit reposant sur Vector, un projet open-source compatible avec tous les fournisseurs et une communauté engagée qui compte des millions de téléchargements mensuels et qui est déployé en production par des entreprises traitant des pétaoctets de données chaque mois

- Collecter et acheminer les données en toute simplicité.

https://www.datadoghq.com/

Suivez Industrie Mag sur le Web

 

Newsletter

Inscrivez-vous a la newsletter d'Industrie Mag pour recevoir, régulièrement, des nouvelles du site par courrier électronique.

Email: