Confluent a ajouté un certain nombre de nouvelles fonctionnalités à sa plate-forme pour sa version confluent Q2 ‘22 Cloud Bundle, y compris un contrôle d'accès (RBAC) amélioré et Grafana-Metrics.La version représente ses derniers efforts pour développer le support et les services de streaming de données construits sur Kafka open source pour les organisations nécessitant du streaming pour maintenir l'accès en temps réel ou presque réel aux données à grande échelle.Ces organisations s'appuient également souvent sur la mémoire dans le cache pour améliorer la latence de connexion de données et l'utilisation d'une couche de données partagée qui est continuellement rafraîchie à mesure que les données associées aux systèmes distribuées d'enregistrements sont mises à jour (un processus également décrit comme la capture de données de changement (CDC)).
Contrôle d'accès élargi
Le contrôle RBAC de Confluent pour les ressources Kafka individuels s'étend désormais aux sujets Kafka (qui décrivent les différents systèmes de données d'enregistrement), les groupes de consommateurs et les identifiants transactionnels.Bien que ce contrôle RBAC plus stricte pour l'intégration puisse toujours être fait manuellement, le processus de garantie que les bons utilisateurs ont accès aux bonnes données «jusqu'à des sujets individuels d'Apache Kafka nécessitent du temps et des ressources que la plupart des entreprises n'ont pas», DanRosanova, responsable du produit pour Confluent Cloud, a déclaré à la nouvelle pile.Les entreprises peuvent définir des rôles clairs pour ceux qui accédaient aux données leur donnant une visibilité dans uniquement les domaines spécifiquement requis pour leur travail avec la nouvelle capacité RBAC.
Au-delà d'aider à résoudre les défis associés au contrôle d'accès lors de la mise à l'échelle des bases de données, RBAC permet également aux organisations d'intégrer rapidement les équipes de développement et de remettre la responsabilité de leur gérer des ressources Kafka spécifiques, a déclaré Rosanova."Cela garantit que les ressources Kafka sont gérées par les vrais propriétaires, qui étaient très complexes à gérer dans le passé en raison des scripts compliqués qui devaient être écrits", a déclaré Rosanova.
Les autres capacités de streaming proposées comprennent:
Connecteur source Oracle CDC entièrement géré.Cette fonctionnalité permet la prise en charge du connecteur source pour le connecteur source Oracle CDC, qui nécessitait auparavant des investissements dans des solutions propriétaires, des frais de licence ou des ressources internes pour concevoir, créer et tester un connecteur personnalisé pour Oracle CDC.La version prend également en charge la source Amazon S3, la source Azure Cosmos DB, la source InfluxDB 2, les connecteurs de source InfluxDB 2 et Jira.
Expansion de l'API de métriques et intégration du cloud Grafana.Pour une meilleure observabilité des métriques, l'accès aux métriques est amélioré grâce à l'accès direct et à la prise en charge des intégrations de Grafana Cloud pour les organisations qui s'appuient sur les visualisations populaires et les outils d'observabilité de Grafana Cloud et souhaitent utiliser Grafana pour la surveillance des performances de diffusion de données.L'API de métriques de Confluent propose également une répartition en ID principale pour les rétrofacturation organisationnelle et la métrique du retard des consommateurs pour la surveillance des performances.
Vraiment Native Cloud
Ces améliorations et d'autres confluentes se développent pour l'avenir fait partie de sa mission pour reconstruire ses offres dans le cloud pour les rendre «vraiment natifs du nuage», a déclaré Rosanova."Cela a conduit de nombreuses entreprises à démarrer leur parcours de streaming de données dans le cloud confluente, et les clients existants adoptant Confluentes pour gérer les environnements hybrides et multicloud", a déclaré Rosanova.«Avoir une expérience cohérente sur le cloud fournit toute la sécurité et la gestion dont les entreprises ont besoin fait de confluente l'option de base autour."
Confluent n'a pas non plus changé son pari que le streaming et, en particulier, les services conçus pour le streaming basé sur Kafka, joueront un rôle clé dans le développement du CDC à l'avenir, car les organisations cherchent à évoluer leurs bases de données et leurs opérations en fonction d'eux,Souvent à travers des zones géographiques disparates.
“We believe data streaming is at the center of the next major wave of technology innovation companies are undergoing," Rosanova said.«La capacité d'exploiter sera un facteur clé pour déterminer la compétitivité de chaque entreprise, d'autant plus que les expériences et les opérations en temps réel deviennent des enjeux de table.L'Open source Apache Kafka a commencé avec le mouvement et a connu une énorme adoption avec plus de 80% du Fortune 100."
Pour les organisations qui ne font que commencer par le streaming, l'adoption commence généralement par un cas à usage unique qui exploite des flux de données à l'aide de l'open source, a déclaré Rosanova.Cependant, un aspect clé de cette plate-forme est que ces flux de données sont censés être partagés, et ces flux attirent de nouvelles applications.
«Il s'agit d'un cycle vertueux qui anime l'adoption de la plate-forme: les applications apportent des flux, qui, à leur tour, attirent plus d'applications. As use cases grow, the cost and time associated with managing Kafka increases too," Rosanova said.«Pour les organisations qui souhaitent décharger le fardeau opérationnel, nous offrons un service Kafka entièrement géré.Nous fournissons du streaming «en tant que service» qui ne vous oblige pas à découvrir l'infrastructure sous-jacente.Au lieu de cela, vous pouvez vous concentrer sur les données et la valeur que vous en tirez."
Confluent, AWS, Oracle et InfluxData sont des sponsors de la nouvelle pile.