Compuware Corporation (Nasdaq : CPWR), leader de la performance IT, annonce ce jour la disponibilité de la première solution de gestion approfondie des transactions, destinée à optimiser les performances des applications Apache Hadoop.
dynaTrace Enterprise for Hadoop de Compuware APM sera proposé à partir de 1 000€ par machine virtuelle Java Hadoop.
Les applications qui utilisent Hadoop MapReduce pâtissent de nombreux problèmes de performance et de goulets d'étranglement, véritable fléau pour les applications distribuées. Afin d'améliorer les calculs et la distribution des données entre les nœuds, de garantir l'exécution efficace des Jobs, d'identifier les goulets d'étranglement en entrée/sortie et d'optimiser l'utilisation de la mémoire et des ressources processeur parmi des milliers de nœuds, une connaissance approfondie de l'environnement Hadoop est nécessaire.
Grâce à sa technologie brevetée PurePath Technology®, Compuware dynaTrace Enterprise offre une visibilité sans précédent sur les applications Hadoop et prend en charge ces environnements souples et modulables de diverses manières :
· Instrumentation zéro configuration : tableaux de bord prêts à l'emploi, visibilité complète sur les performances Hadoop MapReduce, aucune modification du code et grande simplicité de déploiement et de gestion.
· Analyse d'un simple clic : réduction du MTTR (délai moyen de résolution) grâce à une analyse en un clic de type Hotspot, des Jobs MapReduce, y compris des Jobs longs et hautement distribués. La cause des problèmes est identifiée en quelques minutes seulement, contre plusieurs heures ou jours auparavant.
· Analyse automatique des performances : optimisation des environnements Hadoop et réduction des coûts grâce à une connaissance approfondie de l'utilisation des ressources par les Jobs. MapReduce, déploiement sur l'ensemble du cluster et analyse automatique de la performance au niveau de la "Tâche" jusqu'au délai d'exécution des différentes méthodes.
· Surveillance de l'état de santé du cluster corrélé : surveillance du cluster Hadoop dans son ensemble et jusqu'aux ordinateurs, ainsi que du processeur, de la mémoire, du disque, des entrées/sorties et du « garbage collector » afin de mettre en corrélation l'intégrité du système et la performance des Jobs. Correction des problèmes avant qu'ils n'aient de répercussion sur les contrats de niveau de service (SLA).
· Mise en corrélation automatique des erreurs MapReduce avec le détail du Job, de la tâche et de la méthode : délai moyen de résolution plus court qu'avec toute autre solution du marché.
dynaTrace Enterprise for Hadoop de Compuware APM sera proposé à partir de 1 000€ par machine virtuelle Java Hadoop.
Les applications qui utilisent Hadoop MapReduce pâtissent de nombreux problèmes de performance et de goulets d'étranglement, véritable fléau pour les applications distribuées. Afin d'améliorer les calculs et la distribution des données entre les nœuds, de garantir l'exécution efficace des Jobs, d'identifier les goulets d'étranglement en entrée/sortie et d'optimiser l'utilisation de la mémoire et des ressources processeur parmi des milliers de nœuds, une connaissance approfondie de l'environnement Hadoop est nécessaire.
Grâce à sa technologie brevetée PurePath Technology®, Compuware dynaTrace Enterprise offre une visibilité sans précédent sur les applications Hadoop et prend en charge ces environnements souples et modulables de diverses manières :
· Instrumentation zéro configuration : tableaux de bord prêts à l'emploi, visibilité complète sur les performances Hadoop MapReduce, aucune modification du code et grande simplicité de déploiement et de gestion.
· Analyse d'un simple clic : réduction du MTTR (délai moyen de résolution) grâce à une analyse en un clic de type Hotspot, des Jobs MapReduce, y compris des Jobs longs et hautement distribués. La cause des problèmes est identifiée en quelques minutes seulement, contre plusieurs heures ou jours auparavant.
· Analyse automatique des performances : optimisation des environnements Hadoop et réduction des coûts grâce à une connaissance approfondie de l'utilisation des ressources par les Jobs. MapReduce, déploiement sur l'ensemble du cluster et analyse automatique de la performance au niveau de la "Tâche" jusqu'au délai d'exécution des différentes méthodes.
· Surveillance de l'état de santé du cluster corrélé : surveillance du cluster Hadoop dans son ensemble et jusqu'aux ordinateurs, ainsi que du processeur, de la mémoire, du disque, des entrées/sorties et du « garbage collector » afin de mettre en corrélation l'intégrité du système et la performance des Jobs. Correction des problèmes avant qu'ils n'aient de répercussion sur les contrats de niveau de service (SLA).
· Mise en corrélation automatique des erreurs MapReduce avec le détail du Job, de la tâche et de la méthode : délai moyen de résolution plus court qu'avec toute autre solution du marché.
Autres articles
-
Snowflake vs Hadoop : lequel choisir ?
-
Les évolutions de Hadoop en 2022
-
Teradata poursuit ses avancées dans le cloud grâce à l'élargissement de ses offres en analytique cloud et son nouveau partenaire Google Cloud
-
Cloudera et Hortonworks finalisent leur fusion
-
Cloudera et Hortonworks annoncent leur fusion pour créer la première plateforme de données de nouvelle génération et offrir le premier environnement cloud pour les données d’entreprise de l’industrie