Isabelle Genestoux, Directrice Marketing, Sybase France
Parmi toutes les applications d’entreprise, le décisionnel est peut-être celle qui a connu l’essor le plus fulgurant au cours des dernières années. À l’origine cantonné à des tâches de reporting, essentiellement financier, son usage s’est peu à peu étendu à tous les métiers et tous les niveaux de l’organisation. On le retrouve du marketing aux ressources humaines, de la logistique à la gestion client. Il est employé aussi bien par les managers, pour qui il constitue une aide précieuse au pilotage de leur activité et de leurs équipes, que par les opérationnels, qui peuvent agir en s’appuyant sur des éléments tangibles. Enfin, il n’est plus seulement utilisé a posteriori, pour obtenir une vision synthétique de la situation, mais aussi de façon prédictive, avec des projections sur la base d’éléments historiques. La conséquence de cet engouement pour la Business Intelligence est un accroissement considérable des volumes et de la nature des données traitées, ainsi que de la quantité et de la sophistication des requêtes. De plus en plus nombreux, les utilisateurs réclament toujours plus de possibilités et de souplesse, tout en tolérant de moins en moins de ne pas obtenir leur réponse instantanément…
Dans ce contexte, les bases de données sont soumises à des sollicitations considérables et sans cesse croissantes. Pendant longtemps, les bases de données traditionnelles, multiusages, étaient suffisantes pour répondre aux besoins du décisionnel. Toutefois, face à l’accroissement des volumes et à la multiplication des demandes des utilisateurs, les administrateurs ont dû mettre au point des stratégies de contournement pour maintenir des niveaux de performance acceptables. Le premier réflexe a été – et demeure – d’ajouter de la puissance machine au gré des besoins, solution efficace mais difficile à tenir économiquement. On a également entrepris de créer des datamarts spécialisés, ou des univers métier, pour restreindre le nombre d’enregistrements à examiner lors d’une requête et ainsi alléger le processus. Mais cette approche a un double défaut : d’une part elle nécessite des développements et de la maintenance, et donc des coûts et des délais supplémentaires, et d’autre part, elle sépare les données en silos hermétiques, ce qui prive les utilisateurs de possibilités de requêtes libres et/ou transverses qui n’auraient pas été prévues.
Ces approches trouvent aujourd’hui leurs limites car l’explosion actuelle des besoins analytiques les rend de plus en plus lourdes et de moins en moins efficientes. Le cœur du problème est en réalité technique : les bases de données généralistes, utilisées aussi bien pour les applications transactionnelles que décisionnelles, sont organisées en lignes. Les entrées sont rangées les unes sous les autres, ce qui signifie que chaque requête nécessite de parcourir l’ensemble des champs. Ainsi, l’accroissement des volumes et la complexité des demandes conjuguent leurs effets : les opérations sont démultipliées et le système voit ses performances se dégrader, parfois jusqu’à la rupture.
La solution réside dans l’adoption d’une base de données en colonnes, spécialisée pour un usage décisionnel. La structure en colonne permet de ne balayer que les champs utiles et donc de diminuer drastiquement les opérations pour des performances retrouvées. La course à la puissance devient inutile, tout comme il n’est plus nécessaire de segmenter la base de données en datamarts : dans une base en colonne, toutes les données peuvent être indexées et tous les croisements redeviennent possibles, ouvrant ainsi de nouvelles perspectives d’exploitation de l’information. Les coûts matériels et de maintenance sont considérablement réduits, et les utilisateurs bénéficient d’une liberté plus grande et de meilleurs temps de réponse. Les bases de données en colonne ne sont pourtant pas nouvelles : elles existent depuis plus d’une dizaine d’années et elles ont fait la preuve de leurs avantages et de leur robustesse dans d’innombrables entreprises de tous secteurs. Mais si elles pouvaient être considérées jusqu’à présent comme une simple option technique, leur utilisation apparaît aujourd’hui incontournable pour qui veut optimiser l’efficacité et le coût de possession de son système décisionnel.
Dans ce contexte, les bases de données sont soumises à des sollicitations considérables et sans cesse croissantes. Pendant longtemps, les bases de données traditionnelles, multiusages, étaient suffisantes pour répondre aux besoins du décisionnel. Toutefois, face à l’accroissement des volumes et à la multiplication des demandes des utilisateurs, les administrateurs ont dû mettre au point des stratégies de contournement pour maintenir des niveaux de performance acceptables. Le premier réflexe a été – et demeure – d’ajouter de la puissance machine au gré des besoins, solution efficace mais difficile à tenir économiquement. On a également entrepris de créer des datamarts spécialisés, ou des univers métier, pour restreindre le nombre d’enregistrements à examiner lors d’une requête et ainsi alléger le processus. Mais cette approche a un double défaut : d’une part elle nécessite des développements et de la maintenance, et donc des coûts et des délais supplémentaires, et d’autre part, elle sépare les données en silos hermétiques, ce qui prive les utilisateurs de possibilités de requêtes libres et/ou transverses qui n’auraient pas été prévues.
Ces approches trouvent aujourd’hui leurs limites car l’explosion actuelle des besoins analytiques les rend de plus en plus lourdes et de moins en moins efficientes. Le cœur du problème est en réalité technique : les bases de données généralistes, utilisées aussi bien pour les applications transactionnelles que décisionnelles, sont organisées en lignes. Les entrées sont rangées les unes sous les autres, ce qui signifie que chaque requête nécessite de parcourir l’ensemble des champs. Ainsi, l’accroissement des volumes et la complexité des demandes conjuguent leurs effets : les opérations sont démultipliées et le système voit ses performances se dégrader, parfois jusqu’à la rupture.
La solution réside dans l’adoption d’une base de données en colonnes, spécialisée pour un usage décisionnel. La structure en colonne permet de ne balayer que les champs utiles et donc de diminuer drastiquement les opérations pour des performances retrouvées. La course à la puissance devient inutile, tout comme il n’est plus nécessaire de segmenter la base de données en datamarts : dans une base en colonne, toutes les données peuvent être indexées et tous les croisements redeviennent possibles, ouvrant ainsi de nouvelles perspectives d’exploitation de l’information. Les coûts matériels et de maintenance sont considérablement réduits, et les utilisateurs bénéficient d’une liberté plus grande et de meilleurs temps de réponse. Les bases de données en colonne ne sont pourtant pas nouvelles : elles existent depuis plus d’une dizaine d’années et elles ont fait la preuve de leurs avantages et de leur robustesse dans d’innombrables entreprises de tous secteurs. Mais si elles pouvaient être considérées jusqu’à présent comme une simple option technique, leur utilisation apparaît aujourd’hui incontournable pour qui veut optimiser l’efficacité et le coût de possession de son système décisionnel.
Autres articles
-
L’USF lance un appel aux clients Sybase pour qu’ils rejoignent l’association indépendante des utilisateurs SAP
-
Sybase et KXEN vont plus loin dans l’analyse de données avec le ‘Social Network Analysis’ - SNA (Analyse des Réseaux Sociaux)
-
KXEN annonce la certification d’InfiniteInsight pour Sybase IQ v.15
-
Sybase se moque de la tendance "big data"
-
Piloter vos analyses décisionnelles à la voix