Actualités : analyse de données, Business Intelligence, Data Science, Big Data


Entrepôt de données et pilotage chez Informatique Banque Populaire


Rédigé par Retranscription de la conférence Forum Decideo 2010 le 31 Janvier 2011



Philippe NIEUWBOURG : Première question, qui s’adresse plutôt à Ludovic FAVARETTE puisqu’elle date du moment de votre présentation : « Chez i-BP êtes-vous parti d’un modèle de données externes ou directement de la feuille blanche pour construire votre modèle de données ?

Ludovic FAVARETTE : Concernant le modèle de données, nous ne sommes pas partis, à l’origine, d’une feuille blanche. Comme je le mentionnais tout à l’heure, notre entrepôt est orienté applicatif en termes de modélisation. Ainsi, dans l’historique d’i-BP, avant l'informationnel, nous avions un infocentre comme dans de nombreuses entreprises. L’option a été prise, dès le départ, de partir sur un data warehouse qui n’était pas orienté « étoiles » mais modélisé comme le SI applicatif. Nous sommes, par contre, partis d’une feuille blanche pour la modélisation de la couche vue métiers, couche utilisée en direct en termes de requêtage par nos utilisateurs finaux. Nous sommes partis de l’animation de commission métiers dédiées sur le marketing, la finance, les risques pour réaliser la première version de cette couche vue métiers, qui date déjà de 2002. Nous l’avons ensuite fait évoluer de façon récurrente, au fil des projets. Le seul petit bémol concerne la nécessité de réurbaniser légèrement cette couche vue métiers qui comporte aujourd’hui 350 objets et que l’on aimerait recentrer sur une centaine d’objets, peut-être un peu plus denses mais plus faciles en termes de modèles, et plus faciles d’appréhension pour les utilisateurs finaux.

Philippe NIEUWBOURG : Une deuxième question : « Pourquoi Teradata ? »

Ludovic FAVARETTE : Quand le choix de Teradata a été fait, nous avions 17 clients. Il était important, dans la perspective d’intégrer de nouveaux clients (des banques qui rejoignaient la plateforme i-BP à l’époque) d’avoir une plateforme à la fois performante pour la partie décisionnelle, mais assurant également une scalabilité totale. Il s’agit d’un argument fort de Teradata, que l’on a pu éprouver. Nous étions un peu sceptiques au départ. Nous achetons effectivement du disque qui peut paraître un peu cher. Mais il ne faut pas regarder uniquement le prix du disque. Car lorsque l’on achète un disque Teradata, l’on achète également de la CPU, de la mémoire, etc. Finalement, chaque fois que l’on a intégré une banque et que l’on a réalisé de petites extensions de périmètre sur Teradata, les projets ont été transparents alors qu’historiquement, ces projets coûtaient 18 mois, avec beaucoup de ressources. Les performances et la scalabilité de Teradata ont été éprouvées depuis 3 années.

Retrouvez ci-dessous la vidéo de cette conférence donnée le 08/12/2010

1 2 3 4 5





Commentaires

1.Posté par Bernard DUFRESNES le 05/02/2011 18:52
Merci pour ce retour d'expérience.

Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store