Philippe NIEUWBOURG : Première question, qui s’adresse plutôt à Ludovic FAVARETTE puisqu’elle date du moment de votre présentation : « Chez i-BP êtes-vous parti d’un modèle de données externes ou directement de la feuille blanche pour construire votre modèle de données ?
Ludovic FAVARETTE : Concernant le modèle de données, nous ne sommes pas partis, à l’origine, d’une feuille blanche. Comme je le mentionnais tout à l’heure, notre entrepôt est orienté applicatif en termes de modélisation. Ainsi, dans l’historique d’i-BP, avant l'informationnel, nous avions un infocentre comme dans de nombreuses entreprises. L’option a été prise, dès le départ, de partir sur un data warehouse qui n’était pas orienté « étoiles » mais modélisé comme le SI applicatif. Nous sommes, par contre, partis d’une feuille blanche pour la modélisation de la couche vue métiers, couche utilisée en direct en termes de requêtage par nos utilisateurs finaux. Nous sommes partis de l’animation de commission métiers dédiées sur le marketing, la finance, les risques pour réaliser la première version de cette couche vue métiers, qui date déjà de 2002. Nous l’avons ensuite fait évoluer de façon récurrente, au fil des projets. Le seul petit bémol concerne la nécessité de réurbaniser légèrement cette couche vue métiers qui comporte aujourd’hui 350 objets et que l’on aimerait recentrer sur une centaine d’objets, peut-être un peu plus denses mais plus faciles en termes de modèles, et plus faciles d’appréhension pour les utilisateurs finaux.
Philippe NIEUWBOURG : Une deuxième question : « Pourquoi Teradata ? »
Ludovic FAVARETTE : Quand le choix de Teradata a été fait, nous avions 17 clients. Il était important, dans la perspective d’intégrer de nouveaux clients (des banques qui rejoignaient la plateforme i-BP à l’époque) d’avoir une plateforme à la fois performante pour la partie décisionnelle, mais assurant également une scalabilité totale. Il s’agit d’un argument fort de Teradata, que l’on a pu éprouver. Nous étions un peu sceptiques au départ. Nous achetons effectivement du disque qui peut paraître un peu cher. Mais il ne faut pas regarder uniquement le prix du disque. Car lorsque l’on achète un disque Teradata, l’on achète également de la CPU, de la mémoire, etc. Finalement, chaque fois que l’on a intégré une banque et que l’on a réalisé de petites extensions de périmètre sur Teradata, les projets ont été transparents alors qu’historiquement, ces projets coûtaient 18 mois, avec beaucoup de ressources. Les performances et la scalabilité de Teradata ont été éprouvées depuis 3 années.
Ludovic FAVARETTE : Concernant le modèle de données, nous ne sommes pas partis, à l’origine, d’une feuille blanche. Comme je le mentionnais tout à l’heure, notre entrepôt est orienté applicatif en termes de modélisation. Ainsi, dans l’historique d’i-BP, avant l'informationnel, nous avions un infocentre comme dans de nombreuses entreprises. L’option a été prise, dès le départ, de partir sur un data warehouse qui n’était pas orienté « étoiles » mais modélisé comme le SI applicatif. Nous sommes, par contre, partis d’une feuille blanche pour la modélisation de la couche vue métiers, couche utilisée en direct en termes de requêtage par nos utilisateurs finaux. Nous sommes partis de l’animation de commission métiers dédiées sur le marketing, la finance, les risques pour réaliser la première version de cette couche vue métiers, qui date déjà de 2002. Nous l’avons ensuite fait évoluer de façon récurrente, au fil des projets. Le seul petit bémol concerne la nécessité de réurbaniser légèrement cette couche vue métiers qui comporte aujourd’hui 350 objets et que l’on aimerait recentrer sur une centaine d’objets, peut-être un peu plus denses mais plus faciles en termes de modèles, et plus faciles d’appréhension pour les utilisateurs finaux.
Philippe NIEUWBOURG : Une deuxième question : « Pourquoi Teradata ? »
Ludovic FAVARETTE : Quand le choix de Teradata a été fait, nous avions 17 clients. Il était important, dans la perspective d’intégrer de nouveaux clients (des banques qui rejoignaient la plateforme i-BP à l’époque) d’avoir une plateforme à la fois performante pour la partie décisionnelle, mais assurant également une scalabilité totale. Il s’agit d’un argument fort de Teradata, que l’on a pu éprouver. Nous étions un peu sceptiques au départ. Nous achetons effectivement du disque qui peut paraître un peu cher. Mais il ne faut pas regarder uniquement le prix du disque. Car lorsque l’on achète un disque Teradata, l’on achète également de la CPU, de la mémoire, etc. Finalement, chaque fois que l’on a intégré une banque et que l’on a réalisé de petites extensions de périmètre sur Teradata, les projets ont été transparents alors qu’historiquement, ces projets coûtaient 18 mois, avec beaucoup de ressources. Les performances et la scalabilité de Teradata ont été éprouvées depuis 3 années.
Retrouvez ci-dessous la vidéo de cette conférence donnée le 08/12/2010
Autres articles
-
Teradata lance des cas d’usage d’IA générative à démarrage rapide grâce à l’intégration d’Amazon Bedrock
-
Oracle Database@Azure disponible dans de nouvelles régions et avec de nouveaux services pour répondre à la demande mondiale
-
Teradata nomme Louis Landry au poste de Chief Technology Officer
-
Teradata AI Unlimited pour Microsoft Fabric est désormais disponible en avant-première via Microsoft Fabric Workload Hub
-
World Quality Report 2024 : 68% des entreprises utilisent désormais l'IA pour améliorer l'ingénierie de la qualité