Sans entrer dans la problématique du choix des fournisseurs, les lignes ci-dessous recensent sous forme de recommandations, les principales idées qui sont largement répandues et qu’il ne faut surtout pas suivre.
Pour réaliser votre entrepôt de données, ne consultez aucune personne extérieure à votre organisme. Votre cas est unique et seules des personnes de chez vous peuvent trouver la solution qui convient. Ne cherchez pas à savoir ce que font vos concurrents, ne regardez pas les références de fournisseurs de solutions décisionnelles.
Fixez-vous comme premier objectif de spécifier de façon exhaustive tous les besoins décisionnels de votre organisme, en particulier soignez particulièrement bien la définition détaillée des restitutions attendues.
Cherchez à satisfaire les utilisateurs en leur réalisant des systèmes personnels sur mesure. Concrètement il s’agit de multiplier les data marts dans une logique de construire pour chaque division, département voire service, des moyens totalement adaptés au périmètre de leur problématique, en particulier à leur vocabulaire, à leur façon de voir les données sans se soucier d’autre chose que de leur vision spécifique des affaires. À chacun sa vérité.
Planifiez de multiples projets décisionnels en parallèle, sans vous soucier de fixer des priorités ni de produire rapidement des résultats.
Évitez le plus possible de stocker des données détaillées et fondez les systèmes sur des données agrégées, des compteurs du type RFM, et faites une large place aux données d’enquêtes, d’études ponctuelles et d’informations qualitatives que les utilisateurs maîtrisent bien, voire produisent eux-mêmes.
Au niveau de la modélisation, bannissez la 3ème forme normale, fondez le plus possible les datamarts sur des modèles en étoile ou en flocon, de façon à optimiser au maximum les performances des requêtes qui sont envisagées au moment de la conception du système.
Pour les restitutions, simplifiez le plus possible la vie des utilisateurs en fournissant des résultats facilement compréhensibles comme des moyennes, des médianes ou des métriques synthétiques, qui permettent de suivre simplement des sujets complexes.
Pour faciliter l’appréciation des performances fondez exclusivement les suivis sur des comparaisons entre données de prévision et de réalisation, en veillant à ne pas trop multiplier les chiffres et à rester très synthétique, en particulier il convient de limiter la profondeur de l’historique des données.
Au niveau des moyens technologiques, privilégiez des solutions prêtes à l’emploi spécifiques, quitte à multiplier les fournisseurs et les moyens.
Défendez bec et ongles l’idée que la vérité est dans les statistiques.
Investissez un minimum dans votre entrepôt de données, gardez le plus possible votre argent au fond d’un coffre, il y sera en sécurité.
Rédigé par Michel Bruley le Jeudi 9 Juillet 2015 à 16:14
|
Permalien
|
{0}
> A LIRE EN CE MOMENT SUR DECIDEO
-
Teradata nomme Louis Landry au poste de Chief Technology Officer
-
Splunk offre aux organisations une visibilité unifiée et des informations métiers exploitables dans toute l’entreprise
-
Dell Technologies étend ses innovations en matière d’IA au Edge
-
Eviden à la pointe du calcul haute performance avec une nouvelle offre de réseau adaptée à l'IA
-
SCC accélère l'adoption de l'IA à travers la France, libérant le potentiel des espaces intelligents
-
IA Générative : les 5 points de vigilance que tout responsable de la sécurité devrait surveiller
-
Teradata AI Unlimited pour Microsoft Fabric est désormais disponible en avant-première via Microsoft Fabric Workload Hub
-
ManoMano renforce sa gouvernance de données grâce à CastorDoc
-
Snowflake renforce la collaboration cross-cloud pour les données d'entreprise et l'intelligence artificielle
-
Snowflake unifie les données transactionnelles et analytiques avec la disponibilité générale des Hybrid Tables
Profil
Michel Bruley
Liste de liens
Dernières notes
Meilleurs vœux aux parents pour 2024
10/01/2024
Galerie
Archives
Rubriques
Rubriques