Aujourd’hui dans les entreprises on utilise beaucoup de modèles qui permettent de formaliser une représentation simplifiée de l’environnement et des activités. Ces modèles créent pour les collaborateurs des cadres communs de référence, ils permettent de structurer les raisonnements sur les situations existantes, sur les enjeux (financiers, humains, techniques) et sur les scénarios du futur. In fine tout cela aide à la communication des expériences, des réflexions de tous et crée ainsi une situation favorable à la prise des décisions.
Cependant il ne faut pas confondre solution analytique d’un problème et modèle numérique. La première est fondée sur une fonction mathématique connue qui couvre parfaitement le problème, alors que le modèle numérique est une approximation à l’aide de calcul de la solution réelle dont on n’a pas de description mathématique rigoureuse.
Un modèle est toujours une interprétation de la réalité qui est construite en fonction d’un objectif qui détermine le choix des paramètres et privilégie un point de vue. Un modèle n’est donc jamais totalement représentatif de la réalité. Lorsque l’on veut obtenir une représentation de données historiques, on construit un modèle descriptif qui permet d’intégrer au mieux la masse des informations ... disponibles. Lorsque l’on veut anticiper les événements, estimer des potentiels, on construit un modèle prédictif pour lequel on a sélectionné des variables dites explicatives pour déterminer les variables inconnues recherchées.
Les principales exigences de qualité d’un modèle sont qu’il couvre bien le champ du problème concerné, qu’il permette d’obtenir le résultat recherché et tout cela selon un processus maîtrisé. L’exigence importante complémentaire est la durée de vie d’un modèle. En effet, construire un modèle nécessite généralement un investissement conséquent que l’on cherche à amortir par des usages multiples. Mais la réalité est complexe et évolutive, les modèles ont donc régulièrement besoin d’être actualisés pour palier leur dérive naturelle dans le temps.
Pour aller plus loin, vous pouvez consulter mes articles sur le thème des approches analytiques de pointe, data mining ou fouille de données : cliquez ici
Rédigé par Michel Bruley le Lundi 22 Août 2011 à 08:34
|
Permalien
|
{0}
> A LIRE EN CE MOMENT SUR DECIDEO
-
Teradata nomme Louis Landry au poste de Chief Technology Officer
-
Splunk offre aux organisations une visibilité unifiée et des informations métiers exploitables dans toute l’entreprise
-
Dell Technologies étend ses innovations en matière d’IA au Edge
-
Eviden à la pointe du calcul haute performance avec une nouvelle offre de réseau adaptée à l'IA
-
SCC accélère l'adoption de l'IA à travers la France, libérant le potentiel des espaces intelligents
-
IA Générative : les 5 points de vigilance que tout responsable de la sécurité devrait surveiller
-
Teradata AI Unlimited pour Microsoft Fabric est désormais disponible en avant-première via Microsoft Fabric Workload Hub
-
ManoMano renforce sa gouvernance de données grâce à CastorDoc
-
Snowflake renforce la collaboration cross-cloud pour les données d'entreprise et l'intelligence artificielle
-
Snowflake unifie les données transactionnelles et analytiques avec la disponibilité générale des Hybrid Tables
Profil
Michel Bruley
Liste de liens
Dernières notes
Meilleurs vœux aux parents pour 2024
10/01/2024
Galerie
Archives
Rubriques
Rubriques