Vue générale de la méthode bayésienne et du modèle de programmation linéaire dynamique
La méthode bayésienne est utilisée dans la planification de la demande et s'applique au moteur de prévisions de type BATS.
La méthode bayésienne a été développée par le révérend Thomas Bayes il y a plus de deux siècles. Le principe de Bayes est de dire qu'une conviction, dans les résultats, peut varier à la lumière de nouvelles preuves : la "conviction" et les "preuves" peuvent être basées sur des faits solides, mais elles peuvent tout aussi bien être basées sur une conception plus subjective. Cette approche ne s'inscrit pas facilement dans l'univers scientifique mais elle se rapproche toutefois étroitement de la réalité quand il est difficile de répondre à la question "Combien de paquets de biscuits de ce nouveau parfum vendrons-nous le mois prochain ?" sans invoquer d'hypothèse subjective.
Le modèle de programmation linéaire dynamique (DLM) est la construction mathématique qui est utilisée pour modéliser une série temporelle et il incorpore et quantifie une hypothèse subjective. L'avantage du modèle DLM est qu'il s'agit d'un jeu performant de techniques existantes, structuré pour soutenir dès le départ la méthode bayésienne.
Au niveau de base, le théorème de Bayes explique comment les chances qu'un évènement se produise sont affectées par l'occurrence d'un autre évènement. Compte tenu de la situation avec preuves concrètes, il est facile de voir comment cela peut être appliqué. Par ex., quelle est la probabilité de remporter un as dans un paquet de cartes, quand 3 trèfles, l'as de cœur et 6 piques ont déjà été tirés ?
Toutefois, il existe une façon plus intéressante d'interpréter le théorème de Bayes. L'idée de la théorie initiale, par ex., du nombre de paquets de biscuits d'un nouveau parfum pouvant être vendus est tout d'abord influencée par les résultats du dernier lancement d'un nouveau parfum. Elle est ensuite influencée par les premiers chiffres de vente lorsque le produit est diffusé. Le théorème de Bayes se transforme ensuite en recette, mettant en évidence comment la première idée "antérieure" doit être actualisée à la lumière de la nouvelle preuve.
Par ex., supposons qu'un chercheur mène une expérience dans laquelle il sait que les résultats seront affectés par celle des nombreuses solutions existantes qui prévaudra. S'il ne sait pas quelle solution en particulier prévaudra en définitive, le chercheur dispose néanmoins de certaines informations qui lui permettent de porter un jugement subjectif en ce qui concerne les probabilités des solutions. Le chercheur attribue donc des probabilités à toutes les solutions avant d'obtenir la preuve expérimentale.
Puisque ces probabilités affectent principalement le jugement du chercheur avant une occurrence réelle, on les appelle des "probabilités à priori". A présent, le chercheur est bien placé pour obtenir une preuve expérimentale en réunissant un ensemble de données et, par conséquent, les probabilités conditionnelles peuvent être calculées. Ces probabilités sont référencées sous le nom de "probabilités a postériori" dans la mesure où elles sont déterminées lorsque la preuve expérimentale a été obtenue.