Übersicht über das Bayestheorem und das dynamisch lineare Modell
Das Bayestheorem wird in der Bedarfsplanung eingesetzt und in der Prognoseroutine des Typs BATS angewendet.
Das Bayestheorem wurde von Thomas Bayes, einem presbyterianischen Pfarrer und Mathematiker, vor mehr als 200 Jahren entwickelt. In der Kernaussage von Bayes geht es darum, wie sich das Ergebnis einer Annahme im Lichte neuer Beweise ändern kann: "Annahme" und "Beweis" können auf harten Fakten basieren, aber genau so gut auf einer eher subjektiven Ansicht. Letzteres ist nicht leicht mit der Welt der Wissenschaft zu vereinbaren. Es kommt der "realen" Welt jedoch sehr nahe, in der die Frage "Wie viele Packungen Chips einer neuen Geschmacksrichtung können wir nächsten Monat verkaufen?" nicht ohne subjektive Eingangsparameter beantwortet werden kann.
Das dynamisch lineare Modell (DLM) ist ein mathematisches Konstrukt zur Modellierung von Zeitreihen unter Einbeziehung und Quantifizierung subjektiver Eingangsparameter. Das DLM hat den Vorteil, eine Obermenge der vorhandenden Methoden zu sein. Es wurde zusammengesetzt, um das Bayessche Konzept von Anfang an zu unterstützen.
Grundsätzlich beschreibt das Bayestheorem, wie sich die Wahrscheinlichkeit, dass ein Ereignis eintritt, durch das Auftreten eines anderen Ereignisses ändert. Betrachten wir eine Situation mit offensichtlichen Beweisen, ist es leicht einzusehen, wie diese angewendet werden könnten. Beispiel: Wie hoch ist die Wahrscheinlichkeit, ein Ass aus einem Stapel (Rommé-)Karten zu ziehen, wenn die Kreuz 3, das Herz-Ass und die Pik 6 bereits gezogen wurden?
Es gibt jedoch noch einen anderen, bedeutenderen Weg, das Bayestheorem zu interpretieren. Eine Annahme ist eine anfängliche Theorie. So wird zum Beispiel die Annahme darüber, wie viele Packungen Chips einer neuen Geschmacksrichtung verkauft werden können, zuerst von der Erfahrung beeinflusst, die beim letzten Mal gesammelt wurde, als eine neue Geschmacksrichtung auf den Markt gebracht wurde. Nachfolgend wird sie von den ersten Verkaufszahlen beeinflusst, nachdem das Produkt in die Läden gekommen ist. Das Bayestheorem wird dann zu einem Rezept, das hervorhebt, wie die ursprüngliche A-priori-Annahme im Licht neuer Beweise modifiziert werden muss.
Beispiel: Angenommen ein Forscher führt ein Experiment durch, bei dem er weiß, dass die Ergebnisse dadurch beeinflusst werden, welche der vielen vorhandenen Alternativen sich durchsetzt. Obwohl er nicht sicher ist, welche dieser Alternativen sich letztendlich durchsetzen wird, stehen dem Forscher doch einige Informationen zur Verfügung, auf deren Basis er bereit ist, eine subjektive Annahme bezüglich der Wahrscheinlichkeiten der Alternativen zu treffen. Daher weist der Forscher allen Alternativen Wahrscheinlichkeiten zu, bevor er das Experiment durchführt.
Da diese Wahrscheinlichkeiten das Urteil des Forschers vor einem eigentlichen Auftreten primär beeinflussen, werden diese als A-priori-Wahrscheinlichkeiten bezeichnet. Jetzt ist der Forscher in der Lage, sich durch die Gewinnung von Daten experimentelle Beweise zu beschaffen. Daher können die bedingten Wahrscheinlichkeiten berechnet werden. Diese Wahrscheinlichkeiten werden A-posteriori-Wahrscheinlichkeiten genannt. A-posteriori, weil diese ermittelt werden, nachdem die experimentellen Beweise beschafft wurden.