Skip to content
Snippets Groups Projects
Commit 22fa0391 authored by Roger Wolf's avatar Roger Wolf
Browse files

slight rework

parent ea9f08c9
No related branches found
No related tags found
No related merge requests found
......@@ -14,7 +14,7 @@ z = \sum\limits_{i=1}^{n}\frac{||\Omega(\{\theta_{j}\}-r_{i}||_{2}^{2}}{\Delta r
$$
entspricht. Die Optimierungsaufgabe besteht darin, den kleinsten Wert von $z$ im Raum der Parameter $\{\theta_{j}\}$ zu finden. Diese Methode wird als "Methode der kleinsten Quadrate" oder $\chi^{2}$-Methode bezeichnet. Der Name leitet sich aus der folgenden Tatsache ab:
Interpretieren wir die $\{r_{i}\}$ als [Zufallsvariablen](https://de.wikipedia.org/wiki/Zufallsvariable), die nach einer allgemeinen [Wahrscheinlichkeitsdichte](https://de.wikipedia.org/wiki/Wahrscheinlichkeitsdichtefunktion) verteilt sind, dann ist $z$, als Funktion von Zufallsvariablen, ebenfalls eine Zufallsvariable. Man bezeichnet $z$ allgemein als [Schätzfunktion](https://de.wikipedia.org/wiki/Sch%C3%A4tzfunktion), die wiederum selbst nach einer Wahrscheinlichkeitsdichte, der [Stichprobenverteilung](https://de.wikipedia.org/wiki/Sch%C3%A4tzfunktion#Stichprobenverteilung), verteilt ist. Im allgemeinen ist es nicht möglich für die Stichprobenverteilung eine mathematisch geschlossene Form anzugeben. Sind die $\{r_{i}\}$ aber *normalverteilt*, dann folgt die Zufallsvariable $z$ der [$\chi^{2}(z, n_{\mathrm{dof}})$-Verteilung](https://de.wikipedia.org/wiki/Chi-Quadrat-Verteilung) für $n_{\mathrm{dof}}$ Freiheitsgrade, mit $n_{\mathrm{dof}}\equiv n-k$. Der Begriff [Freiheitsgrad](https://de.wikipedia.org/wiki/Anzahl_der_Freiheitsgrade_(Statistik)) leitet sich aus der folgenden beispielhaften Vorstellung ab:
Interpretieren wir die $\{r_{i}\}$ als [Zufallsvariablen](https://de.wikipedia.org/wiki/Zufallsvariable), die nach einer allgemeinen [Wahrscheinlichkeitsdichte](https://de.wikipedia.org/wiki/Wahrscheinlichkeitsdichtefunktion) verteilt sind, dann ist $z$, das eine Funktion von Zufallsvariablen ist, ebenfalls eine Zufallsvariable. Man bezeichnet $z$ allgemein als [Schätzfunktion](https://de.wikipedia.org/wiki/Sch%C3%A4tzfunktion). Diese ist wiederum selbst nach einer Wahrscheinlichkeitsdichte, der [Stichprobenverteilung](https://de.wikipedia.org/wiki/Sch%C3%A4tzfunktion#Stichprobenverteilung), verteilt. Im allgemeinen ist es nicht möglich für die Stichprobenverteilung eine mathematisch geschlossene Form anzugeben. Sind die $\{r_{i}\}$ aber *normalverteilt*, dann folgt die Zufallsvariable $z$ der [$\chi^{2}(z, n_{\mathrm{dof}})$-Verteilung](https://de.wikipedia.org/wiki/Chi-Quadrat-Verteilung) für $n_{\mathrm{dof}}$ Freiheitsgrade, mit $n_{\mathrm{dof}}\equiv n-k$. Der Begriff [Freiheitsgrad](https://de.wikipedia.org/wiki/Anzahl_der_Freiheitsgrade_(Statistik)) leitet sich aus der folgenden beispielhaften Vorstellung ab:
In der $xy$-Ebene wird eine Gerade durch zwei Datenpunkte $(x_{1}, y_{1})$ und $(x_{2}, y_{2})$ bestimmt. Das mathematische Modell zur Beschreibung einer Geraden, $\Omega(a_{0}, a_{1}, x): a_{1}\hspace{0.05cm}x+a_{0}=0$, besitzt zwei Parameter $a_{0}$ und $a_{1}$. Durch die Punkte $(x_{1}, y_{1})$ und $(x_{2}, y_{2})$ sind $a_{0}$ und $a_{1}$ eindeutig bestimmt und es besteht keine Freiheit die Parameter zu variieren. Ein Modell, das genauso viele Parameter besitzt, wie Messpunkte zur Anpassung zur Verfügung stehen, bezeichnet man als *saturiert*. Sobald ein weiterer Punkt $(x_{3}, y_{3})$ hinzukommt ist nicht mehr garantiert, dass $\Omega$ durch geeignete Wahl der Parameter $a_{0}$ und $a_{1}$ jeden Punkt exakt berührt und das Minimum von $z$ wird nicht mehr trivial gefunden. Das Modell hat einen Freiheitsgrad, aus dem ein nicht-triviales Minimum abgeleitet werden kann.
......
......@@ -25,7 +25,7 @@ Den Wert $\hat{z}$ bezeichnet man als **$\boldsymbol{\chi^{2}}$-Wert**. Die Auss
Dies lässt sich wie folgt verstehen: Der $\chi^{2}$-Wert ist ein Maß für die mittlere Entfernung zwischen $\Omega$ und den $\{r_{i}\}$. Große Werte weisen auf eine schlechte, kleine Werte auf eine gute Übereinstimmung zwischen $\Omega$ und den $\{r_{i}\}$, innerhalb der Streuung ([Varianz](https://de.wikipedia.org/wiki/Varianz_(Stochastik))) der $\{r_{i}\}$, hin.
Gehen wir davon aus, dass die $\{r_{i}\}$ im Fall wiederholter Messungen *normalverteilt* sind und ihre [Erwartungswerte](https://de.wikipedia.org/wiki/Erwartungswert) wirklich durch $\Omega$ beschrieben werden können, dann folgt $\hat{z}$ der $\chi^{2}(z, n_{\mathrm{dof}})$-Verteilung, deren Erwartungswert $E[\hspace{0.05cm}z\hspace{0.05cm}]=n_{\mathrm{dof}}$ ist. Ein Wert von $\hat{z}^{2}/n_{\mathrm{ndof}}\lesssim1$ deutet darauf hin, dass der Verlauf der Modellvorhersage im Mittel innerhalb der Varianzen der $\{r_{i}\}$ liegt. Um diesen Umstand anschaulicher zu machen, wird der $\chi^{2}$-Wert oft zusätzlich in einen ***p*-Wert** übersetzt.
Gehen wir davon aus, dass die $\{r_{i}\}$ im Fall wiederholter Messungen *normalverteilt* sind und ihre [Erwartungswerte](https://de.wikipedia.org/wiki/Erwartungswert) wirklich durch $\Omega$ beschrieben werden können, dann folgt $\hat{z}$ der $\chi^{2}(z, n_{\mathrm{dof}})$-Verteilung, deren Erwartungswert $E[\hspace{0.05cm}z\hspace{0.05cm}]=n_{\mathrm{dof}}$ ist. Ein Wert von $\hat{z}/n_{\mathrm{ndof}}\lesssim1$ deutet darauf hin, dass der Verlauf der Modellvorhersage im Mittel innerhalb der Varianzen der $\{r_{i}\}$ liegt. Um diesen Umstand anschaulicher zu machen, wird der $\chi^{2}$-Wert oft zusätzlich in einen ***p*-Wert** übersetzt.
Der *p*-Wert ist das Integral
$$
......@@ -35,7 +35,7 @@ p = \int\limits_{\hat{z}}^{\infty}\chi^{2}(z, n_{\mathrm{ndof}})\,\mathrm{dz}.
$$
Unter der Annahme, dass die Erwartungswerte der $\{r_{i}\}$ tatsächlich $\Omega$ folgen, entspricht er der Wahrscheinlichkeit einen Wert von $z\geq\hat{z}$ und damit eine schlechtere Übereinstimmung des Modells mit den $\{r_{i}\}$ zu erhalten, als durch $\hat{z}$ beobachtet. Der *p*-Wert ist selbst wieder eine Zufallsvariable, die, wenn die zu ihrer Berechnung gemachten Annahmen erfüllt sind, in ihrem Wertebereich (zwischen 0 und 1) gleichverteilt ist.
**Wir geben ein Beispiel:** Sie nehmen die Anpassung eines Modells $\Omega$ mit $k=5$ Parametern an $n=15$ Messpunkte $\{r_{i}\}$ vor, d.h. $n_{\mathrm{dof}}=10$. Nach Anpassung erhalten Sie einen $\chi^{2}$-Wert von 20, d.h. $\hat{z}^{2}/n_{\mathrm{dof}}=2$. Unter der Annahme, das die $\{r_{i}\}$ normalverteilt sind und ihre Erwartungswerte wirklich $\Omega$ folgen ist ein Ausgang des Experiments mit einem $\chi^{2}$-Wert $\geq20$ mit einer Wahrscheinlichkeit von 3% zu erwarten. Es bleibt Ihnen überlassen, basierend auf dieser Abschätzung die Aussage, dass die Erwartungswerte der $\{r_{i}\}$ tatsächlich $\Omega$ folgen zu verwerfen oder nicht.
**Wir geben ein Beispiel:** Sie nehmen die Anpassung eines Modells $\Omega$ mit $k=5$ Parametern an $n=15$ Messpunkte $\{r_{i}\}$ vor, d.h. $n_{\mathrm{dof}}=10$. Nach Anpassung erhalten Sie einen $\chi^{2}$-Wert von 20, d.h. $\hat{z}/n_{\mathrm{dof}}=2$. Unter der Annahme, das die $\{r_{i}\}$ normalverteilt sind und ihre Erwartungswerte wirklich $\Omega$ folgen ist ein Ausgang des Experiments mit einem $\chi^{2}$-Wert $\geq20$ mit einer Wahrscheinlichkeit von 3% zu erwarten. Es bleibt Ihnen überlassen, basierend auf dieser Abschätzung die Aussage, dass die Erwartungswerte der $\{r_{i}\}$ tatsächlich $\Omega$ folgen zu verwerfen oder nicht.
Um für die Beziehung zwischen $\chi^{2}$-Wert und *p*-Wert ein Gefühl zu bekommen können Sie dieses und ein paar weitere Beispiele mit dieser [Web-Anwendung der University of Illinois](http://courses.atlas.illinois.edu/spring2016/STAT/STAT200/pchisq.html) überprüfen.
......
......@@ -93,37 +93,12 @@ Wenn Sie das Modell *an die Daten anpassen* möchten führen Sie das Skript *run
%run /opt/conda/bin/run_phyFit.py foo.yaml
```
Die Größe $\hat{\chi}^{2}/n_{\mathrm{dof}}$ und die Werte und Unsicherheiten der angepassten Parameter $\hat{A}$, $\hat{\omega}$ und $\hat{\phi}$ sind Ausgaben der Anpassung. Gehen Sie bei der Bearbeitung dieses Aufgabenteils wie folgt vor:
Die Größe $\hat{z}/n_{\mathrm{dof}}$ und die Werte und Unsicherheiten der angepassten Parameter $\hat{A}$, $\hat{\omega}$ und $\hat{\phi}$ sind Ausgaben der Anpassung. Gehen Sie bei der Bearbeitung dieses Aufgabenteils wie folgt vor:
- Ermitteln Sie $g^{(2.2)}\pm\Delta g_{\Delta T}^{(2.2)}$ mit Hilfe der Anpassung und vergleichen Sie Ihr Ergebnis im Rahmen seiner Unsicherheiten zu $g_{\mathrm{exp}}\pm\Delta g_{\mathrm{exp}}$.
- Diskutieren und erklären Sie alle Beobachtungen, die Sie dabei machen. Wie kommt es, dass $\Delta g_{\Delta T}^{(2.2)}$ so viel kleiner ist, als $\Delta g_{\Delta T}^{(2.1)}$ und wie steht es um den Vergleich mit $g_{\mathrm{exp}}$?
### Aufgabe 2.3: Zweite Erweiterung der Methodik
Sie können $g\pm\Delta g$ auch direkt als Modellparameter bestimmen. Unter Verwendung von *PhyPraKit* könnte der Funktionsblock für ein entsprechend verändertes Modell so aussehen:
```yaml
model_label: "HARMONIC_G"
model_function: |
def model(t, A=0.8, g=9.8, phi=0):
return x0*np.cos(np.sqrt(g/0.6285)*t+phi)
```
Dabei handelt es sich bei der Zahl `0.6385` um die Länge $\ell$ des Pendels (siehe [Datenblatt.md](https://gitlab.kit.edu/kit/etp-lehre/p1-praktikum/students/-/blob/main/Vorversuch/Datenblatt.md)), die wir als **äußeren Parameter** bestimmt haben und als solchen ins Modell einbringen.
Aus dieser Modifikation ergeben sich tiefere Einsichten in die Diskussion der berücksichtigten Unsicherheiten:
Die Größe $\ell$ hat selbst eine Unsicherheit $\Delta\ell$, die wir in der Bestimmung von $\Delta g$ berücksichtigen sollten. Da $\ell$, als *von außen eingebrachter* Parameter, nicht immanent, d.h. nicht aus der Anpassung selbst, bestimmt werden kann, müssen wir $\Delta\ell$ ebenfalls von außen in die Bestimmung von $g$ einbringen. Am einfachsten erreichen wir dies, indem wir $\ell$ um $\pm\Delta\ell$ variieren und die Anpassung erneut (insgesamt also $3\times$) durchführen. Die Unsicherheit $\Delta\ell$ wird entsprechend auf $g$ propagiert und führt so zu einer Unsicherheit $\Delta g_{\Delta\ell}^{(2.2)}$ unter Variation von $\ell$ um den Betrag $\pm\Delta\ell$.
Die Unsicherheit $\Delta g_{\Delta\ell}$, die sich aus der ungenügenden Kenntnis von $\ell$ ergibt bezeichnet man in diesem Zusammenhang als epistemische, oder **systematische Unsicherheit**. In der Physik sind systematische Unsicherheiten i.d.R. mit *systematischen Variationen* verbunden. Im Gegensatz dazu bezeichnet man $\Delta g_{\Delta T}$, das die Unsicherheiten der Datenpunkte, an die das Modell angepasst wurde und damit die eigentliche Messung repräsentiert, als **statistische Unsicherheit** der Messung.
Nach der Anpassung an die Daten können Sie $g^{(2.3)}$ direkt als Ausgabewert der Anpassung ablesen. Es handelt sich lediglich um eine Umparametrisierung des Modells aus Aufgabe 2.1 für die Sie die folgenden Eigenschaften feststellen sollten:
- Der Wert von $g^{(2.3)}$ ist der gleiche, wie für $g^{(2.2)}$ aus Aufgabe 2.2;
- Der Wert von $\Delta g_{\Delta T}^{(2.3)}$ ist der gleiche, wie für $\Delta g_{\Delta T}^{(2.2)}$ aus Aufgabe 2.2;
- Der Wert von $\chi^{2}/n_{\mathrm{dof}}$ für die Güte der Anpassung ist der gleiche, wie aus Aufgabe 2.2.
# Navigation
[Zurück](https://gitlab.kit.edu/kit/etp-lehre/p1-praktikum/students/-/blob/main/Vorversuch/doc/Hinweise-Aufgabe-2-b.md) | [Main](https://gitlab.kit.edu/kit/etp-lehre/p1-praktikum/students/-/tree/main/Vorversuch)
[Zurück](https://gitlab.kit.edu/kit/etp-lehre/p1-praktikum/students/-/blob/main/Vorversuch/doc/Hinweise-Aufgabe-2-b.md) | [Main](https://gitlab.kit.edu/kit/etp-lehre/p1-praktikum/students/-/tree/main/Vorversuch) | [Weiter](https://gitlab.kit.edu/kit/etp-lehre/p1-praktikum/students/-/blob/main/Vorversuch/doc/Hinweise-Aufgabe-2-d.md)
......@@ -66,7 +66,7 @@ Der Übergang zu dieser vermeintlich wahrheitsgetreueren Beschreibung der Realit
- Wie verändert sich die Ausgabe von $n_{\mathrm{dof}}$ und warum?
- Wie verändert sich die Ausgabe von $\hat{\chi^{2}}/n_{\mathrm{dof}}$?
- Wie verändert sich die Ausgabe von $\hat{z}/n_{\mathrm{dof}}$?
- Ist das zugrundeliegende Modell mit den Daten kompatibel?
......
0% Loading or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment