Kurvenanpassung anhand von beschränkten und unbeschränkten lineare Methoden der kleinsten Quadrate

Dieser Online-Rechner erstellt ein Regressionsmodel, um eine Kurve anhand der lineare Methode der kleinsten Quadrate anzupassen. Wenn man zusätzlich Beschränkungen für die Approximationsfunktion eingibt, nutzt der Rechner die Lagrange-Multiplikatoren Methode, um die Lösungen zu finden.

Der untenstehende Rechner verwendet die lineare Methode der kleinsten Quadrate für die Kurvenanpassung. Dies bedeutet, dass man eine Variablenfunktion mit der Regressionsanalyse approximiert wie in diesem Funktionsapproximation mit einer Regressionsanalyse Rechner. Aber im Gegensatz zu dem vorangegangenen Rechner kann dieser auch die Approximationsfunktion finden, wenn diese durch besondere Punkte zusätzlich beschränkt wird. Dies bedeutet, dass die Kurvenanpassung durch diese bestimmten Punkte führen muss.

Nam kann die Lagrange-Multiplikations-Methode für die Kurvenanpassung verwenden, falls es Beschränkungen gibt. Dies führt zu einigen Beschränkungen für die genutzte Regressionsmethode, daher kann nur die lineare Regressionsmethode verwendet werden. Daher hat im Gegensatz zum vorherigen genannten Rechner dieser keine Potenz- oder Exponenten Regression. Jedoch gibt es die Polynomregressionen der 4. Und 5. Ordnung. Die Formeln und ein wenig Theorie kann man wie immer unter dem Rechner finden.

Beachten: Falls das Feld für den X-Wert leer ist, startet der Rechner die X-Werte mit Null und dann mit +1 Schritten

PLANETCALC, Kurvenanpassung anhand von beschränkten und unbeschränkten lineare Methoden der kleinsten Quadrate

Kurvenanpassung anhand von beschränkten und unbeschränkten lineare Methoden der kleinsten Quadrate

Funktion muss durch bestimmte Punkte führen

Elemente pro Seite:

Zahlen nach dem Dezimalpunkt: 4
Quadratische Regression
 
Korrelationskoeffizient
 
Bestimmtheitsmaß
 
Durchschnittliche relative Fehler, %
 
Kubische Regression
 
Korrelationskoeffizient
 
Bestimmtheitsmaß
 
Durchschnittliche relative Fehler, %
 
Polynomregression der 4. Ordnung
 
Korrelationskoeffizient
 
Bestimmtheitsmaß
 
Durchschnittliche relative Fehler, %
 
Polynomregression der 5. Ordnung
 
Korrelationskoeffizient
 
Bestimmtheitsmaß
 
Durchschnittliche relative Fehler, %
 
Lineare Regression
 
Linearer Korrelationskoeffizient
 
Bestimmtheitsmaß
 
Durchschnittliche relative Fehler, %
 
Logistische Regression
 
Korrelationskoeffizient
 
Bestimmtheitsmaß
 
Durchschnittliche relative Fehler, %
 
Hyperbolische Regression
 
Korrelationskoeffizient
 
Bestimmtheitsmaß
 
Durchschnittliche relative Fehler, %
 
Polynomregression der 6. Ordnung
 
Korrelationskoeffizient
 
Bestimmtheitsmaß
 
Durchschnittliche relative Fehler, %
 
Polynomregression der 7. Ordnung
 
Korrelationskoeffizient
 
Bestimmtheitsmaß
 
Durchschnittliche relative Fehler, %
 
Polynomregression der 8. Ordnung
 
Korrelationskoeffizient
 
Bestimmtheitsmaß
 
Durchschnittliche relative Fehler, %
 
Ergebnis
Die Datei ist sehr groß; Beim Laden und Erstellen kann es zu einer Verlangsamung des Browsers kommen.

Linear kleinste Quadrate

Die linear kleinsten Quadrate sind die kleinste Quadrats Approximation von linearen Funktionen zu den Daten. Und die Methode der kleinsten Quadrate ist der Standardansatz in der Regressionsanalyse, um die Lösung überbestimmten Systems(Sätze von Gleichungen, in denen es mehr Gleichungen als Unbekannte gibt) zu approximieren. Dies wird durch die Minimisierung der Summe der Quadrate von den Residuen, die in den Ergebnissen jede einzelne Gleichung gebildet werden, erzielt.

Mehr Information über die kleine Quadrats Approximation und die dazugehörigen Formeln kann man hier Funktionsapproximation mit einer Regressionsanalyse finden.

Nun wird anhand der linearen Regressionsmethode gezeigt, dass die Approximationsfunktion die lineare Kombination von Parametern ist, die man bestimmen muss. Die bestimmten Werte sollten natürlich die Summe der Quadrate der Residuen minimisieren.

Nehmen wir mal an, wir haben einen Satz von Datenpunkten $(x_1,y_1), ..., (x_m,y_m)$.

Unsere Approximationsfunktion ist die lineare Kombination von den zu bestimmenden Parametern, zum Beispiel
y(x;a_1,a_2,a_3,a_4,a_5,a_6)=a_1+a_2x+a_3 \cdot ln(x) + ... + a_6x^{10}

Hierfür kann eine Matrixnotation nehmen, um die Werte der Funktion darzustellen
\begin{bmatrix} \hat{y}_1 \\ ... \\ \hat{y}_m \end{bmatrix} = \begin{bmatrix} 1 & x_1 & ln(x_1) & ... & x_{1}^{10} \\ ... & ... & ... & ... & ... \\ 1 & x_m & ln(x_m) & ... & x_{m}^{10} \end{bmatrix} \begin{bmatrix} a_1 \\ ... \\ a_6 \end{bmatrix}

Oder als Kurznotation:

\mathbf{\hat{y}=Xa}

Da wir die kleinste Quadrats Approximation verwenden, sollten wir die folgende Funktion minimisieren

f(\mathbf{a})=\sum_{i=1}^m[\hat{y}(x_i;\mathbf{a})-y_i]^2,

oder in einem Matrixformat

f(\mathbf{a})=|\mathbf{Xa-y}|^2

Dieser Wert ist die Distanz zwischen dem Vektor y and Vektor Xa. Um die Distanz zu minimisieren, sollte Xa die Projektion zu dem Spaltenraum X sein, und Vektor Xa-y sollte senkrecht zu dem Raum sein.

Ist dies möglich, dann ist
(X\mathbf{v})^T(X{\mathbf{a}}-\mathbf{y})=\mathbf{v}^T(X^TX{\mathbf{a}}-X^T\mathbf{y})=0,

, wo v ein Zufallsvektor im Zeilenraum ist. Da dieser zufällig ist, ist die einzige Möglichkeit, die obige Kondition zu erfüllen, durch

X^TX{\mathbf{a}}-X^T\mathbf{y}=0,

oder

X^TX{\mathbf{a}}=X^T\mathbf{y},

Daher gilt

\mathbf{a}=(X^TX)^{-1}X^T\mathbf{y}

Der Rechner verwendet alle vorherigen Formeln für die unbeschränkte lineare Methode der kleinsten Quadrate.

Lagrange-Multiplikator Methode

Nun betrachten wir Beschränkungen. Dies könnten die folgenden sein:
– Kurvenanpassung muss durch bestimmte Punkte gehen (dies wird vom Rechner unterstützt)
– Die Steigung der Kurve muss an bestimmten Punkten gleich eines bestimmten Wertes sein

Daher muss man die Approximationsfunktion finden, die von einer Seite aus der Summe der Quadrate minimisieren sollte,

f(\mathbf{a})=|\mathbf{Xa-y}|^2

Und von der anderen Seite die folgende Kondition erfüllen sollte

\begin{bmatrix} y_{c_1} \\ ... \\ y_{c_k} \end{bmatrix} = \begin{bmatrix} 1 & x_{c_1} & ln(x_{c_1}) & ... & x_{c_1}^{10} \\ ... & ... & ... & ... & ... \\ 1 & x_{c_k} & ln(x_{c_k}) & ... & x_{c_k}^{10} \end{bmatrix} \begin{bmatrix} a_1 \\ ... \\ a_6 \end{bmatrix}

Oder in im Matrixformat

\mathbf{b = Ca}

Dies wird als bedingtes Extremum bezeichnet, und kann durch konstruieren von Langrange F(a,\lambda) unter Verwendung der Lagrange-Multiplikationsmethode gelöst werden.

F(a, \lambda)=f(a)+\lambda\varphi(a)

In unserem Fall ist die Lagrange

F(a, \lambda)=|\mathbf{Xa-y}|^2+\lambda  (\mathbf{Ca - b})

Und die Aufgabe ist es, das Extremum zu finden. Nach einigen Ableitungen, welche hier nicht aufgelistet sind, ist die Formel zum Finden der Parameter

\begin{bmatrix} a \\ \lambda \end{bmatrix} = \begin{bmatrix} 2X^TX & C^T \\ C & 0 \end{bmatrix}^{-1} \begin{bmatrix} 2X^Ty \\ b \end{bmatrix}

Der Rechner nutzt die obenstehenden Formeln für die beschränkte lineare Methode der kleinsten Quadrate.

URL zum Clipboard kopiert
PLANETCALC, Kurvenanpassung anhand von beschränkten und unbeschränkten lineare Methoden der kleinsten Quadrate

Kommentare