Funktionsapproximation mit einer Regressionsanalyse
Dieser Onlinerechner nutzt verschiedene einfache Regressionsverfahren für die Approximation einer unbekannten Funktion anhand von einem Satz von Datenpunkten.
Der Inhalt ist unter der Creative Commons Namensnennung / Weitergabe unter gleichen Bedingungen 3.0 (nicht portiert) lizenziert. Dies bedeutet, dass Sie diesen Inhalt unter den gleichen Lizenzbedingungen frei weitergeben oder ändern dürfen, jedoch mit Zuordnung zum Entwickler indem Sie einen Hyperlink auf Ihrer Webseite zu dieser Arbeit https://de.planetcalc.com/5992/ platzieren. Des Weiteren ändern Sie bitte keine Verweise auf das Originalwerk (falls vorhanden) das in diesem Inhlat vorhanden ist.
Das Problem der Funktionsapproximation ist, eine Funktion aus einer genau-definierten Gruppe zu wählen, die einer unbekannten Funktion fast gleicht (Approximation)
Dieser Rechner nutzt die vorgegebenen Daten der Zielfunktionstabelle in Form von Punkten {x, f(x)}, um verschiedene Regressionsverfahren zu erstellen. Dies sind: lineare Regression, quadratische Regression, kubische Regression, Potenzregression, logarithmische Regression, hyperbolische Regression, ab-Exponentialregression, Exponentialregression. Die Ergebnisse können anhand Korrelationskoeffizienten, Bestimmtheitsmaß, Durchschnitt von relativen Fehlern (Standardfehler der Regression) und visuell in einem Graphen verglichen werden. Theorien und Formeln werden wie immer unter dem Rechner angegeben.
Lineare Regression
Gleichung:
a Koeffizient
b Koeffizient
Linearer Korrelationskoeffizient
Bestimmtheitsmaß
Standardfehler der Regression
Quadratische Regression
Gleichung:
Ein Gleichungssystem um a, b und c zu finden
Korrelationskoeffizient
,
wobei
Bestimmtheitsmaß
Standardfehler der Regression
Kubische Regression
Gleichung:
Gleichungssysteme um a, b, c und d zu finden
Korrelationskoeffizient, Bestimmtheitsmaß, Standardfehler der Regression – die gleichen Formeln wie in der quadratischen Regression.
Potenzregression
Gleichung:
b Koeffizient
a Koeffizient
Korrelationskoeffizient, Bestimmtheitsmaß, Standardfehler der Regression – die gleichen Formeln wie oben.
ab-Exponentialregression
Gleichung:
b Koeffizient
a Koeffizient
Korrelationskoeffizient, Bestimmtheitsmaß, Standardfehler der Regression – die gleichen Formeln wie oben.
Hyperbolische Regression
Gleichung:
b Koeffizient
a Koeffizient
Korrelationskoeffizient, Bestimmtheitsmaß, Standardfehler der Regression – die gleichen Formeln wie oben.
Logarithmische Regression
Gleichung:
b Koeffizient
a Koeffizient
Korrelationskoeffizient, Bestimmtheitsmaß, Standardfehler der Regression – die gleichen Formeln wie oben.
Exponentialregression
Gleichung:
b Koeffizient
a Koeffizient
Korrelationskoeffizient, Bestimmtheitsmaß, Standardfehler der Regression – die gleichen Formeln wie oben.
Ableitungen von Formeln
Fangen wir mal mit einem Problem an:
Wir haben eine unbekannte Funktion y=f(x), die in Form einer Datentabelle (zum Beispiel solche die aus einem Experiment erhalten wurde) gegeben ist.
Wir müssen die Funktion mit bekannter Art (linear, quadratisch etc.) y=F(x) finden, deren Werten so nah wie möglich wie die Werte in der Tabelle sein sollten. In der Praxis bedeutet es, dass die Art der Funktion durch den visuellen Vergleich zwischen den Tabellenpunkte und der Graphen der bekannten Funktionen ermittelt wird.
Als Ergebnis sollten wir eine Formel y=F(x) erhalten, die sogenannte empirische Formel (Regressionsgleichung, Funktionsapproximation), welche es erlaubt, y für x’s zu berechnen, die nicht in der Tabelle sind. Daher „glättet“ die empirische Formel die y-Werte.
Wir nutzen das Verfahren der kleinsten Quadrate um den Paramater F für die beste angepasste Form zu erhalten. Die beste Form in dem Verfahren der kleinsten Quadrate minimiert die Summe von quadratischen Residuen. Residuen sind die Unterschiede zwischen einem beobachteten Wert dem gepassten Wert durch ein Verfahren.
Daher müssen wir die Funktion F finden, wie die Summe von quadratischen Residuen S minimiert sind
Nun beschreiben wir die Lösung für dieses Problem mit der linearen Regression F=ax+b als Beispiel.
Wir müssen die beste angepasste Form für die Koeffizienten a und b finden, daher ist
S die Funktion von a und b. Um das Minimum zu finden, werden wir die Extrempunkte finden, wo die partiellen Ableitungen gleich Null sind.
Unter der Verwendung der Ableitungsformel von komplexen Funktionen erhalten wir die folgende Gleichung
Für die Funktion sind die partiellen Ableitungen
,
Erweitert man die erste Formel um eine partielle Ableitung, erhält man die folgende Gleichung
Nachdem man die Klammern entfernt hat, bekommt man das folgende:
Von diesen Gleichungen können wir die Formeln für a und b erhalten, die gleich mit oben genannten Formeln sind.
Mit dem Gleichen Verfahren können wir die Formeln für alle weiteren Regressionen bekommen.
Kommentare