Da habt Ihr einen schönen Wikipediaartikel gefunden. Dort steht, dass man entweder die unabhängigen und abhängigen Variablen standardisiert, was Ihr mit der von mir angegebenen Funktion scale machen könntet, oder die errechneten Regressionkoeffizienten multipliziert mit der Standardabweichung der unabhängigen geteilt durch die Standardabweichung der abhängigen Variablen. (Die erste Formel im von Euch verlinkten Wikipediaeintrag.)
Besteht Euer Problem eher darin, in R die Standardabweichung auszurechnen oder eher darin, einen Bruch zu bilden und zu multiplizieren oder eher darin, das Ergebnis zu interpretieren?
unser Problem besteht darin die abhängige und unabhängige Variable zu standardisieren. Wir bekommen das mit der Scale Formel leider nicht richtig umgesetzt.
also ich habe ein lineares Regressionsmodell rechnen lassen. Dabei habe ich die abhängige bzw. Unabhängige variable mit dem Befehl scale(Name abhängige Variable) und scale(Name unabhängige variable) eingegeben. Das Ergebnis ist jedoch, dass ich trotzdem ein Ergebnis für ein intercept erhalte und eine standardabweichung von ca. 0,03, das dürfte m.E. Doch nicht passieren oder?
Poste doch mal den Aufruf der Regression und deren Ergebnis hier ins Forum (bitte mit code-Tags), dann sehen wir alle, welche Standardabweichung 0,3 ist.
LG,
Bernhard
---
Programmiere stets so, dass die Maxime Deines Programmierstils Grundlage allgemeiner Gesetzgebung sein könnte
hier ist mein Ergebnis für den Datensatz der Frauen, ich hoffe die Darstellung ist die von dir gewünschte.
Weight steht für das tatsächliche Gewicht (abhängige Variable) und repwt für das geschätzte Gewicht (unabhängige Variable):
Residual standard error: 0.2999 on 98 degrees of freedom
(11 observations deleted due to missingness)
Multiple R-squared: 0.9119, Adjusted R-squared: 0.911
F-statistic: 1015 on 1 and 98 DF, p-value: < 2.2e-16
zunächst ein Wort der Warnung: Das Formelinterface mit `~` hat seine eigenen Regeln. Hier ist es kein Problem, aber meist ist es eine gute Idee, dort keine Rechnungen oder Umwandlungen vorzunehmen, sondern die berechnete oder umgewandelte Variable mit einem eigenen Variablennamen vorher zu speichern. Das nur vorab.
Ich muss gestehen, dass ich mir über den Intercept bei standardisierten Koeffizienten noch nie Gedanken gemacht habe. In Eurem Fall ist er nicht Null aber auch nicht signifikant von Null verschieden. Reicht das nicht? 0,03 ist der Standardfehler des Intercepts. Warum sollte der denn Eurer Meinung nach keinen Standardfehler haben?
LG,
Bernhard
---
Programmiere stets so, dass die Maxime Deines Programmierstils Grundlage allgemeiner Gesetzgebung sein könnte
vielen Dank für den Hinweis mit dem Formelinterface. Wir arbeiten mit dem Rcommander und ich vermute, dass das daher kommt. Wenn ich das Intercept verwerfen kann mit der Begründung, dass es sich nicht signifikant von 0 abweicht (zumal der p-value auch für keine Signifikanz spricht) dann ist mir sehr geholfen. Ich meinte mit der standardabweichung jedoch die des Regressionskoeffizienten der unabhängigen variablen, da diese ebenfalls ca. 0,03 ist. Kannst Du Dir das erklären?
Wenn ich das Intercept verwerfen kann mit der Begründung, dass es sich nicht signifikant von 0 abweicht (zumal der p-value auch für keine Signifikanz spricht) dann ist mir sehr geholfen.
Das ist in den allermeisten Fällen keine gute Idee - wieso willst den den Intercept auf 0 setzen?
Bitte immer ein reproduzierbares Minimalbeispiel angeben. Meinungen gehören mir und geben nicht die meines Brötchengebers wieder.