Interpretation von Ergebnissen Regressionsanalyse

Modelle zur Korrelations- und Regressionsanalyse

Moderator: EDi

Antworten
adfin
Beiträge: 4
Registriert: Di Feb 09, 2021 11:21 pm

Interpretation von Ergebnissen Regressionsanalyse

Beitrag von adfin »

Hey Leute,

ich möchte zu folgenden Hypothesen Regressionsanalysen durchführen:

Nullhypothese H0: Je häufiger Flüchtlinge auf ihrem Fluchtweg negativen Erfahrungen begegnen, desto geringer gestaltet sich die gesellschaftliche Integration.
Alternativhypothese H1: Je häufiger Flüchtlinge auf ihrem Fluchtweg negativen Erfahrungen begegnen, desto eher steigt die Motivation sich im Ankunftsland zu integrieren.

Hierfür habe ich die unabhängige Variable: Negative Geschehnisse auf der Flucht (Insgesamt 7). Die Einzelnen Geschehnisse hab eich zu Dummy Variablen verändert. 1 steht für= ja, ist mir passiert; 0 = nein, ist mir nicht passiert.

Als abhängige Variable dient einmal: Stellensuche in den letzten vier Wochen. Ebenfalls als Dummy Variablen. 1= Ja, habe aktiv nach einer Stelle gesucht; 0=Nein, habe nicht gesucht.

Hier habe ich eine binär logistische Regression via R durchgeführt und folgende Ergebnisse erlangt:

Code: Alles auswählen

Deviance Residuals: 
    Min       1Q   Median       3Q      Max  
-0.9761  -0.7247  -0.7247  -0.5969   1.9667  

Coefficients:
                         Estimate Std. Error z value Pr(>|z|)    
(Intercept)              -1.20300    0.06541 -18.392   <2e-16 ***
Betrug_Ausbeutung         0.13261    0.16456   0.806   0.4203    
Sexuelle_Belaestigung    -0.64374    0.46809  -1.375   0.1691    
Koerperliche_Uebergriffe  0.03856    0.20002   0.193   0.8471    
Schiffbruch              -0.36793    0.21924  -1.678   0.0933 .  
Raubueberfall             0.03005    0.21369   0.141   0.8882    
Erpressung                0.50785    0.19988   2.541   0.0111 *  
Gefaengnisaufenthalt     -0.06372    0.18494  -0.345   0.7305    
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

(Dispersion parameter for binomial family taken to be 1)

    Null deviance: 1950.5  on 1776  degrees of freedom
Residual deviance: 1937.1  on 1769  degrees of freedom
  (443 observations deleted due to missingness)
AIC: 1953.1

Number of Fisher Scoring iterations: 4
Die zweite abhängige Variable lautet: Anzahl an Maßnahmen zur Sprachverbesserung. Hier gilt, an je mehr Maßnahmen teilgenommen wurde, desto engagierter ist die Person die Sprache zu erlernen. Daher ist diese Variable metrisch und ich habe eine logistische Regression durchgeführt mit folgenden Ergebnissen:

Code: Alles auswählen

Residuals:
    Min      1Q  Median      3Q     Max 
-2.5826 -0.8857  0.1143  1.0549  7.2166 

Coefficients:
                          Estimate Std. Error t value Pr(>|t|)    
(Intercept)               1.885696   0.030118  62.611  < 2e-16 ***
Betrug_Ausbeutung         0.187883   0.078458   2.395  0.01672 *  
Sexuelle_Belaestigung     0.159546   0.202521   0.788  0.43090    
Koerperliche_Uebergriffe  0.059371   0.096217   0.617  0.53726    
Schiffbruch              -0.102326   0.096238  -1.063  0.28779    
Raubueberfall            -0.008705   0.103450  -0.084  0.93295    
Erpressung                0.155163   0.100242   1.548  0.12180    
Gefaengnisaufenthalt      0.246018   0.085401   2.881  0.00401 ** 
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 1.201 on 2130 degrees of freedom
  (82 observations deleted due to missingness)
Multiple R-squared:  0.0173,	Adjusted R-squared:  0.01407 
F-statistic: 5.355 on 7 and 2130 DF,  p-value: 4.288e-06
Nun ist das Problem, dass ich die Theorie zu allem gelesen habe, aber verstehe trotzdem null wie ich das auf meinen Fall anwenden soll. Wie sind denn die Ergebnisse bezüglich meiner Hypothesen zu interpretieren? und machen die Hypothesen überhaupt Sinn bezüglich der Ergebnisse und der kodierung. Oder sollte die H1 dann H0 einfach nur verneinen? Ebenfalls wollte ich eigentlich noch Kontrollvariablen hinzufügen, weiß leider nicht wie das bei R funktioniert. Selbst nach langer Recherche. Ich bin einfach nur verzweifelt. Über Hilfe würde ich mich extrem freuen.

LG
jogo
Beiträge: 2085
Registriert: Fr Okt 07, 2016 8:25 am

Re: Interpretation von Ergebnissen Regressionsanalyse

Beitrag von jogo »

Hallo adfin,

willkommen im Forum!
adfin hat geschrieben: Di Feb 09, 2021 11:24 pm Nullhypothese H0: Je häufiger Flüchtlinge auf ihrem Fluchtweg negativen Erfahrungen begegnen, desto geringer gestaltet sich die gesellschaftliche Integration.
Alternativhypothese H1: Je häufiger Flüchtlinge auf ihrem Fluchtweg negativen Erfahrungen begegnen, desto eher steigt die Motivation sich im Ankunftsland zu integrieren.

Hierfür habe ich die unabhängige Variable: Negative Geschehnisse auf der Flucht (Insgesamt 7). Die Einzelnen Geschehnisse hab eich zu Dummy Variablen verändert. 1 steht für= ja, ist mir passiert; 0 = nein, ist mir nicht passiert.

Als abhängige Variable dient einmal: Stellensuche in den letzten vier Wochen. Ebenfalls als Dummy Variablen. 1= Ja, habe aktiv nach einer Stelle gesucht; 0=Nein, habe nicht gesucht.
Ich bin noch nicht recht überzeugt, dass die Variablen korrekt kodiert sind. Du hast uns die Ergebnisse von

Code: Alles auswählen

str(DeinDataframe) ## und
summary(DeinDataframe)
nicht gezeigt. Auch der Code, mit dem Du die Modelle rechnest, ist nicht zu sehen.

Auch bin ich mir nicht sicher, ob Du die Modelle den Hypothesen entsprechen. Die Aufsplitterung in einzelne Ereignisse halte ich nicht für eine Entsprechung der Hypothese .. außer, wenn Du die Hypothese hier beim Schreiben Deines Beitrags zu grob formuliert hast.

Wenn aber alles so stimmt, wie Du es geschrieben hast, müsstest Du m.E. die Einzelereignisse bei den Unabhängigen in irgend einer Form aggregieren.

Gruß, Jörg
adfin
Beiträge: 4
Registriert: Di Feb 09, 2021 11:21 pm

Re: Interpretation von Ergebnissen Regressionsanalyse

Beitrag von adfin »

Hey Jörg,

hier die str und summary meiner benötigten Daten. Hoffe das hilft weiter.

Code: Alles auswählen

> summary(Datenset)
     syear       Geburtsjahr   Aufenthaltstitel   Geschlecht   
 Min.   :2016   Min.   :1951   Min.   :1.000    Min.   :1.000  
 1st Qu.:2016   1st Qu.:1977   1st Qu.:1.000    1st Qu.:1.000  
 Median :2016   Median :1984   Median :3.000    Median :1.000  
 Mean   :2016   Mean   :1983   Mean   :2.902    Mean   :1.382  
 3rd Qu.:2016   3rd Qu.:1990   3rd Qu.:3.000    3rd Qu.:2.000  
 Max.   :2016   Max.   :1998   Max.   :8.000    Max.   :2.000  
                               NA's   :52                      
 aktuelleStellensuche Integrationskurs_Bamf    ESF_Bamf      
 Min.   :0.000        Min.   :0.0000        Min.   :0.00000  
 1st Qu.:0.000        1st Qu.:0.0000        1st Qu.:0.00000  
 Median :0.000        Median :0.0000        Median :0.00000  
 Mean   :0.238        Mean   :0.3646        Mean   :0.03205  
 3rd Qu.:0.000        3rd Qu.:1.0000        3rd Qu.:0.00000  
 Max.   :1.000        Max.   :1.0000        Max.   :1.00000  
 NA's   :443          NA's   :26            NA's   :36       
 Einstiegskurs_DtSprachfoerd Perspektive_Fluechtlinge
 Min.   :0.00000             Min.   :0.0000          
 1st Qu.:0.00000             1st Qu.:0.0000          
 Median :0.00000             Median :0.0000          
 Mean   :0.08394             Mean   :0.0207          
 3rd Qu.:0.00000             3rd Qu.:0.0000          
 Max.   :1.00000             Max.   :1.0000          
 NA's   :40                  NA's   :46              
 PerspektiveJugendlFluechtl  Dtsprachkurs    Partner_Freunde 
 Min.   :0.0000             Min.   :0.0000   Min.   :0.0000  
 1st Qu.:0.0000             1st Qu.:0.0000   1st Qu.:0.0000  
 Median :0.0000             Median :0.0000   Median :0.0000  
 Mean   :0.0046             Mean   :0.0046   Mean   :0.3383  
 3rd Qu.:0.0000             3rd Qu.:0.0000   3rd Qu.:1.0000  
 Max.   :1.0000             Max.   :1.0000   Max.   :1.0000  
 NA's   :45                 NA's   :45                       
 CD_Internet_App  Fernseh_Buecher    Sonstiges      Betrug_Ausbeutung
 Min.   :0.0000   Min.   :0.0000   Min.   :0.0000   Min.   :0.0000   
 1st Qu.:0.0000   1st Qu.:0.0000   1st Qu.:0.0000   1st Qu.:0.0000   
 Median :0.0000   Median :1.0000   Median :0.0000   Median :0.0000   
 Mean   :0.2982   Mean   :0.6959   Mean   :0.1329   Mean   :0.1788   
 3rd Qu.:1.0000   3rd Qu.:1.0000   3rd Qu.:0.0000   3rd Qu.:0.0000   
 Max.   :1.0000   Max.   :1.0000   Max.   :1.0000   Max.   :1.0000   
                                                                     
 Sexuelle_Belaestigung Koerperliche_Uebergriffe  Schiffbruch     
 Min.   :0.00000       Min.   :0.0000           Min.   :0.00000  
 1st Qu.:0.00000       1st Qu.:0.0000           1st Qu.:0.00000  
 Median :0.00000       Median :0.0000           Median :0.00000  
 Mean   :0.01712       Mean   :0.1059           Mean   :0.08694  
 3rd Qu.:0.00000       3rd Qu.:0.0000           3rd Qu.:0.00000  
 Max.   :1.00000       Max.   :1.0000           Max.   :1.00000  
                                                                 
 Raubueberfall       Erpressung     Gefaengnisaufenthalt
 Min.   :0.00000   Min.   :0.0000   Min.   :0.0000      
 1st Qu.:0.00000   1st Qu.:0.0000   1st Qu.:0.0000      
 Median :0.00000   Median :0.0000   Median :0.0000      
 Mean   :0.08874   Mean   :0.0955   Mean   :0.1297      
 3rd Qu.:0.00000   3rd Qu.:0.0000   3rd Qu.:0.0000      
 Max.   :1.00000   Max.   :1.0000   Max.   :1.0000      
                                                        
     Alter         Maßnahmen    
 Min.   :18.00   Min.   :0.000  
 1st Qu.:26.00   1st Qu.:1.000  
 Median :32.00   Median :2.000  
 Mean   :33.42   Mean   :1.967  
 3rd Qu.:39.00   3rd Qu.:3.000  
 Max.   :65.00   Max.   :9.000  
                 NA's   :82 

Code: Alles auswählen

> str(Datenset)
tibble [2,220 x 24] (S3: tbl_df/tbl/data.frame)
 $ syear                      : num [1:2220] 2016 2016 2016 2016 2016 ...
  ..- attr(*, "label")= chr "Erhebungsjahr"
  ..- attr(*, "format.stata")= chr "%12.0g"
 $ Geburtsjahr                : num [1:2220] 1972 1984 1961 1972 1988 ...
  ..- attr(*, "label")= chr "Geburtsjahr"
  ..- attr(*, "format.stata")= chr "%12.0g"
 $ Aufenthaltstitel           : 'haven_labelled' num [1:2220] 6 NA NA 3 3 1 1 1 1 1 ...
  ..- attr(*, "label")= chr "Aktueller Aufenthaltstitel"
  ..- attr(*, "labels")= Named num [1:14] -6 -5 -4 -3 -2 -1 1 2 3 4 ...
  .. ..- attr(*, "names")= chr [1:14] "[-6] Fragebogenversion mit geaenderter Filterfuehrung" "[-5] In Fragebogenversion nicht enthalten" "[-4] Unzulaessige Mehrfachantwort" "[-3] nicht valide" ...
 $ Geschlecht                 : 'haven_labelled' num [1:2220] 1 2 1 2 1 2 1 1 2 1 ...
  ..- attr(*, "label")= chr "Geschlecht"
  ..- attr(*, "labels")= Named num [1:8] -6 -5 -4 -3 -2 -1 1 2
  .. ..- attr(*, "names")= chr [1:8] "[-6] Fragebogenversion mit geaenderter Filterfuehrung" "[-5] In Fragebogenversion nicht enthalten" "[-4] Unzulaessige Mehrfachantwort" "[-3] nicht valide" ...
 $ aktuelleStellensuche       : num [1:2220] 0 0 0 1 0 NA 1 0 1 0 ...
 $ Integrationskurs_Bamf      : num [1:2220] 1 0 0 1 0 0 0 0 0 0 ...
 $ ESF_Bamf                   : num [1:2220] 0 0 0 0 0 0 0 0 0 0 ...
 $ Einstiegskurs_DtSprachfoerd: num [1:2220] 0 0 0 0 0 0 0 0 0 0 ...
 $ Perspektive_Fluechtlinge   : num [1:2220] 0 0 0 1 0 0 0 0 0 0 ...
 $ PerspektiveJugendlFluechtl : num [1:2220] 0 0 0 0 0 0 0 0 0 0 ...
 $ Dtsprachkurs               : num [1:2220] 0 0 0 0 0 0 0 0 0 0 ...
 $ Partner_Freunde            : num [1:2220] 1 1 0 0 1 0 0 0 1 1 ...
 $ CD_Internet_App            : num [1:2220] 0 0 0 0 0 0 1 0 0 0 ...
 $ Fernseh_Buecher            : num [1:2220] 0 0 0 0 0 0 1 1 1 1 ...
 $ Sonstiges                  : num [1:2220] 0 0 0 0 0 1 0 0 0 0 ...
 $ Betrug_Ausbeutung          : num [1:2220] 0 0 0 0 0 1 0 1 0 0 ...
 $ Sexuelle_Belaestigung      : num [1:2220] 0 0 0 0 0 0 0 0 0 0 ...
 $ Koerperliche_Uebergriffe   : num [1:2220] 0 0 0 0 0 0 0 1 0 0 ...
 $ Schiffbruch                : num [1:2220] 0 0 0 0 1 0 0 0 0 0 ...
 $ Raubueberfall              : num [1:2220] 0 0 0 0 0 0 0 0 0 0 ...
 $ Erpressung                 : num [1:2220] 0 0 0 0 0 0 0 0 0 0 ...
 $ Gefaengnisaufenthalt       : num [1:2220] 0 0 0 0 0 1 1 0 0 0 ...
 $ Alter                      : num [1:2220] 44 32 55 44 28 51 23 23 41 44 ...
  ..- attr(*, "label")= chr "Erhebungsjahr"
  ..- attr(*, "format.stata")= chr "%12.0g"
 $ Maßnahmen                  : num [1:2220] 2 1 0 2 1 1 2 1 2 2 ...
 - attr(*, "label")= chr "SOEP-Core, v35t (Teaching Dataset, 50%), doi:10.5684/soep-core.v35t"
also die ursprünglichen Antwortmöglichkeiten waren: Ja, Nein, Keine Angabe.
bei all meinen Variablen. Und diese habe ich jeweils umgeändert in: Ja= 1 und Nein=0.

Folgenden Codes habe ich für die Modelle genutzt:

1. Binär logistische Regression, na sowohl die AV als auch die AV Nominal skaliert sind.

Code: Alles auswählen

Formula.Logitbase <- aktuelleStellensuche ~ Betrug_Ausbeutung +
  Sexuelle_Belaestigung +
  Koerperliche_Uebergriffe +
  Schiffbruch +
  Raubueberfall +
  Erpressung +
  Gefaengnisaufenthalt. 

Korr_Platzierung <- glm(Formula.Logitbase, data = Datenset, family = "binomial" (link = "logit"))
2. Lineare Regression, da die UV Nominal und die AV metrisch skaliert ist: (Hier bin ich mir nicht sicher, ob es Sinn macht, die AV metrisch zu skalieren, denn es ist ja von verschiedenen Faktoren abhängig, ob man an mehreren Maßnahmen teilnimmt oder nicht)

Code: Alles auswählen

Formula.Linear <- Maßnahmen ~ Betrug_Ausbeutung +
  Sexuelle_Belaestigung +
  Koerperliche_Uebergriffe +
  Schiffbruch +
  Raubueberfall +
  Erpressung +
  Gefaengnisaufenthalt

Korr_Kulturation <- lm(Formula.Linear, data = Datenset)
Also Hauptinteresse ist es eigt, ob negative Erfahrungen auf der Flucht von Geflüchteten einen negativen oder positiven Effekt auf Teile der Sozialintegration haben. Ich bin mir jedoch ebenfalls nicht sicher wie die Kodierung erfolgen sollte, um die jeweilige Hypothese zu prüfen.

Vielen Dank und liebe Grüße
adfn
jogo
Beiträge: 2085
Registriert: Fr Okt 07, 2016 8:25 am

Re: Interpretation von Ergebnissen Regressionsanalyse

Beitrag von jogo »

Hallo adfn,

es ist ein grober Fehler, nominale Daten als Zahlenwerte zu verrechnen, denn die numerische Kodierung der Kategorien ist wahlfrei.
Die Ergebnisse dürfen aber von einer solchen willkürlichen Festlegung nicht abhängig sein.

Gruß, Jörg
Antworten