CFA verschiedener Fragebögen

Varianzanalyse, Diskriminanzanalyse, Kontingenzanalyse, Faktorenanalyse, Clusteranalyse, MDS, ....

Moderator: EDi

Antworten
Madison

CFA verschiedener Fragebögen

Beitrag von Madison »

Hellow!

Auch ich muss für meine Abschlussarbeit eine konfirmatorische Faktorenanalyse machen. Ich habe einen Datensatz, der mit unterschiedlichen Sprachversionen in verschiedenen Ländern erhoben wurde. Frage ist, ob die Skalen des etablierten deutschen Fragebogens auch in den Sprachversionen geeignet sind.
Bislang habe ich während meines Studiums nur mit SPSS gearbeitet und arbeite mich nun in R ein. Auch die CFA ist komplett neu für mich. Ich habe bereits meinen Datensatz in die einzelnen Sprachversionen zerlegt und in R kleine Datensätze angelegt - oder gibt es auch in R eine Funktion, wo man die Daten nach einem Argument ("Sprache") splitten kann und dann für einen Befehl einfach die Ergebnisse nach Argument aufgelistet bekommt?
Ich habe nun Modelle angelegt für meine einzelnen Skalen. Es geht btw um Stresssymptomatik -> physische + psychische -> Subskalen: Angst, Ärger, Traurigkeit, Wohlbefinden. Ich habe es nicht hinbekommen, meine Skalen alle auf einmal in einer CFA zu rechnen und erstmal pro Skala eine CFA gemacht... Wie mach ich das überhaupt mit den Subskalen und woher weiß ich wo es Korrelationen gibt?

Anhand der bisherigen Leitfäden, habe ich versucht mit dem Befehl fit.6dim <- cfa(SSKJ.6dim, data=SSKJ_Daten_komplett_17_01_26_1_) die CFA für den ganzen Test zu rechnen - es folgt diese Fehlermeldung:
Warning messages:
1: In lav_model_vcov(lavmodel = lavmodel, lavsamplestats = lavsamplestats, :
lavaan WARNING: could not compute standard errors!
lavaan NOTE: this may be a symptom that the model is not identified.

2: In lav_object_post_check(object) :
lavaan WARNING: some estimated ov variances are negative
3: In lav_object_post_check(object) :
lavaan WARNING: covariance matrix of latent variables
is not positive definite;
use inspect(fit,"cov.lv") to investigate.

Kann mir jemand helfen? Braucht ihr noch mehr Informationen, um mir zu helfen? :-/
Madison

Re: CFA verschiedener Fragebögen

Beitrag von Madison »

das bekomme ich wenn ich die matrix anschauen möchte:
> inspect(fit.4dim)
$`lambda`
phy psy1 psy2 psy3
p_1 0 0 0 0
p_2 1 0 0 0
p_3 2 0 0 0
p_4 3 0 0 0
p_5 4 0 0 0
p_6 5 0 0 0
p_8 0 0 0 0
p_10 0 6 0 0
p_17 0 7 0 0
p_19 0 8 0 0
p_9 0 0 0 0
p_11 0 0 9 0
p_13 0 0 10 0
p_16 0 0 11 0
p_12 0 0 0 0
p_15 0 0 0 12
p_18 0 0 0 13
p_20 0 0 0 14

$theta
p_1 p_2 p_3 p_4 p_5 p_6 p_8 p_10 p_17 p_19 p_9 p_11
p_1 15
p_2 0 16
p_3 0 0 17
p_4 0 0 0 18
p_5 0 0 0 0 19
p_6 0 0 0 0 0 20
p_8 0 0 0 0 0 0 21
p_10 0 0 0 0 0 0 0 22
p_17 0 0 0 0 0 0 0 0 23
p_19 0 0 0 0 0 0 0 0 0 24
p_9 0 0 0 0 0 0 0 0 0 0 25
p_11 0 0 0 0 0 0 0 0 0 0 0 26
p_13 0 0 0 0 0 0 0 0 0 0 0 0
p_16 0 0 0 0 0 0 0 0 0 0 0 0
p_12 0 0 0 0 0 0 0 0 0 0 0 0
p_15 0 0 0 0 0 0 0 0 0 0 0 0
p_18 0 0 0 0 0 0 0 0 0 0 0 0
p_20 0 0 0 0 0 0 0 0 0 0 0 0
p_13 p_16 p_12 p_15 p_18 p_20
p_1
p_2
p_3
p_4
p_5
p_6
p_8
p_10
p_17
p_19
p_9
p_11
p_13 27
p_16 0 28
p_12 0 0 29
p_15 0 0 0 30
p_18 0 0 0 0 31
p_20 0 0 0 0 0 32

$psi
phy psy1 psy2 psy3
phy 33
psy1 37 34
psy2 38 40 35
psy3 39 41 42 36

> inspectSampleCov(SSKJ5dim, albanisch)
$`cov`
p_1 p_2 p_3 p_4 p_5 p_6 p_8
p_1 0.586
p_2 0.056 0.501
p_3 0.109 -0.030 0.524
p_4 0.047 0.039 0.045 0.598
p_5 0.025 0.065 0.028 0.010 0.226
p_6 0.074 0.077 0.088 0.077 0.006 0.667
p_8 0.083 0.077 0.023 0.113 0.004 0.063 0.515
p_10 0.101 -0.033 0.091 0.086 0.028 0.051 0.087
p_17 0.108 0.050 0.131 0.152 0.041 0.089 0.191
p_19 0.106 0.048 0.091 0.146 0.030 0.162 0.246
p_9 0.154 0.062 0.080 0.125 0.065 0.127 0.203
p_11 0.108 0.009 0.162 0.096 0.025 0.159 0.048
p_13 0.076 0.078 0.117 0.121 0.032 0.153 0.191
p_16 0.098 0.057 0.080 0.072 0.029 0.124 0.039
p_12 0.117 0.031 0.103 0.166 0.012 0.168 0.127
p_15 -0.015 0.045 0.095 0.022 -0.027 0.171 -0.074
p_18 0.127 0.109 0.094 0.192 0.096 0.086 0.225
p_20 0.139 0.013 0.133 0.079 0.050 0.116 0.062
p_7 -0.012 -0.015 -0.097 -0.004 -0.045 -0.013 -0.085
p_14 0.000 -0.015 -0.077 -0.025 0.000 0.004 -0.044
p_21 0.045 -0.053 -0.089 -0.022 -0.040 -0.019 -0.028
p_23 0.027 0.002 -0.103 -0.003 -0.016 0.040 -0.007
p_10 p_17 p_19 p_9 p_11 p_13 p_16
p_1
p_2
p_3
p_4
p_5
p_6
p_8
p_10 0.641
p_17 0.088 0.535
p_19 0.079 0.396 0.601
p_9 0.127 0.224 0.241 0.516
p_11 0.016 0.072 0.088 0.090 0.394
p_13 0.038 0.245 0.287 0.270 0.050 0.624
p_16 0.028 0.119 0.090 0.118 0.089 0.154 0.434
p_12 0.039 0.239 0.238 0.229 0.108 0.251 0.086
p_15 0.105 0.078 0.102 -0.025 0.002 0.033 0.097
p_18 0.108 0.329 0.323 0.308 0.090 0.302 0.089
p_20 0.073 0.141 0.125 0.186 0.094 0.179 0.132
p_7 -0.021 -0.060 -0.024 -0.153 -0.050 -0.045 -0.047
p_14 0.076 -0.024 -0.025 -0.081 -0.034 -0.070 -0.037
p_21 0.120 0.068 0.065 -0.082 0.007 0.006 -0.087
p_23 0.059 -0.014 0.004 -0.056 -0.036 -0.028 -0.046
p_12 p_15 p_18 p_20 p_7 p_14 p_21
p_1
p_2
p_3
p_4
p_5
p_6
p_8
p_10
p_17
p_19
p_9
p_11
p_13
p_16
p_12 0.623
p_15 0.097 0.798
p_18 0.271 -0.002 0.650
p_20 0.158 0.060 0.157 0.423
p_7 0.006 0.052 -0.052 -0.081 0.264
p_14 -0.075 0.075 -0.043 -0.033 0.125 0.284
p_21 -0.005 0.072 0.024 -0.023 0.140 0.161 0.547
p_23 -0.010 0.072 -0.009 -0.043 0.129 0.203 0.152
p_23
p_1
p_2
p_3
p_4
p_5
p_6
p_8
p_10
p_17
p_19
p_9
p_11
p_13
p_16
p_12
p_15
p_18
p_20
p_7
p_14
p_21
p_23 0.256

$mean
p_1 p_2 p_3 p_4 p_5 p_6 p_8 p_10 p_17
1.819 1.656 1.531 1.950 1.206 1.788 1.769 1.594 1.800
p_19 p_9 p_11 p_13 p_16 p_12 p_15 p_18 p_20
1.794 1.744 1.425 1.663 1.438 1.819 1.950 2.081 1.456
p_7 p_14 p_21 p_23
2.794 2.756 2.556 2.806
Antworten