Hallo Mia,
und welche Werte möchtest Du nun speichern?
k-fache Kreuzvalidierung für Random Forest
Re: k-fache Kreuzvalidierung für Random Forest
Hallo Jörg,
ich wollte dann die vorhergesagten AUC Werte speichern und den Durchschnitt pro Parameterkombination über die Folds bilden.
ich wollte dann die vorhergesagten AUC Werte speichern und den Durchschnitt pro Parameterkombination über die Folds bilden.
Re: k-fache Kreuzvalidierung für Random Forest
Hallo Mia,
ich bin mir nicht ganz sicher, ob das alles so richtig ist für den Einsatz bei Dir, aber als Quelle für die passende Idee könnte es vielleicht fungieren:
Gruß, Jörg
ich bin mir nicht ganz sicher, ob das alles so richtig ist für den Einsatz bei Dir, aber als Quelle für die passende Idee könnte es vielleicht fungieren:
Code: Alles auswählen
set.seed(1234)
Params <- expand.grid(n.trees=c(200, 500, 600), mtry=seq(2, 8, by=2))
Params$auc <- NA
training$folds <- sample(1:nrow(Params), nrow(training), replace=TRUE)
#Schleife für folds
set.seed(1234)
for(i in 1:nrow(Params)) {
validation_indices <- which(training$folds == i, arr.ind = TRUE)
validation_data <- data.train[validation_indices,]
training_data <- data.train[-validation_indices,]
new.rf <-randomForest(x= training_data, y=as.factor(training.mt.y),
n.trees=Params$n.trees[i], mtry=Params$mtry[i], importance=TRUE, do.trace=20)
new.pred <- predict(new.rf, validation_data)
Params$auc[i] <- auc(roc(training$new.pred, training$class))
# ...
}
mean(Params$auc)
Re: k-fache Kreuzvalidierung für Random Forest
Vielen Dank Jörg, ich werde es mal austesten, vielleicht klappt es ja!