Seite 3 von 3

Re: k-fache Kreuzvalidierung für Random Forest

Verfasst: Fr Apr 05, 2019 8:48 pm
von jogo
Hallo Mia,
und welche Werte möchtest Du nun speichern?

Re: k-fache Kreuzvalidierung für Random Forest

Verfasst: Sa Apr 06, 2019 1:52 pm
von Mia89
Hallo Jörg,
ich wollte dann die vorhergesagten AUC Werte speichern und den Durchschnitt pro Parameterkombination über die Folds bilden.

Re: k-fache Kreuzvalidierung für Random Forest

Verfasst: Sa Apr 06, 2019 8:20 pm
von jogo
Hallo Mia,

ich bin mir nicht ganz sicher, ob das alles so richtig ist für den Einsatz bei Dir, aber als Quelle für die passende Idee könnte es vielleicht fungieren:

Code: Alles auswählen

set.seed(1234)

Params <- expand.grid(n.trees=c(200, 500, 600), mtry=seq(2, 8, by=2))
Params$auc <- NA

training$folds <- sample(1:nrow(Params), nrow(training), replace=TRUE)

#Schleife für folds
set.seed(1234)

for(i in 1:nrow(Params)) {
  validation_indices <- which(training$folds == i, arr.ind = TRUE)
  validation_data    <- data.train[validation_indices,]
  training_data      <- data.train[-validation_indices,]
  
  new.rf <-randomForest(x= training_data, y=as.factor(training.mt.y),
                        n.trees=Params$n.trees[i], mtry=Params$mtry[i], importance=TRUE, do.trace=20)
  new.pred <- predict(new.rf, validation_data)
  Params$auc[i] <- auc(roc(training$new.pred, training$class))  
  # ...
}
mean(Params$auc)
Gruß, Jörg

Re: k-fache Kreuzvalidierung für Random Forest

Verfasst: Mo Apr 08, 2019 8:51 am
von Mia89
Vielen Dank Jörg, ich werde es mal austesten, vielleicht klappt es ja! :)