Die Suche ergab 500 Treffer

von jogo
Fr Feb 16, 2018 2:11 pm
Forum: Zeitreihenanalyse
Thema: Forecast/Predict von lm()
Antworten: 3
Zugriffe: 24

Re: Forecast/Predict von lm()

Hallo Regression, vielleicht ist dies schon passend für Dich: dat <- data.frame( Dates=c("2016-02-08", "2016-02-15", "2016-02-22", "2016-02-29", "2016-03-07", "2016-03-14", "2016-03-21", "2016-03-28", "2016-04-04", "2016-04-11", "2016-04-18", "2016-04-25", "2016-05-02", "2016-05-09", "2016-05-16", "...
von jogo
Mi Feb 14, 2018 1:15 pm
Forum: Regressionsmodelle
Thema: Bestimmtheitsmaß R² extrahieren
Antworten: 2
Zugriffe: 25

Re: Bestimmtheitsmaß R² extrahieren

Hallo Moritz,

Code: Alles auswählen

model <- lm(demand~Time, data=BOD)
summary(model)$r.squared
Bitte lies den Hilfetext der Funktion summary.lm - dort besonders den Abschnitt Value :!:
Probier auch mal:

Code: Alles auswählen

str(summary(model))
Gruß, Jörg
von jogo
Mo Feb 12, 2018 8:30 am
Forum: Grafik
Thema: LCA Grafiken erstellen
Antworten: 3
Zugriffe: 44

Re: LCA Grafiken erstellen

str() ist auch nur dazu gedacht, um zu ergründen, wie das Ergebnisobjekt aufgebaut ist. Das eigentliche Arbeitstier ist wahrscheinlich eine der Funktionen tapply() , aggregate() , sapply() o.ä. (natürlich mit mean() im Gepäck). https://stackoverflow.com/questions/3505701/grouping-functions-tapply-b...
von jogo
Fr Feb 09, 2018 4:27 pm
Forum: Allgemeines zu R
Thema: Separieren und Bearbeiten von einem riesen Datensatz
Antworten: 4
Zugriffe: 107

Re: Separieren und Bearbeiten von einem riesen Datensatz

temp_Data<-Main.Data[Main.Data$SerialNumber==SerialNumber[ i ],]; Das glaub ich nicht! Sollte nicht j der Index für SerialNumber sein? Und die Antwort auf Deine Frage könnte vielleicht so aussehen: by(Main.Data, list(Main.Data$CustomerName, Main.Data$SerialNumber), FUN=function(X) c(lc=myfunc1(X), ...
von jogo
Fr Feb 09, 2018 12:05 pm
Forum: Allgemeines zu R
Thema: Separieren und Bearbeiten von einem riesen Datensatz
Antworten: 4
Zugriffe: 107

Re: Separieren und Bearbeiten von einem riesen Datensatz

Hallo Regression, bitte schau Dir mal die Kombination L <- split(...); ergebnis <- lapply(L, ...) an. Natürlich gibt es auch by(...) , aber mir persönlich gefällt die Struktur des Ergebnisobjektes von by() nicht. Bei großen Datenmengen empfiehlt sich auch ein Blick auf das Paket data.table - allerdi...
von jogo
Mi Feb 07, 2018 8:38 am
Forum: Statistik mit R
Thema: Prüfen auf Normalverteilung/Shapiro Test für große n
Antworten: 4
Zugriffe: 121

Re: Prüfen auf Normalverteilung/Shapiro Test für große n

Hallo Filou, hast Du schon diagnostische Grafiken angewendet? x <- rnorm(7000) shapiro.test(x) par(mfcol=c(1,2)) hist(x); qqnorm(x) x <- rt(7000, 6) # die t-Verteilung verläuft etwas flacher als N hist(x); qqnorm(x) x <- rpois(7000, 0.2) # linkssteil (=rechtsschief), diskret hist(x); qqnorm(x) x <- ...
von jogo
Di Feb 06, 2018 11:37 am
Forum: Statistik mit R
Thema: Entropie Code verstehen
Antworten: 11
Zugriffe: 176

Re: Entropie Code verstehen

Was mir aber extreme Kopfschmerzen bereitet und ich echt nicht weiter komme ist die if Angelegenheit if(is.na(sv[1])) l= rep(0,length(V)) else l = sv[-1] Das raubt mir den Schlaf :D Ich versuche das mal die Zeile in eine Beschreibung des Algorithmus zu übersetzen: Es soll ein Vektor l konstruiert w...
von jogo
Di Feb 06, 2018 9:34 am
Forum: Allgemeines zu R
Thema: Iteratives Einlesen von Datensätzen aus einem Verzeichnis
Antworten: 7
Zugriffe: 98

Re: Itereives Einlesen von Datensätzen aus einem Verzeichnis

Hallo Regression,

hier wurde schon mal etwas strukturell Ähnliches (bezüglich des Ablaufes) beschrieben:
viewtopic.php?f=7&t=568&p=2317&hilit=lapply#p2307

Gruß, Jörg
von jogo
Di Feb 06, 2018 8:50 am
Forum: Statistik mit R
Thema: Entropie Code verstehen
Antworten: 11
Zugriffe: 176

Re: Entropie Code verstehen

Hallo Joey, nur als Randbemerkung: es gibt ein Paket ineq , in dem Funktionen zur Berechnung verschiedener Konzentrationmaße enthalten sind - darunter auch die Entropie nach Shannon. https://cran.r-project.org/web/packages/ineq/index.html Deinen Quelltext habe ich mir allerdings nicht intensiv anges...