Die Suche ergab 768 Treffer
- Mo Nov 30, 2020 7:02 pm
- Forum: Allgemeines zu R
- Thema: Funktion analog zum Sverweis
- Antworten: 5
- Zugriffe: 394
Re: Funktion analog zum Sverweis
Ich meide zwar diese dunklen Dinge, aber Development on gather() is complete, and for new code we recommend switching to pivot_longer(), which is easier to use, more featureful, and still under active development. df %>% gather("key", "value", x, y, z) is equivalent to df %>% piv...
- Mo Nov 30, 2020 6:19 pm
- Forum: Allgemeines zu R
- Thema: Funktion analog zum Sverweis
- Antworten: 5
- Zugriffe: 394
Re: Funktion analog zum Sverweis
... oder data.table, melt und dcast - wenn Du Dich nicht auf die dunkle Seite der Macht begeben möchtest !google mal nach tidy und pivot_longer !
- Mo Nov 30, 2020 5:38 pm
- Forum: Statistik mit R
- Thema: Tabellen zusammenfassen
- Antworten: 25
- Zugriffe: 1803
Re: Tabellen zusammenfassen
Klar wäre das - als Notlösung - denkbar und ist vielleicht sogar angeraten! Du wirst aber auch damit nicht alle Eventualitäten abdecken, der Extremfall (130 Milliarden Sätze) wird auch so nicht verarbeitet werden können. Mich würde aber interessieren, ob die Situation tatsächlich so verfahren ist, d...
- Mo Nov 30, 2020 2:27 pm
- Forum: Statistik mit R
- Thema: Tabellen zusammenfassen
- Antworten: 25
- Zugriffe: 1803
Re: Tabellen zusammenfassen
... bekomme ich folgende Fehlermeldung: Fehler: kann Vektor der Größe 1.1 GB nicht allozieren. Was dabei rauskommt, ist von der tatsächlichen Verteilung der IDs in den Dateien abhängig - ich hatte ein gleichmäßiges Auftreten innerhalb des bekannten Spektums unterstellt, dann gehts! Wenn sich die ID...
- Mo Nov 30, 2020 12:19 pm
- Forum: Statistik mit R
- Thema: Tabellen zusammenfassen
- Antworten: 25
- Zugriffe: 1803
Re: Tabellen zusammenfassen
Ich habe ABC und sample durch den echten Namen ersetzt... :?: "sample" ist eine ("eingebaute") Funktion des base-Packages, da gibt es nichts zu ersetzen! Ich habe damit lediglich Spieldaten erzeugt, um den anschließenden Ablauf darstellen zu können... So wie ich das sehe, brauch...
- So Nov 29, 2020 3:10 pm
- Forum: Allgemeines zu R
- Thema: Installationsproblem Rtools40 mit R4.0.3
- Antworten: 10
- Zugriffe: 940
Re: Installationsproblem Rtools40 mit R4.0.3
Hast Du mal Deine (R-) Systemlibrary als Ort für die Installation vorgegeben?
- So Nov 29, 2020 2:43 pm
- Forum: Statistik mit R
- Thema: 0 als Antwortoption - Werte transformieren
- Antworten: 20
- Zugriffe: 1526
Re: 0 als Antwortoption - Werte transformieren
Du könntest den Menschen, die das Programm nunmal schlechter kennen als du (sonst wären wir nicht hier), ein bisschen freundlicher und verständnisvoller begegnen. Ich kann Dir versichern, dass bigben wahrscheinlich der freundlichste und verständnisvollste Aktivist hier im Forum ist. Für meinen pers...
- Sa Nov 28, 2020 3:34 pm
- Forum: Statistik mit R
- Thema: Fehlende Datenpunkte in einer Zeitreihe
- Antworten: 1
- Zugriffe: 270
Re: Fehlende Datenpunkte in einer Zeitreihe
Ich mache dann eine "leere" Zeitreihe - in der nur die interessierenden Datümer enthalten sind - auf und merge da die lückenhafte Datei an.
Aber ich meine, es ginge auch eleganter, da gab es bereits mal einen Thread hier im Forum - such mal ein wenig!
Aber ich meine, es ginge auch eleganter, da gab es bereits mal einen Thread hier im Forum - such mal ein wenig!
- Fr Nov 27, 2020 5:43 pm
- Forum: Statistik mit R
- Thema: Tabellen zusammenfassen
- Antworten: 25
- Zugriffe: 1803
Re: Tabellen zusammenfassen
Das ist ja kein Problem - solange man diese Bits nicht gleichzeitig braucht !Nur mal quergerechnet:
Wenn jeder dieser Datensätze nur 1bit braucht, dann wären dass schon 16,5 GB...
Ich bin übrigens kein Freund des nachträglichen Veränderns von Posts - mal abgesehen von Rechtschreibfehlern...
- Fr Nov 27, 2020 3:32 pm
- Forum: Statistik mit R
- Thema: Tabellen zusammenfassen
- Antworten: 25
- Zugriffe: 1803
Re: Tabellen zusammenfassen
Sollten die enthaltenen "Datümer" für den Abgleich doch eine Rolle spielen, müssten wir nochmal reden ...Ich habe übrigens damals nachgerechnet, es entstehen über 133.049.344.986 Datensätze, bei joins auch.