Die Suche ergab 365 Treffer
- So Dez 29, 2019 7:36 pm
- Forum: Maschinelles Lernen
- Thema: Deep Learning mit mehreren GPUs: Amd-Crossfire oder Nvidia-SLI GPU Bridge?
- Antworten: 3
- Zugriffe: 2298
Re: Deep Learning mit mehreren GPUs: Amd-Crossfire oder Nvidia-SLI GPU Bridge?
(...) wer nicht gegen das quasi-Monopol von Nvidia ankämpfen will (oder kann), sollte halt zu Nvidia greifen! (...) Auch wenn ich nicht der "Monopol-Donquichote" bin: Es geht doch immer darum, wieviel kostet es mich und wie nützlich ist es im Verhältnis für mich (und was "verdiene&qu...
- So Dez 22, 2019 1:18 pm
- Forum: Maschinelles Lernen
- Thema: Deep Learning mit mehreren GPUs: Amd-Crossfire oder Nvidia-SLI GPU Bridge?
- Antworten: 3
- Zugriffe: 2298
Deep Learning mit mehreren GPUs: Amd-Crossfire oder Nvidia-SLI GPU Bridge?
Hallo! Im Wesentlichen für Spielecomputer haben sowohl Amd als Nvidia Brückenadapter im Angebot, um zwei oder mehr Grafikkarten zu koppeln. Bei AMD schimpft sich die Brücke Crossfire bei Nvidia SLI. Solche mit steckbaren Hardware-Brücken versehene Grafikarten Arrangements lassen sich grundsätzlich a...
- Di Dez 17, 2019 7:44 pm
- Forum: Off Topic
- Thema: Buchtipp: Whistleblower und Ex-Cambridge-Analytica-Datascientist packt aus wie US-Präsi Wahl und BREXIT manipuliert wurd
- Antworten: 2
- Zugriffe: 3133
- So Dez 08, 2019 8:21 pm
- Forum: Multivariate Analysemethoden
- Thema: HLM: Post-hoc Analysen mit emmeans
- Antworten: 4
- Zugriffe: 782
Re: HLM: Post-hoc Analysen mit emmeans
Was ist denn "post-hoc"? Ich kenne nur ex-ante und ex-post.
- Sa Nov 30, 2019 2:38 pm
- Forum: Maschinelles Lernen
- Thema: SparkR (R on Apache Spark Cluster)
- Antworten: 10
- Zugriffe: 5082
Re: SparkR (R on Apache Spark Cluster)
Je mehr ich mich mit Apache Spark Cluster Computing beschäftige, desti interessanter finde ich es! Im Prinzip müsste es doch möglich, sein mit Apache Spark mit "wenigen" Handgriffen eine Art SETI@home Bildschirmschoner zu programmieren, der den eigenen Rechner dann zu einem Apache Spark Cl...
- Di Nov 26, 2019 8:48 pm
- Forum: Maschinelles Lernen
- Thema: SparkR (R on Apache Spark Cluster)
- Antworten: 10
- Zugriffe: 5082
Re: SparkR (R on Apache Spark Cluster)
Nein, kannte ich bisher noch nicht. Man muss aber aufpassen. Es gibt 2 API's für R <-> Spark: SparkR sparklyr Eine Einführung in die Unterschiede findet sich hier: https://eddjberry.netlify.com/post/2017-12-05-sparkr-vs-sparklyr/ Etwas allgemeiner gibt es zum Thema noch: https://www.heise.de/ratgebe...
- Do Nov 21, 2019 9:08 pm
- Forum: Maschinelles Lernen
- Thema: SparkR (R on Apache Spark Cluster)
- Antworten: 10
- Zugriffe: 5082
Re: SparkR (R on Apache Spark Cluster)
Dafür (für das Neubasteln der Cloud Machine) gibt es doch auch Lösungen um das zu Automatisieren, z.B. Ansible https://de.wikipedia.org/wiki/Ansible Ein einfaches shell-script tuts aber auch. Vor einpaar Jahren hatte ich mal das hier benutzt: https://github.com/EDiLD/dotfiles Machine aufsetzen, scr...
- Mo Nov 18, 2019 8:17 pm
- Forum: Maschinelles Lernen
- Thema: SparkR (R on Apache Spark Cluster)
- Antworten: 10
- Zugriffe: 5082
Re: SparkR (R on Apache Spark Cluster)
Das wichtigste hatte ich aber ganz vergessen. Die Amazon Machine Images laufen nur bei Amazon. Wenn man aus Geistigem-Eigentum-, Datenschutz- oder Kostengründen zu einem anderen Cloudanbieter wechselt, muss man die Cloud Machine dort wieder neu basteln. Ist man da als Ein-Person-Freiberufler mittelf...
- So Nov 17, 2019 12:33 pm
- Forum: Maschinelles Lernen
- Thema: SparkR (R on Apache Spark Cluster)
- Antworten: 10
- Zugriffe: 5082
Re: SparkR (R on Apache Spark Cluster)
Auf jeden Fall. Denn sämtliche großen Cloudanbieter sind US-Firmen und sind Uncle-Sam nach Patriot-At und dem Freedom-Act vepflichetet, sämtliche Daten herauszugeben (auch wenn die Server in Europa stehen). Damit genügen alle großen Cloudanbieter nicht den deutschen/ europäischen DSGVO Bestimmungen....
- Fr Nov 15, 2019 12:07 pm
- Forum: Maschinelles Lernen
- Thema: SparkR (R on Apache Spark Cluster)
- Antworten: 10
- Zugriffe: 5082
Re: SparkR (R on Apache Spark Cluster)
Kann man mit dem Apache Spark Cluster Computing eigentlich auch seine alten Rechner "wiederbeleben", indem man sie - ggf. mit mehrfachen - Netzwerkkarten zu einem Cluster-Verbund zusammen schaltet? Im Laufe der Jahre sammelt sammelt man ja so einiges an Hardware an, von dem man sich emotio...