SparkR (R on Apache Spark Cluster)

Entscheidungsbäume, Random Forest, Support Vektor Maschinen, Neuronale Netze, ...

Moderator: consuli

consuli
Beiträge: 475
Registriert: Mo Okt 10, 2016 8:18 pm

Re: SparkR (R on Apache Spark Cluster)

Beitrag von consuli » Sa Nov 30, 2019 2:38 pm

Je mehr ich mich mit Apache Spark Cluster Computing beschäftige, desti interessanter finde ich es!

Im Prinzip müsste es doch möglich, sein mit Apache Spark mit "wenigen" Handgriffen eine Art SETI@home Bildschirmschoner zu programmieren, der den eigenen Rechner dann zu einem Apache Spark Cluster Computing Netzwerk verbindet, sodass man als Statistiker für Big Data nicht mehr auf Amazon AWS und Co zurückgreifen müsste, sondern die Big Data Aufgaben dann auf 1000 Computern Peer-2-to-Peer gerechnet würden.

P.S.: Aber Außerirdische erkenne ich auch so gerade noch! :D :D :D
Irmgard.

Antworten