SparkR (R on Apache Spark Cluster)

Entscheidungsbäume, Random Forest, Support Vektor Maschinen, Neuronale Netze, ...

Moderator: consuli

consuli
Beiträge: 445
Registriert: Mo Okt 10, 2016 8:18 pm

Re: SparkR (R on Apache Spark Cluster)

Beitrag von consuli » Sa Nov 30, 2019 2:38 pm

Je mehr ich mich mit Apache Spark Cluster Computing beschäftige, desti interessanter finde ich es!

Im Prinzip müsste es doch möglich, sein mit Apache Spark mit "wenigen" Handgriffen eine Art SETI@home Bildschirmschoner zu programmieren, der den eigenen Rechner dann zu einem Apache Spark Cluster Computing Netzwerk verbindet, sodass man als Statistiker für Big Data nicht mehr auf Amazon AWS und Co zurückgreifen müsste, sondern die Big Data Aufgaben dann auf 1000 Computern Peer-2-to-Peer gerechnet würden.

P.S.: Aber Außerirdische erkenne ich auch so gerade noch! :D :D :D
"Sehet die Vögel unter dem Himmel an: sie säen nicht, sie ernten nicht, sie sammeln nicht in die Scheunen; und euer himmlischer Vater ernährt sie doch." (Matthäus 6, V. 26)

Antworten