Zerlegung eines multiplen Signals in seine Bestandteile

Varianzanalyse, Diskriminanzanalyse, Kontingenzanalyse, Faktorenanalyse, Clusteranalyse, MDS, ....

Moderator: EDi

consuli
Beiträge: 479
Registriert: Mo Okt 10, 2016 8:18 pm

Re: Zerlegung eines multiplen Signals in seine Bestandteile

Beitrag von consuli »

bigben hat geschrieben: Fr Feb 01, 2019 9:09 am Das klingt jetzt so, also wolltest Du Dich auf zwei gleichzeitig eintreffende Partikel beschränken. consuli macht das bestimmt gerne auch für mehrere gleichzeitig eintreffende Partikel... ;-)
Ja, stimmt.

Ich habe zwischenzeitlich aber eine noch viel einfachere Lösung erdacht und zwar wie folgt:
  • Ich normiere alle Amplituden auf das kumulative (Normalverteilungs-)Gewicht 1 (indem ich durch das Volt-Integral der Amplitude dividiere)
  • Dann lasse ich sie durch einen Normalverteilungstest laufen.
  • Der lehnt die Multi-Signal-Amplituden ab.
  • Von allen abgelehnten Multi-Signal-Amplituden berechne ich das summarische Volt-Integral
  • Dann vervielfache ich einfach die gezählten singulären Amplituden in ihrer Anzahl, so dass das kumulierte Volt-Integral der abgelehnten Multi-Signal-Amplituden genau ausgeglichen wird.
Denn ich kann ja davon ausgehen, dass singuläre Partikelevents in multiplen Partikelevents genau in der gleichen Häufigkeit vorkommen, wie singulär, gelle?

Ist der Ansatz gut oder ist der Ansatz gut? :D

Jetzt müsst Ihr mir nur nochmal bei den Verteilungstests weiterhelfen. Die haben ja irgendwie die unangenehme Eigenschaft, dass sie meistens unterschiedliche Ergebnisse produzieren. Und trotzdem sollen sie alle - in ihrer Modellwelt - richtig sein. :? :?
Irmgard.
bigben
Beiträge: 2771
Registriert: Mi Okt 12, 2016 9:09 am

Re: Zerlegung eines multiplen Signals in seine Bestandteile

Beitrag von bigben »

consuli hat geschrieben: Fr Feb 01, 2019 12:00 pm
  • Dann vervielfache ich einfach die gezählten singulären Amplituden in ihrer Anzahl, so dass das kumulierte Volt-Integral der abgelehnten Multi-Signal-Amplituden genau ausgeglichen wird.
Denn ich kann ja davon ausgehen, dass singuläre Partikelevents in multiplen Partikelevents genau in der gleichen Häufigkeit vorkommen, wie singulär, gelle?
Da muss ich nochmal drüber nachdenken. Klingt nach consulischer Imputation. Vielleicht im Packge tidyConsImputR ?
Ist der Ansatz gut oder ist der Ansatz gut? :D


The proof of the pudding is in the eating. Ich finde die Idee solange gut, wie ich mir nicht vorstellen muss, die einem Reviewer zu erklären.. :shock:
Jetzt müsst Ihr mir nur nochmal bei den Verteilungstests weiterhelfen. Die haben ja irgendwie die unangenehme Eigenschaft, dass sie meistens unterschiedliche Ergebnisse produzieren.


Solange Dein o. g. Algorithmus noch nicht umgesetzt und solide geprüft ist, würde ich nach einem Verteilungstest mit möglichst geringer Power suchen. Student hat da mal was zu Schiefe und Wölbung geschrieben: https://www.faes.de/Basis/Basis-Lexikon ... ilung.html
Je nachdem, wie man die Cutoff-Werte ansetzt, kann man damit einen Normalverteilungstest beliebig geringer Power konstruieren. :lol:

LG,
Bernhard
---
Programmiere stets so, dass die Maxime Deines Programmierstils Grundlage allgemeiner Gesetzgebung sein könnte
consuli
Beiträge: 479
Registriert: Mo Okt 10, 2016 8:18 pm

Re: Zerlegung eines multiplen Signals in seine Bestandteile

Beitrag von consuli »

bigben hat geschrieben: Fr Feb 01, 2019 1:29 pm The proof of the pudding is in the eating. Ich finde die Idee solange gut, wie ich mir nicht vorstellen muss, die einem Reviewer zu erklären.. :shock:
Das Erklären ist bei Physikern ja eher nicht das Problem. Die meisten sind statistisch ziemlich gut drauf. Lassen sich die Aufenthaltsorte von kleinen Partikeln doch am besten in Verteilungen modellieren ...

Aber hast schon recht. Da steckt noch einiges an R-Programmierarbeit drin.

bigben hat geschrieben: Fr Feb 01, 2019 1:29 pm
Jetzt müsst Ihr mir nur nochmal bei den Verteilungstests weiterhelfen. Die haben ja irgendwie die unangenehme Eigenschaft, dass sie meistens unterschiedliche Ergebnisse produzieren.


Solange Dein o. g. Algorithmus noch nicht umgesetzt und solide geprüft ist, würde ich nach einem Verteilungstest mit möglichst geringer Power suchen. Student hat da mal was zu Schiefe und Wölbung geschrieben: https://www.faes.de/Basis/Basis-Lexikon ... ilung.html
Je nachdem, wie man die Cutoff-Werte ansetzt, kann man damit einen Normalverteilungstest beliebig geringer Power konstruieren. :lol:
Da haben wir uns missverstanden. Ich meinte die Anpassungstests:
  • Chi-Quadrat-Anpassungstest
  • Kolmogorow-Smirnow-Anpassungstest
  • Shapiro-Wilk-Test
  • Anderson-Darling-Anpassungstest
  • Jarque-Bera-Test
  • Wahrscheinlichkeitsnetz

Welchem davon nehme ich und warum? Ich kann mich nur daran erinnern, dass sie unterschiedliche Ergebnisse produzieren ...
Irmgard.
consuli
Beiträge: 479
Registriert: Mo Okt 10, 2016 8:18 pm

Re: Zerlegung eines multiplen Signals in seine Bestandteile

Beitrag von consuli »

Ich habe gerade meinen Lösungsansatz vorgestellt. Er hat durchaus Anerkennung gefunden.

Das Problem ist, dass mein Lösungsansatz mit einem Verteilungstest aka Anpassungstest mindesten 30 Beobachtungen/ Messpunkte pro Amplitude benötigt, wobei ich mit etwas Qualitätsreserve von 50 Beobachtungen/ Messpunkte ausgehe.

Die zu messenden Amplitudensignale sind rund 20 nano-Sekunden lang. Bei 50 Messpunkten pro 20 nano-Sekunden würde sich eine Abtastrate von 2,5 GigaSample pro Sekunde ergeben. Die Elektronik der Data Acquisition Card schafft aber nur maximal 500 MegaSample pro Sekunde, also nur 10 Messpunkte für eine Amplitude (in 2 nano-Sekunden Schritten). Mit 10 Beobachtungen kann man keinen Verteilungstest aka Anpassungstest machen.

Also ist der "Contest" für eine effizientere Lösung mit weniger notwendigen Beobachtungen pro Amplitude wieder eröffnet.
Irmgard.
bigben
Beiträge: 2771
Registriert: Mi Okt 12, 2016 9:09 am

Re: Zerlegung eines multiplen Signals in seine Bestandteile

Beitrag von bigben »

Ich hab gerade auf die Uhr geguckt und es ist gerade 2019: "Richtige" und "falsche" Kurven erkennt man jetzt eigentlich mit Deep Learning. Kann die Unterscheidung nicht ein CNN machen?
---
Programmiere stets so, dass die Maxime Deines Programmierstils Grundlage allgemeiner Gesetzgebung sein könnte
consuli
Beiträge: 479
Registriert: Mo Okt 10, 2016 8:18 pm

Re: Zerlegung eines multiplen Signals in seine Bestandteile

Beitrag von consuli »

Bestimmt.

Wenn ich doch nur Keras und Tensorflow (mit R) mal endlich begreifen würde. :oops:
Irmgard.
consuli
Beiträge: 479
Registriert: Mo Okt 10, 2016 8:18 pm

Re: Zerlegung eines multiplen Signals in seine Bestandteile

Beitrag von consuli »

Falls jemand mal ein ähnliches Problem hätte und unterschiedliche Verteilungen mit neuronalen Netzen trennen will:

Dann sollte man die Häufigkeiten (hier die Amplituden) für die neuronalen Netze so aufbereiten, dass das Max-Häufigkeit einer Verteilung (Amplitude) immer 1 ist. Klingt für einen Statistiker erstmal schwachsinnig. Aber dann liegen die mittleren Häufigkeiten um 0,5, wo die neuronalen Netze die höchste Sensitivität haben. Sobald die Häufigkeiten (Amplituden) unterschiedliche Maximalhöhen haben, fahren die Netze fast ausschließlich darauf ab. Zumindest war es beim old-school SNNS so. Neuronale Netze sind halt manchmal anders ...

Richtige Volt-Daten gibt es übrigens noch nicht. Da müssen jetzt erst noch einige technische Messprobleme gelöst werden ...
Irmgard.
Antworten