Hallo Herr Lehrer 
Hallo zurueck,
das ist jetzt schon etwas konkreter, vielleicht meldet sich einer der „wirklichen Experten“ fuer dieses Thema, die auch Softwareerfahrungen haben.
Du solltest einen Hinweis bzgl. Crossposting im Informatikbrett anbringen.
zum ersten ist anzumerken, dass beide Themen nach einer
euphrischen Phase Anfang der 90er (?) inzwischen wieder out
sind, da sich schnell ihre Beschraenktheit erwiesen hat. Das
soll nicht heissen, dass es nicht auch kleine sinnvolle
Anwendungen gibt.
wenn man uni-seiten mit entsprechendem lehrangebot und
forschungsgebieten aufsucht, dann lässt dieser eindruck nicht
unbedingt gewinnen. wie kommst du zu deinem urteil?
Mit irgendwas muessen die Leute ja ihr Budget begruenden:wink:
Konkreter: Beide Modelle sind Spezialfaelle der globalen Optimierung, bei NN ist die Lernmethode die Methode des „simulated annealing“ (Ausfrierens). Das Grundprinzip ist, mit sehr vielen Parametern zu arbeiten, so dass sich das angepasste Modell irgendwie „richtig“ „hinbiegt“. Globale Optimierung ist schon was Unhandliches, bei den hier vorliegenden Dimensionen wird sie praktisch unmoeglich.
Aber natuerlich sind die Grundlagen lehrbar und man kann ueber verschiedene Ansaetze zur Konstruktion der Netztopologie und der Steuerung des Lernens immer noch Paper veroeffentlichen.
Zu der Funktionsweise und Zielen der beiden Techniken
habe ich bereits eine Vorstellung,
Es waere nett, wenn Du diese Vorstellung kurz umreissen
wuerdest, da insbesondere bei den Zielen eine groessere
Bandbreite moeglich ist.
kurz: fuzzysysteme eigenen sich speziel für wissensbasierte,
unscharfe (nicht nur wahr/falsch) Systemmodellierung bzw.
Regel-aufstellung und sind inhaltlich interpretierbar; und KNN
eignen sich speziel für Clusterungsaufgaben (i.w.S.) und sind
lernfähig. Richtig?
Und dann kommen schon die Probleme dieser Techniken: Komplexe Fuzzy-Systeme koennen sehr stark von der Art des „Unscharfmachens“ abhaengig werden, insbesondere wenn Dynamik dazu kommt (d.h. Rueckkopplungen). Bei NN in hohen Dimensionen bzw. mit zunehmender Parameterzahl kann die Interpretation der gelernten Knotenparameter genauso kompliziert werden wie das urspruengliche Clusterungsproblem.
Dort waere interessant, was Du damit anstellen willst, ob Du
Daten zum Auswerten hast, ob Du einen allgemeinen
(historischen?) Text zu diesem Thema verfassen willst,…
Ich habe eine riesige Menge an Daten, die ich statt mit
Faktoren- oder Clusteranalyse eben lieber mit neuen Methoden
(Fuzzy und/oder NeuroNetze) auswerten will.
Wie gesagt, so neu sind diese nicht, und es erfordert eine „glueckliche Nase“, eine differenzierte Clusterung zu erreichen.
Ziel ist es
Zusammenhänge/Strukturen zu entdecken (wie es halt im
wissenschaftlichen betrieb so geht, müsstest du ja laut deiner
karte wissen), wobei einige kausal-theoretische Überlegungen
vorgeschaltet werden könnten.
Nein, es geht im (natur-)wissenschaftlichen Betrieb darum, einfache mathematische Strukturen in der Realitaet ausfindig zu machen bzw. in dieser zu konstruieren. Ein feiner, aber bedeutsamer Unterschied, wenn es in Richtung Soziologie/Wirtschaft geht.
Und dazu kann ich mir noch nicht
konkret vorstellen, wie diese Methoden anzuwenden wären? Du?
Dazu gibt es eine Theorie zur Modellbildung, deren Extremfall NN sind (praktisch kein Vorauswissen um Strukturen). Jegliche bekannte Struktur sollte zur Redution der Parameteranzahl im Modell verwendet werden.
Beide Methoden sind sinnvoll zur Interpolation innerhalb eines
Datenbestandes, da aber die dabei konstruierten Modelle sehr
vom Zufall abhaengen, sind keine strukturellen Aussagen
ableitbar. Andersherum, wenn man schon eine Vorstellung von
der Struktur eines Modells hat, sind konkretere Methoden der
Optimierung oder statistischen Analyse wesentlich effektiver.
Was meinst du mit Interpolation? Könntest du das ein bisschen
ausführen?
Innerhalb der Datencluster kann man auf sinnvolle Weise „kuenstliche“ Datenpunkte konstruieren, weit weg von diesen werden diese konstruierten Punkte wegen der (relativen) Beliebigkeit der Parameter des NN sinnlos. (Bzw. wenn Lern- und Messmenge „weit“ voneinander entfernt sind, ist ein gutes Ergebnis unwahrscheinlich. Liegen die Testpunkte „inmitten“ der Lernpunkte, dann kann eine gute Naeherung erwartet werden.)
Hierzu waere interessant zu wissen, wie Du zur Mathematik
stehst, speziell zur linearen Algebra, zur Statistik,
Spektralzerlegung symmetrischer Matrizen,…
Nun, mein Mathe-LK-Lehrer war ziemlich mitteilsam, aber die
Spektralzerlegung symmetrischer Matrizen hat er mir irgendwie
verheimlicht…Warum fragst du?
Weil das die Grundlage der Multivarianzanalyse ist. Im einfachsten Fall bringt man die verschiedenen Messwerte auf eine einheitliche Skala. Mittels Spektralzerlegung der Korrelationsmatrix koennen nun wesentliche Richtungen, d.h. grosse Eigenwerte, zur Dimensionsreduktion gefunden oder (relativ) kleine Eigenwerte als lineare Abhaengigkeiten der Messwerte interpretiert werden. Man kann das Modell durch kuenstliche Messwerte, die Funktionen der gegebenen sind (log, Potenzen, Produkte bis zum 2. oder 3. Grad), anreichern, um mehr oder exaktere Abhaengigkeiten zu finden.
Ciao Lutz