Was ist Wissen? Was unterscheidet diese Konditionierung von
deinem Wissen? Wissen ist Information…
Es steht Dir frei, Wissen und Information als Synonyme zu verwenden, allerdings werden beide häufig getrennt. Während man unter Information alles versteht, was irgendwie übertragen werden kann, versteht man unter Wissen meistens nur diejenigen Informationen, die gespeichert werden, um sie später zur bewußten Selektion verschiedener Handlungsoptionen heranzuziehen.
Eine bewußte Entscheidung findet in einem neuronalen Netz aber nicht statt. Das Netz weiß nicht, was es warum tut (im Gegensatz zu einem Expertensystemn, welches seinen Input anhand einer Wissensbasis bewertet), sondern es reagiert auf ein Eingangssignal reflexartig mit einem Ausgangssignal.
Wenn ich mich jetzt nicht irr, dann ist ein Perceptron ein
einfaches neuronales Netz, Es gibt eine „Wahrnehmungs-“ und
eine „Outputschicht“ Nichts dazwischen.
Es gibt auch Perceptrons mit verdeckten Schichten. Das wesentliche eines Perceptrons besteht darin, daß die Information in einer Einbahnstraße von Schicht zu Schicht weitergereicht wird.
Aber wenn du meinst, daß das Gehirn mehr als nur ein
neuronales Netz ist, muß ich dir auch rechtgeben…
Ich halte es für denkbar, daß das Gehirn ein System mehrerer neuronaler Netze mit unterschiedlichen Architekturen darstellt, in denen zu allem Überfluß mehrere Arten von Neuronen am Werk sind.
Bist du dir sicher, daß unser Gehirn fähig ist direkt (also
ohne Evolution etc.) seinen Lernalgorithmus zu verbessern?
Weder glaube ich das, noch habe ich das behauptet. Unser Lernprogramm ist angeboren und Ergebnis der Evolution. Allerdings ist es auch flexibel genug um Lernen lernen (oder wenigstens trainieren) zu können.
Da könnte eine Art Evolution in einer Computersimulation
mehrerer neuronaler Netze Abhilfe schaffen.
Das unterscheidet sich nicht von herkömmlichen Lernverfahren, nur daß die nichtlineare Optimierung der Wichtungsfaktoren (und möglcherweise sogar der gesamten Netzarchitektur) einem genetischen Algorithmus überlassen wird.
Weißt du ob sowas schon einmal probiert wurde?
S. Bornholdt and D. Graudenz, General asymmetric neural networks and structure design by genetic algorithms, Neural Networks 5 (1992) 327.
Ja, das Beispiel kenne ich auch. Spielt ein bißchen in die
Thematik vom Turing-Test hinein, der ja noch immer seine
Gültigkeit hat!
So ganz glücklich ist man wohl nicht mehr damit, seit es angeblich einem Computer gelungen ist ihn zu bestehen.
P.S. Was lernt man eigentlich alles, wenn man in Deutschland
Chemie studiert?
Kommt auch die Uni an.