Hallo zusammen,
mich lässt folgende spinnerte Idee nicht mehr los:
Mit ein paar Zeile Programmieraufwand kann ich nacheinander alle möglichen Buchstabenkombinationen für ein Buch von sagen wir mal 100 Seiten erzeugen, einfach von A___ über AA__, ABEL, ABER, …
Damit werde ich in dem unvorstellbare großen Output dieses Programms alle Werke der Weltliteratur mit bis zu 100 Seiten finden, alle wissenschaftlichen und philosophischen Texte, alle möglichen und denkbaren, beschreibbaren Ereignisse, und zwar nicht nur bereits anderweitig existente Dinge, sondern alle überhaupt in allen unser Schriftsystem irgendwie nutzenden Sprachen dieser Welt potentiell möglichen Schriftstücke.
Analog dazu kann ich das Spiel auch mit einer Pixelmatrix machen, und damit alle potentiell möglichen Bilder die sich in dieser Matrix abbilden lassen erzeugen. Auch dies erzeugt natürlich schon bei einer kleinen Matrix eine unglaubliche Datenmenge.
Und genau hier kommt jetzt die Frage: Wie isoliert man aus solchen Datenmengen dann die Ergebnisse (Mustererkennung) die einen Sinn ergeben und etwas beschreiben, was uns bislang noch unbekannt, unverständlich und verborgen ist. Und kann man es schaffen diese Datenmenge so zu reduzieren, dass eine Datenmenge entsteht, die man nach Fachgebieten qualifizieren, und dann entsprechenden Experten vorlegen kann, die so vielleicht zu dem ein oder anderen Gedankenblitz kommen, und Lösungen schwarz auf weiß sauber beschrieben vor sich finden, nach denen sie ggf. schon lange gesucht haben?
Ich denke da an Lexika-Vergleiche, Übereinstimmungsgrade mit bereits bekanntem Material, semantische Überprüfungen, lernende Maschinen, … (mit Plausibilitätsprüfungen müsste man ja sehr vorsichtig sein, weil was wie mit aktuellem Wissen für plausibel halten ggf. genau dem widerspricht, was uns den ein oder anderen großen Durchbruch bringt) um so einen universellen „Forschungsansatz“ zu entwickeln. Wäre eine nette Spielerei für ein großes Grid, und bringt vielleicht mehr, als kosmisches Rauschen zu filtern
Gruß vom Wiz