Analogien von Evolution und Technik

Guten Tag zusammen!

Ich las neulich in dem Buch „Evolution. Eine Einführung“ von Brian und Deborah Charlesworth (Reclam 2012) folgenden Absatz:

„Selektion ist auch in nicht-biologischen Zusammenhängen von Bedeutung. Bei der Entwicklung von Maschinen und Computerprogrammen wurde festgestellt, dass eine besonders effiziente Methode zur Auffindung des optimalen Designs darin besteht, aufeinanderfolgende, kleine, zufällige Veränderungen am Design vorzunehmen, wobei man Versionen beibehält, die ihre Aufgabe zufriedenstellend erfüllen, und andere ausscheidet. Dieses Verfahren wird immer häufiger verwendet, um schwierige Designprobleme bei komplexen Systemen zu lösen. Während dieses Prozesses schwebt dem Ingenieur kein bestimmtes Design vor, sondern nur die erwünschte Funktion.“ (S.110)

In dem Buch wird nicht näher darauf eingegangen und ich würde gerne mehr über solche Verfahren und Anwendungen erfahren. Wenn möglich, nicht zu spezialisierte Abhandlungen von und für Fachexperten (von Computerprogrammen verstehe ich z.B. fast nichts, technisch bin ich auch eher Laie).

Hat dazu vielleicht jemand einen Literatur- oder web-Tipp zur näheren Einführung in dieses Thema?

Danke schon mal!
p.

Moin,

Hat dazu vielleicht jemand einen Literatur- oder web-Tipp zur
näheren Einführung in dieses Thema?

schau mal unter dem Begriff ‚Bionik‘, da sollte was für Dich dabei sein.

Gandalf

schau mal unter dem Begriff ‚Bionik‘, da sollte was für Dich
dabei sein.

Ich glaube, das meint er nicht.

Berro

Hallo p.,

schau auch mal unter „Schwellenakzeptanz“ nach. Dieser Optimierungsalgorithmus scheint mir auch zu den von Dir gesuchten Verfahren zu gehören.

Gruß,
Rompi

alter Hut mit neuer Krempe
Hallo,

"Selektion ist auch in nicht-biologischen Zusammenhängen von
Bedeutung. Bei der Entwicklung von Maschinen und
Computerprogrammen wurde festgestellt, dass eine besonders
effiziente Methode zur Auffindung des optimalen Designs darin
besteht, aufeinanderfolgende, kleine, zufällige Veränderungen
am Design vorzunehmen, wobei man Versionen beibehält, die ihre
Aufgabe zufriedenstellend erfüllen, und andere ausscheidet.

Die Methode an sich ist an sich trivial, so dass es kaum lohnt,
darüber im Zusammenhang neuer Methoden zu reden.
Man nennt es „Versuch und Irrtum“ oder „Trial and Error“
http://de.wikipedia.org/wiki/Versuch_und_Irrtum

Jeder Mensch macht es und in der Technik und Wissenschaft
ist es seit Urzeiten eine gängige Methode, wie man z.B.
empirisch zu Wissen kommt, indem man ausdauernd probiert
und dabei kleine Änderungen am Untersuchungsgegenstand
vornimmt. So wurde viel bedeutenden Erfindungen gemacht.
Z.b. Erfindung des Meißner Porzellan oder Zusammensetzungen
von Edelstählen (V2A, V4A sind heute noch gebräuchliche
Abkürzungen, die vor 100 j. aus Versuchsreihen hervorgingen).

Dieses Verfahren wird immer häufiger verwendet, um schwierige
Designprobleme bei komplexen Systemen zu lösen.

Ach, ich halte diese Aussage so allg. für Geschwafel.

Eine neue Qualität hat man nur dadurch, dass man heute viele
Prozesse nicht mehr in Realität testet, sondern als
Computermodell simuliert. Das macht es viel einfacher und
vor allem um ein Vielfaches billiger, sehr viele
Modifikationen in kurzer Zeit mit minimalem Aufwand
durch zurechnen (also zu simulieren).

Während dieses
Prozesses schwebt dem Ingenieur kein bestimmtes Design vor,
sondern nur die erwünschte Funktion." (S.110)

Eine Idee vom Design muß der Ing. in aller Regel schon haben,
weil die Anzahl der Parameter in der Regel sehr groß ist
und damit die Anzahl der Variationen gegen unendlich geht.
Das kann man auch heute mit schnellsten Computern aber nicht
in endlicher Zeit berechnen.
Also muß man schon genau wissen, was man will und wie man
welche physikalischen und technischen Prinzipien einsetzt.

Trotzdem ist es natürlich ein riesiger Vorteil, wenn man
im Computer hunderte … tausende oder sogar Mio. Varianten
simulieren kann, statt das man z.b. die Variation in
realer Praxis z.B. an mechanischen Teilen realisiert.

Reale Teile stellt man macht man dann aber am Ende her,
wenn man durch die vielen Simulationen meint eine gute
Variante gefunden zu haben, um diese zu verifizieren.

Ich selber und viele Kollegen in allen Bereichen der Ind. und
Forschung nutzen diese Möglichkeiten tatsächlich sehr gern,
weil man eben z.B. Schaltungen ausprobieren und optimieren
kann, ohne sie praktisch aufbauen zu müssen. Man nimmt eine
Schaltung, die natürlich schon mal irgend wie funktionieren
sollte und die eine Funktion erfüllen muß und dreht an
Parametern (Schaltungsdetails und Werte von Bauelemente)
bis man denkt, dass sie annähernd optimal funktioniert.
Das ist quasi reines aber systematisches Ausprobieren.
In der Elektronik ist die Simulation von Schaltungen ein
uralter Hut (über 40 Jahre alt).
Heute kann man unendlich viel mehr simulieren, weshalb techn.
Lösungen möglich werden, die man früher aus Gründen viel
zu hoher Entwicklungskosten nicht raelisieren konnte.

Z.B. Dünne Bleche mit sehr komplizierte Formen im Automobilbau. Wenn ein Werkzeug für eine Tiefziehpresse
mal eben 100k€ kostet, kann man nicht mal eben 1000
unterschiedlichen Versionen testen. Da muß man auf Sicherheit gehen und macht nur das, was von vornherein bekannt ist und
aus Erfahrungswerten sicher funktionieren wird.
Das Blech ist dann eben dicker und die Formen einfacher.

In dem Buch wird nicht näher darauf eingegangen und ich würde
gerne mehr über solche Verfahren und Anwendungen erfahren.
Wenn möglich, nicht zu spezialisierte Abhandlungen von und für
Fachexperten (von Computerprogrammen verstehe ich z.B. fast
nichts, technisch bin ich auch eher Laie).

Zum Thema Anwendung bei der Softwarenetwicklung selber
kenne ich daseher weniger. Allerdings basieren Methoden der
KI (künstl- Intelligenz) auch vielfach auf „Trail a. Error“).

Hat dazu vielleicht jemand einen Literatur- oder web-Tipp zur
näheren Einführung in dieses Thema?

Es ist unendlich groß, aber zum Stichwort: Modelle und
Simulation von techn./phys. Problemen wird sich sehr viel
finden lassen. es gibt heute kaum mehr einen Beeich wo nicht
mit Modellen gearbeitet wird.
paar Schlagwörter:

  • Elektrotechnik: Schaltungssimulation (Spice)
  • Klimamodelle, Wettermodelle,
  • Bau/Achitektur: 3D-Modelle mit vollständiger Funktion
    ganzer Städte.
  • Strömungsmodelle für Rohre, Leitungen, Motoren,
    Treibwerke, Kraftwerke, Flugzeuge usw.
  • Chemie: Simulation chem. Verbindungen

Die modernsten Entw. gehen dahin, dass man die Funktion
der Gene von kompletten Lebewesen simuliert:
http://www.hallo-holstein.de/forschung-wissenschaft-…

Dass man da auch Gene einfach im Modell systematisch
modifiziert und dann schaut, was dabei raus kommen müßte,
ist naheliegend und demnächst praktisch nutzbar.
Gruß Uwi

Danke!
…das war ein überwältigender Service, in Schnelligkeit und Qualität.

Danke, Gandalf! „Bionik“ ist auch sehr interessant, befaßt sich aber wohl mehr mit der technischen Nutzbarmachung der Evolutions-ERGEBNISSE, während es mir eher um die Nachschöpfung der Evolutions-PROZESSE zwecks technischer Optimierung ging (wie Berrogeita wohl ganz richtig vermutet hat).

Danke, Rompi, für den Hinweis auf „Schwellenakzeptanz“ - war mir noch kein Begriff.

Ja, und vielen Dank, Uwi, für diese geradezu enzyklopädische Antwort!
Ich finde, du bringst es ausführlich und doch exakt auf den Punkt.

Nachdem ich die Frage gepostet hatte, ging mir allmählich selbst auf, dass sie nur begrenzt sinnvoll ist, da ja schon z.B. die Edison-Legende/Wahrheit von den tausenden von Glühbirnen-Versuchen so ziemlich das ist, wonach ich gefragt habe.

Interessant wären also vielleicht höchstens Fragen in der Richtung, welche TaE-Methoden im Einzelnen man beschreiben könnte, die dem zeitgenössischen Komplexitätsstand der Technik entsprechen.

Ich werde deinen vielen nützlichen Stichwörter und Hinweisen mal hinterher ermitteln…
Vielen vielen Dank!

Schönen Gruß
p.

Anwendungsbeispiele
Hi,

da du noch indirekt nach heutigen Anwendungen gefragt hast von mir zumindest ein paar Beispiele, in denen solche Methoden angewendet werden:

Beim Entwerfen von Antennen hat man oftmals ein klar abzusehendes Frequenzspektrum vor Augen. Da wird mit eben solchen Methoden und EM-Simulationen die Form der Antenne ermittelt. (Oder auch mal mit der Hand hin und her gebogen bis es besser wird :wink: )

Wenn man komplexe Magnetfeld-Formen erzeugen möchte, werden die Formen der dafür benötigten Magnete ebenfalls so optimiert.

Und letztlich würde ich sagen läuft auch ein neuronales Netz genau auf dies hinaus.
Ich habe eine Trainings-Menge mit Anfangswerten und Lösungen und trainiere das neuronale Netz so lange, bis das gewünschte Ergebnis erreicht wird. Dann versuche ich wiederum dieses neuronale Netz zu optimieren (auf Rechenzeit) ohne, dass das Resultat schlechter wird…
(Muss aber gestehen, dass mein Wissen über neuronale Netze sehr geschränkt ist)

Viele Grüße,
Schigum

Hallo p.,

Danke, Gandalf! „Bionik“ ist auch sehr interessant, befaßt
sich aber wohl mehr mit der technischen Nutzbarmachung der
Evolutions-ERGEBNISSE, während es mir eher um die
Nachschöpfung der Evolutions-PROZESSE zwecks technischer
Optimierung ging (wie Berrogeita wohl ganz richtig vermutet
hat).

Die Bionik ist schon die Technik welche mit Evolutionsstrategien arbeitet.

Die Bionik baut nicht einfach die Natur nach, sondern sucht nach den Strategien welche die Natur angewendet hat um eine Lösung zu finden.
Diese werden dann auf technische Probleme angewendet.

http://archiv.pressestelle.tu-berlin.de/tui/01jun/bi…

Heut macht man mehr mit Computersimulationen:
http://www.ifam.fraunhofer.de/index.php?seite=2804/k…
http://www.chemietechnik.de/texte/anzeigen/106297/Ar…

MfG Peter(TOO)

1 Like

Noch ein Beispiel
Hallo,
Folgendes liest man auf einer Seite über den Bau von Yedakis ( Didgeridoos ):

„…Bevor das Programm seine Arbeit aufnehmen kann, muss ein möglichst genaues Ziel-Klang- und Impedanz-Spektrum definiert werden. Das können momentan bis zu 20 verschiedene Eigenschaften sein.

Stellt Euch dann vor, wir erschaffen (programmieren) virtuelle Termitenvölker, deren Einzeltermiten individuelle Fähigkeiten besitzen, Didgeridoos mit speziellen Eigenschaften zu formen. Im nächsten Schritt wird die Größe und Anzahl dieser virtuellen Termitenvölkern festgelegt - in unserem animierten Bespiel ist es lediglich 1 Volk mit 512 Termiten.

Innerhalb der räumlichen Begrenzung des virtuellen Rohlings nimmt beim Start des Programms jede einzelne Termite ihre Arbeit auf und frisst (erstmal völlig zufallsgesteuert) ihr eigenes Didgeridoo aus. Nach einigen Sekunden sind die ersten 512 Instrumente fertig.

Nun wird jedes einzelne Instrument daraufhin überprüft, wie gut es die vorgegebenen Ziel-Eigenschaften erfüllt. Die Termiten, die am erfolgreichsten waren, dürfen sich vermehren und ihre Erbinformationen an eine neue Termitengeneration weitergeben. Die anderen sterben aus. Zusätzlich werden, ähnlich wie in der Natur, zufällige Mutationen erzeugt, die die individuellen Eigenschaften von einzelnen Termiten ändern. Damit ist die erste Generation beendet.

In der zweiten Generation fressen die Sprösslinge zusammen mit ihren relativ erfolgreichen Eltern und den mutierten Geschwistern erneut 512 Didgeridoo-Rohlinge aus – wieder zufallsgesteuert aber mit verbesserten Eigenschaften die Zielvorgaben zu erreichen. Danach werden wieder sämtliche Instrumente überprüft. Die erfolgreichen Termiten des Volkes dürfen sich wiederum vermehren, während der Rest ausstirbt.

Dieser evolutionäre Kreislauf setzt sich so lange fort, bis ein virtuelles Didgeridoo erzeugt wurde, das alle vorgegebenen Ziele bestmöglich erfüllt und es keinen evolutionären Fortschritt mehr gibt – im Beispiel sichtbar als rote Linie. In der Regel ist das nach 150 bis 400 Generationen der Fall…“

Keine Ahnung, ob das wirklich so funktioniert. Aber schon eine abgefahrene Idee, oder?

Falls Du das ausfühlicher lesen willst:
http://www.didgeridoo-physik.de/

Freundliche Grüße
Thomas

Hallo pettibon1,

schau mal hier:
http://de.wikipedia.org/wiki/Evolution%C3%A4rer_Algo…

Ich habe solche Verfahren auch schon selbst verwendet, um das Wachstum von Mikroorganismen in Flüssigkulturen zu optimieren.

Gruß
Grin