Prognose von Methodendauer

Hallo zusammen,

ich habe eine Methode, die je nach Übergabewert unterschiedlich lang dauert.
Wie kann ich im Vorraus, auf Basis von früheren Messungen und des Übergabewertes berechnen wie lange die Methode brauchen wird?

Ich hab schon ein wenig nachgeforscht, aber vielleicht habt ihr ja einen mathematischen Ansatz den ich verwenden könnte.

Viele Grüße!

Naja die Dauer wirklich vorauszusagen ist unmöglich (es läuft ja noch vielmehr auf dem Rechner) aber du kannst natürlich die Zeit aller vorigen Durchläufe mitteln. Dazu müsstest du das jedesmal messen und speichern.
Klingt nach einigem Aufwand, wofür brauchst du das denn?
Grüße

Hi,

ja ich probiers grad mit exponentieller_Glättung. Wofür ich das brauch ist zu kompliziert zu beschreiben :smiley:

Aber ich bin schon auf nem guten Weg. Danke für die Antwort!

Hi,

so was wird dann nicht in Sekunden sondern in Operationen oder Rechenschritte angegeben.
Wenn ein PC dann x Operationen/Sekunde unterstützt kann man runter rechnen.

Zur Frage selbst: Ist das Problem in O-Notation übertragbar? Falls ja kann man relativ einfach eine Ober/Unter Grenze festmachen.

Wenn das Programm zum Beispiel eine Komplexität von n^3 hat, dann vier Messwerte mit verschiedenen Eingaben ermitteln und ein Polynom 3ten Grades aufstellen. Dieses Polynom mit den tatsächlichen Werten vergleichen und eine Fehlerspanne ermitteln.

Reicht das als Abschätzung?

MFG