Programmlaufzeiten grafisch darstellen

Hallo,

ich habe ein Problem, daß wahrscheinlich die meisten die sich mit diesem Thema beschäftigt haben in ähnlicher Weise hatten.

Es soll ein fester Umrechnungsfaktor für 2 Mittelwerte ermittelt werden,
wobei hier die Anzahl der Einzelwerte aus denen die Mittelwerte berechnet
wurden als Gewichtung einfließen soll.

Konkret: Es geht hier um Laufzeiten von Programmen in einer Client Server
Architektur. Die Programme laufen teils direkt auf dem DB-Server, teils
auf einem Applikationsserver ( hier laufen sie in der Regel länger ).
Es wird also der Durchschnittswert für die Läufe auf dem DB-Server
ermittelt, danach der für die Läufe auf dem Applikationsserver. Um die Laufzeiten nun grafisch ( und chronologisch in der richtigen Reihenfolge ) darzustellen, soll ein fester Umrechnungsfaktor
( der für jedes Programm spezifisch ist ) ermittelt werden, um die Laufzeiten
unabhängig davon ob sie auf dem DB-Server liefen oder auf dem Applikations-
server in ein und demselbenn Chart darzustellen. In diesem Chart sind dann
programmspezifische Schwankungen ( die z.B. von der Parametrisierung abhängen )
ersichtlich. Wo das Programm lief soll dabei nicht einflißen und deswegen durch den Faktor geglättet werden.

Hat jemand eine Idee?

Zunaechst die Frage, was soll das Diagramm genau aussagen?

  1. Wenn du wirklich einen „Harware-Umrechnungsfaktor“ brauchst, so rate ich Dir, ihn einfach experiementell zu besteimmen: gleiches Programm, zweimal laufenlassen, fertig - die so gewonnene Aussage sollte allerdings nur fuer den Muell
    brauchbar sein.

  2. Um das Verhalten chronologisch zu analysieren, vergiss die Laufzeit und erzeuge
    Balkendiagramme die die Start und Stoppzeiten widerspiegeln.

  3. Erfinde ein Hardware unabhaengiges Mass:
    Schleifendurchlaeufe, Netzverkehr etc.

  4. Spezifiziere genauer, warum du die Werte willst. Ich wuerde behaupten, du kannst dir einen aussuchen, da der Betrachter der Charts diesen Wert nicht kennt.

MFG
Martin

[Bei dieser Antwort wurde das Vollzitat nachträglich automatisiert entfernt]

Hallo,

ich habe ein Problem, daß wahrscheinlich
die meisten die sich mit diesem Thema
beschäftigt haben in ähnlicher Weise
hatten.

Es soll ein fester Umrechnungsfaktor für
2 Mittelwerte ermittelt werden,
wobei hier die Anzahl der Einzelwerte aus
denen die Mittelwerte berechnet
wurden als Gewichtung einfließen soll.

Konkret: Es geht hier um Laufzeiten von
Programmen in einer Client Server
Architektur. Die Programme laufen teils
direkt auf dem DB-Server, teils
auf einem Applikationsserver ( hier
laufen sie in der Regel länger ).
Es wird also der Durchschnittswert für
die Läufe auf dem DB-Server
ermittelt, danach der für die Läufe auf
dem Applikationsserver. Um die Laufzeiten
nun grafisch ( und chronologisch in der
richtigen Reihenfolge ) darzustellen,
soll ein fester Umrechnungsfaktor
( der für jedes Programm spezifisch ist )
ermittelt werden, um die Laufzeiten
unabhängig davon ob sie auf dem DB-Server
liefen oder auf dem Applikations-
server in ein und demselbenn Chart
darzustellen. In diesem Chart sind dann
programmspezifische Schwankungen ( die
z.B. von der Parametrisierung abhängen )
ersichtlich. Wo das Programm lief soll
dabei nicht einflißen und deswegen durch
den Faktor geglättet werden.

Hat jemand eine Idee?

Zunaechst die Frage, was soll das
Diagramm genau aussagen?

  1. Wenn du wirklich einen
    „Harware-Umrechnungsfaktor“ brauchst, so
    rate ich Dir, ihn einfach experiementell
    zu besteimmen: gleiches Programm, zweimal
    laufenlassen, fertig - die so gewonnene
    Aussage sollte allerdings nur fuer den
    Muell
    brauchbar sein.

Ich brauche keinen Hardwareumrechnungsfaktor, da die Abhängigkeit von der Hardware abhängig von der Programmierung ist.
Je datenbanklastiger ein Programm ist, desto mehr Netzverkehr wird zwischen Applikationsserver und DB-Server produziert und desto größer wird die Differenz zwischen den Laufzeiten auf dem DB-Server und dem Applikationsserver sein. Ist ein Programm extrem CPU lastig, kommt es darauf an wie stark die CPU´s auf dem jeweiligen Rechner sind. Deswegen ja auch meine Idee einen festen Umrechungsfaktor für ein Programm zu ermitteln, da dieser für das Programm spezifisch ist.

  1. Um das Verhalten chronologisch zu
    analysieren, vergiss die Laufzeit und
    erzeuge
    Balkendiagramme die die Start und
    Stoppzeiten widerspiegeln.

Genau das will ist machen. Nur statt Start Stoppzeiten eben die Laufzeit als Wert in der Y-Achse

  1. Erfinde ein Hardware unabhaengiges
    Mass:
    Schleifendurchlaeufe, Netzverkehr etc.

Brauche ich nicht - siehe 1

  1. Spezifiziere genauer, warum du die
    Werte willst. Ich wuerde behaupten, du
    kannst dir einen aussuchen, da der
    Betrachter der Charts diesen Wert nicht
    kennt.

Stimmt dem Betrachter wird´s egal sein. Aber je mehr Werte ich einfließen lassen kann desto besser.
Außerdem wird der Faktor auch als Indikator für die Programmqualität ist, da es eine Qualitätsmerkmal ist möglichst wenig Daten von der DB anzufordern bzw. wirklich nur die benötigten Daten über das Netz zu ziehen und alle Selektionskriterien bereits auf DB Seite abzuprüfen.

MFG
Martin