Eine PC-Anwendung kann viel schneller, aber wie?

Hallo,

habe eine Software für Video-Rendering und der Hersteller hat die einst vor Jahren in der Performance auf Echtzeit begrenzt - der Hersteller ist auf diesem Segment nicht mehr am Markt aktiv und bietet auch keinerlei Support dafür mehr an, doch weiß ich, dass das Rendern je Job auf Echtzeit ausgebremst wurde - möge heißen, dass eine Video-Aufzeichnung von 180 Minuten auch regelmäßig in 180 Minuten gerendert ist - zwei bis fünf Sekunden länger mag es dauern, aber auch das immer, ob 1 oder 5 oder 600 Minuten - scheint mir also gegeben, dass man dies vernachlässigen kann.

Ich wüsste gern, was ich unternehmen kann, diese Software zu voller Performance zu bringen - welche Datei ich eventuell zu bearbeiten hätte, so es regelmäßig die gleiche ist - bei jeder Software eben - ja, und welche Programmiersprache ich dafür womöglich zu erlernen hätte - kann mir das jemand verraten, dann schonmal vielen Dank.

Ja, und falls das jemand öfter schon gemacht hat, bin ich auch froh über eine nette Rückmeldung, man muss ja nicht immer alles selber machen.

Hier noch weitere Indizien, die auf die tatsächliche vorsätzliche Begrenzung der Leistung schließen lassen - kürzlich hatte ich wieder mal vom Fernsehen aufgezeichnet und es war viel Werbung herauszuschneiden gewesen - das Programm zeigt stets eine geschätzte Bearbeitungsdauer an - in diesem Fall war die geschätzte Bearbeitungsdauer schon weit über die Länge der Aufzeichnung hinaus angesetzt - wäre die Software tatsächlich nicht dazu in der Lage gewesen, schneller als mit Echzeit zu berechnen, dann wäre es für die Software faktisch unmöglich, da noch Zeit wieder aufzuholen und sie wäre eben erst am Ende der geschätzten Zeit mit dem Film fertig gewesen bei maximal 25 fps eben.

Die Software hat es aber geschafft, auch diesen Videofilm in der Zeit fertig zu stellen, wielange er eben dauert - so muss die Software also bis zum Zeitpunkt da Filmdauer und Rechenzeit wieder bis auf die berühmten zwei Sekunden Differenz synchron waren, mit einer höheren Leistung als 25 fps gerendert haben - wie auch immer, ich hätte eben gern diese maximal verfügbare Leistung ständig und nicht nur, wenn mal was aufzuholen ist.

Kann mir da jemand weiterhelfen, Danke schonmal.

Selber Hallo,

werden hier vieleicht zwei Begriffe verwurstet?
Beim Videoschnitt wird nicht gerändert, sondern es findet eine Formatumwandlung und ggf eine Kompression statt.

Dann stellt sich die Frage, wo liegt denn der Flaschenhals. Die Software wird mit Sicherheit nicht in Echtzeit arbeiten, dann dann wäre bereits die Bewegung des Mouse courser eine mittelschwere Qual für den Anwender, das Abrechen des Appliktion würde dann möglicherweise mehrere Minuten dauern, bis der Prozess erkannt wird.

Ich tippe mal darauf, das es das Video nur auf Festplatte bearbeitet wird und der eigendilche Flaschenhals die Schreib- und Lesegeschwindigkeit auf das Speichermedium ist.
Möglicherweise ist die Platte auch nicht mehr die jüngste und zeigt Alterungserscheinungen in Form von Müdigkeit, sprich sie hat Performence-Einbußen durch Plattenproblemchen.
Ohne eine echte Analyse des Problems und genauerer Information zur Software, ist das nur Spekulation.

Guten Tag,

wenn es einen Flaschenhals gibt, dann hat er sich gut getarnt und ich werde es in ein paar Wochen wissen - habe aber reichlich Anzeichen, dass die Software schneller könnte, aber eben nicht darf.

Das alte System arbeitete mit einer Intel-Pentium-IV-HT-CPU bei 3.06 GHz - FSB war 533 MHz - dazu 2 GB DDR-RAM, welche durch den FSB mit der Spezifikation von PC 2700 liefen, obwohl es PC 3200 waren - es waren weder Dual-Channel noch hyperthreading aktivierbar - zweimal Software des gleichen Herstellers auf einem System, wovon die eine bei gleichen Anforderungen noch 10 Prozent schneller arbeiten konnte als die andere - die eine packte vielleicht 20 frames, dann arbeitete die andere mit ca. 22 frames pro Sekunde - je weiter das Format auf Breitbild geschnitten wurde, also je weniger Höhe man komprimieren ließ, umso schneller konnte die Software arbeiten.

Das Mainboard wurde ausgetauscht - jetzt waren hyperthreading- und Dual-Channel-Modus verfügbar - eine Pentium-IV-HT-CPU mit 3.0 GHz bei FSB 800 und die 2 GB DDR-RAM liefen mit PC3200-Spezifikation - beide verfügbaren Programme laufen nun auf diesem System auf Echtzeit-Komprimierung 24,999999 fps - sind ja immer diese paar Sekunden noch extra dazu, also eben nicht ganz 25 - die Software, welche zuvor unter gleichen Bedingungen 10 Prozent schneller lief, bringt diese 10 Prozent extra nicht mehr - es müsste ja sonst mit ca. 26 fps oder 27 fps arbeiten - ist nicht da - und selbst, wenn ich das Bild bis auf minimale Höhe zusammenschneide, dann wird die Software nicht mehr schneller - bei einem noch so engen Flaschenhals sollte es sich doch wohl auswirken, ob ich Vollbild oder ein 10:1-Format komprimieren will - es müssen ja viel weniger Daten transportiert werden - auch der Austausch der 3.0 GHz CPU gegen eine 3.2 GHz CPU brachte absolut keinen Performance-Gewinn.

Das so konfigurierte System kann das letzte aus der Software rausholen, aber sie gibt nicht mehr her - dennoch hat sie mir gezeigt, wie sie einen recht großen Rückstand bei der Komprimierung wieder aufgeholt hat - und somit bleibt der bereits bestehende Verdacht, dass die Software mehr könnte, wenn man sie ließe - sie muss ja zum Aufholen eines Rückstandes auch schneller arbeiten als diese suggeriert maximal mögliche Komprimierung in Echtzeit - eben mit nahezu 25 fps.

Selbst bei den IRQ-Channels ist es aufgeräumt - hier bleibt also immer noch die Frage, wo die Software geringfügig angepasst werden kann, diese Performance-Grenze zu überwinden, auszuschalten, wie auch immer man das nennen möge.

Die Festplatte sollte es noch bringen - da ist ja noch Garantie drauf.

Dennoch vielen Dank für die Bemühungen, suche eben eine andere Möglichkeit, der Software auf die Sprünge zu helfen - denn ein bisschen seltsam ist das schon - man stelle sich vor, man fahre auf der Autobahn dahin und kommt nicht über 250 km/h - man hat aber gebummelt und zum Aufholen jagt die Kiste plötzlich los und zieht mit über 300 den anderen hinterher und zwar genau so lange bis man wieder gleichauf ist - da hat man zwar gesehen, dass es auch schneller geht, aber selbst kann man es nicht nutzen - blöd, oder?

Um aber ganz sicher zu gehen, wird es nochmal ein System geben, mit doppelt soviel Arbeitsspeicher bei PC5300-Spezifikation - dauert nur noch ein paar Tage, und dann weiß ich gewiss, ob schneller oder nicht.

Moin,

Ich wüsste gern, was ich unternehmen kann, diese Software zu
voller Performance zu bringen

Den Hersteller kontaktieren.

welche Datei ich eventuell zu
bearbeiten hätte, so es regelmäßig die gleiche ist

Eher unwahrscheinlich.

ja, und welche Programmiersprache ich dafür
womöglich zu erlernen hätte

Die, in der die Stelle programmiert ist, die die Software langsamer als nötig macht.

kann mir das jemand verraten,

Der Hersteller :smile:

Und bitte bachte doch auch die rechtliche Seite, denn üblicherweise ist es bei Software nicht gestattet, daran Änderungen vorzunehmen oder die Software zu decompilieren u.ä.

Für gewöhnlich heißt das, wenn der Hersteller keinen Support mehr anbietet, dass ein neues Programm gekauft werden muss.

Freundliche Grüße,
-Efchen

Guten Tag,

wenn es einen Flaschenhals gibt, dann hat er sich gut getarnt
und ich werde es in ein paar Wochen wissen - habe aber
reichlich Anzeichen, dass die Software schneller könnte, aber
eben nicht darf.

Warum sollange warten, es gibt reichlich Diagnose Programme um den zu finden.

Das alte System arbeitete mit einer Intel-Pentium-IV-HT-CPU
bei 3.06 GHz - FSB war 533 MHz - dazu 2 GB DDR-RAM, welche
durch den FSB mit der Spezifikation von PC 2700 liefen, obwohl
es PC 3200 waren - es waren weder Dual-Channel noch
hyperthreading aktivierbar - zweimal Software des gleichen
Herstellers auf einem System, wovon die eine bei gleichen
Anforderungen noch 10 Prozent schneller arbeiten konnte als
die andere - die eine packte vielleicht 20 frames, dann
arbeitete die andere mit ca. 22 frames pro Sekunde - je weiter
das Format auf Breitbild geschnitten wurde, also je weniger
Höhe man komprimieren ließ, umso schneller konnte die Software
arbeiten.

Die Aussagekraft der Daten geht gegen, das sagt garnichts aus.
Wichtig wäre zuvergleichen, wie hoch der Datentransfer zwischen CPU und RAM ist, die Qualität des RAM wird nicht durch die Größe definiert, sondern durch Wartecyclen und Geschwindigkeiten.
Geschwindigkeitssteigereungen werden erst bei einem Gewinn von 20% bemerkbar, alles andere ist echte Spekulation.

Das Mainboard wurde ausgetauscht - jetzt waren hyperthreading-
und Dual-Channel-Modus verfügbar - eine Pentium-IV-HT-CPU mit
3.0 GHz bei FSB 800 und die 2 GB DDR-RAM liefen mit
PC3200-Spezifikation

Und CPU läuft mit 200MHz und das RAM auch?
Wäre es nich besser gewesen gleich eine 3.2 oder 3.4 CPU zunehmen … noch besser: Das Geld in eine neueres Leistungsstärkeres System zustecken?

  • beide verfügbaren Programme laufen nun
    auf diesem System auf Echtzeit-Komprimierung 24,999999 fps -
    sind ja immer diese paar Sekunden noch extra dazu, also eben
    nicht ganz 25 - die Software, welche zuvor unter gleichen
    Bedingungen 10 Prozent schneller lief, bringt diese 10 Prozent
    extra nicht mehr - es müsste ja sonst mit ca. 26 fps oder 27
    fps arbeiten - ist nicht da - und selbst, wenn ich das Bild
    bis auf minimale Höhe zusammenschneide, dann wird die Software
    nicht mehr schneller - bei einem noch so engen Flaschenhals
    sollte es sich doch wohl auswirken, ob ich Vollbild oder ein
    10:1-Format komprimieren will - es müssen ja viel weniger
    Daten transportiert werden - auch der Austausch der 3.0 GHz
    CPU gegen eine 3.2 GHz CPU brachte absolut keinen
    Performance-Gewinn.

Dann wird wohl das RAM zu lamarschig sein und jede Menge Schlafenzeit einlegen.

Das so konfigurierte System kann das letzte aus der Software
rausholen, aber sie gibt nicht mehr her - dennoch hat sie mir
gezeigt, wie sie einen recht großen Rückstand bei der
Komprimierung wieder aufgeholt hat - und somit bleibt der
bereits bestehende Verdacht, dass die Software mehr könnte,
wenn man sie ließe - sie muss ja zum Aufholen eines
Rückstandes auch schneller arbeiten als diese suggeriert
maximal mögliche Komprimierung in Echtzeit - eben mit nahezu
25 fps.

Hmm, ich denke bei richtiger Hardwareauswahl und besserer Konfiguration würde so einiges flotter laufen.

Selbst bei den IRQ-Channels ist es aufgeräumt - hier bleibt
also immer noch die Frage, wo die Software geringfügig
angepasst werden kann, diese Performance-Grenze zu überwinden,
auszuschalten, wie auch immer man das nennen möge.

Was hat das jetzt mit den Frames zutun? Das bringt nun wirklich nix, die Software will Rechenpower haben, das bissech Zeit für das Wegschreiben der Daten da ist der DMA- und HD-Controller für zuständig, da wird die CPU kaum bei belastet.

Die Festplatte sollte es noch bringen - da ist ja noch
Garantie drauf.

Ganz schlechtes Agument, mir ist eine nach 8 Wochen verstorben.

Nur eine Platte … aber über Performance jammern.
Eine Platte (nicht Partition) für die Quelldatei
Eine Platte für die Zieldatei
und am Besten eine Platte auf der die Temp Datei liegt bzw das Pagefile.

Wenn nur auf einer HD rumgeschaufelt wird ist jeder Kopiervorgang langsam.

Dennoch vielen Dank für die Bemühungen, suche eben eine andere
Möglichkeit, der Software auf die Sprünge zu helfen - denn ein
bisschen seltsam ist das schon - man stelle sich vor, man
fahre auf der Autobahn dahin und kommt nicht über 250 km/h -
man hat aber gebummelt und zum Aufholen jagt die Kiste
plötzlich los und zieht mit über 300 den anderen hinterher und
zwar genau so lange bis man wieder gleichauf ist - da hat man
zwar gesehen, dass es auch schneller geht, aber selbst kann
man es nicht nutzen - blöd, oder?

Tja, warum ziehst Du auch die Handbremse dabei an.

Um aber ganz sicher zu gehen, wird es nochmal ein System
geben, mit doppelt soviel Arbeitsspeicher bei
PC5300-Spezifikation - dauert nur noch ein paar Tage, und dann
weiß ich gewiss, ob schneller oder nicht.

Dat bringt fast nix, eher weniger.