Optimierung

Ich habe vor gar nicht allzulanger Zeit (das genaue Datum kann ich nicht sagen :wink: einen kleinen Allgorithmus entwickelt (ich behaupte aber nicht, das ich der erste war, der auf diese Idee gekommen ist) um einen beliebigen Text zu verschluesseln. Besser gesagt ihn nicht mehr direkt lesbar zu machen und dabei ein klein wenig komprimiert. Eine genauere Beschreibung kann man auf meiner HP
http://www.nigjo.de/software/ncf
nachlesen (waere zu lang fuer hier). Ich suche Leute, die mir ein paar (einfache) Optimierungsalgorithmen nennen koennen, die die auf der Seite beschriebenen Seitenwechseln minimieren.

Danke schonmal

Jens

Sorry, aber ich glaube, der Aufwand lohnt nicht. Dein Verfahren taugt weder als Verschlüsselungs- noch als Kompressionsalgorithmus, da für ersteres zu simpel, für zweiteres wie Du schon sagst zu ineffektiv.

Dein GetPlaylist-Programm finde ich aber sehr brauchbar!

Gruß

J.

Sorry, aber ich glaube, der Aufwand lohnt nicht. Dein
Verfahren taugt weder als Verschlüsselungs- noch als
Kompressionsalgorithmus, da für ersteres zu simpel, für
zweiteres wie Du schon sagst zu ineffektiv.

Er war auch nie als kommerzielles (oder effektives) Produkt gedacht. Ist mehr so eine Spielerei von mir. Mich haette nur mal so Grundsaetzlich interessiert, wie man sowas machen koennte

Dein GetPlaylist-Programm finde ich aber sehr brauchbar!

Danke ! Ich bin fuer jegliche Kritik dankbar !

Gruss
Jens

Hi Jens :wink:))

Ich habe mir deinen Algorithmus mal durchgelesen. Zur Verschlüsselung ist er nicht gut geeignet, weil die einzige Sicherheit darin besteht, dass der Algorithmus geheim bleibt. Die Erfahrung hat aber gezeigt, dass ein Angreifer früher oder später Kenntnis von dem Algorithmus erlangt. Dein Schutz wäre damit hinfällig. Heute ist es ja sogar so, dass die Verschlüsselungs-Algorithmen veröffentlicht werden. Der Schutz beruht normalerweise auf einem geheimen Schlüssel, den nur berechtigte Personen kennen.

Zur Datenkompression ist er ebenfalls ungeeignet. Im Gegenteil, wenn du z.B. Programme komprimieren willst, in denen Bytes von 0 bis 255 vorkommen, kann es schlimmstenfalls sogar zu einer Vergrößerung kommen.

cu Stefan.

Hi Jens :wink:))

Hi Stefan :smile:

Zur Verschlüsselung ist er nicht gut geeignet, weil die einzige
Sicherheit darin besteht, dass der Algorithmus geheim bleibt.
Die Erfahrung hat aber gezeigt, dass ein Angreifer früher oder
später Kenntnis von dem Algorithmus erlangt.

Er war auch nie dafuer gedacht eine optiomale Sicherheit vor Leuten zu bieten, die den Ergeiz haben den Code zu knacken. Zumal auch (wie ich finde) recht genau beschrieben ist, wie der Algorithmus funktioniert.

Dein Schutz wäre damit hinfällig. Heute ist es ja sogar so,
dass die Verschlüsselungs-Algorithmen veröffentlicht werden.

s.o.

Zur Datenkompression ist er ebenfalls ungeeignet. Im
Gegenteil, wenn du z.B. Programme komprimieren willst, in
denen Bytes von 0 bis 255 vorkommen, kann es schlimmstenfalls
sogar zu einer Vergrößerung kommen.

Das ist mir bekannt, darum suche ich nach einem Optimierungsalgorithmus.

Gruss
Jens

Hi Jens :wink:))

Datenkompression beruht im Wesentlichen auf 2 Mechanismen. Der erste ist, dass wiederholt vorkommende Bytefolgen nur beim ersten Mal gespeichert werden und für jedes weitere Auftreten ein kleiner Link auf diese erste gespeicherte Bytefolge gesetzt wird (LZ77, LZW). Der zweite ist, dass häufig vorkommende Bytes mit weniger Bits kodiert werden (Huffman, arithmetische Kodierung).

Datenreduktion, manchmal auch verlustbehaftete Kompression genannt, beruht auf dem Verwerfen unwesentlicher Details (JPG, MP3). Dies wird normalerweise nur bei Bildern und Sprache/Musik angewendet und kommt für dich sicherlich nicht in Frage.

Bei deinem Algorithmus kann ich aber nicht erkennen, wie die Datenmenge irgendwie geschickt komprimiert werden könnte. Durch ein bloßes Umordnen von Bits ist da sicherlich nichts zu erreichen.

cu Stefan.

nachlesen (waere zu lang fuer hier). Ich suche Leute, die mir
ein paar (einfache) Optimierungsalgorithmen nennen koennen,
die die auf der Seite beschriebenen Seitenwechseln minimieren.

Ich bin kein Fachmann, aber ich glaube nicht, dass hier ein „einfacher“ Algorithmus helfen würde…

die einzige Möglichkeit, die ich im Moment sehe ist ein Backtracking-Durchlauf (also Codeseiten mit Erfolgscheck durchPROBIEREN)

VERSUCHEN könnte man auch: (und das wäre definitiv einfacher)
Zeichen zählen und die häufigsten dann in Codelist 1 packen. Könnte ja sein, dass man dadurch kaum noch wechseln muß… aber das bringts wahrscheinlich auch nur bei Textdateien oder anderen ungünstigen Formaten … bei komprimierten Datein würde ich das gar nicht erst versuchen…