mit dieser Unschärferelation habe ich mich nie
auseinandergesetzt. Ich habe zwar bei Wiki mal nachgelesen,
aber wenig begriffen. Könnte mir einer von euch mal in
verständlichen Worten und anhand eines praktischen Beispiels
diese Theorie kurz erklären?
Danke schon jetzt.
Eine meiner Meinung nach sehr wichtige Ergänzung zu den anderen Antworten: Man darf nie vergessen, daß es hier nur um eine statistische Aussage geht. Es geht nicht um die Unfähigkeit von einem Elektron Ort und Geschwindkeit mit beliebiger Genauigkeit messen zu können (sobald man misst, ist eh alles vorbei, weil das System beeinflusst wurde). Man muß zigmal identische Anfangsbedingungen schaffen! Das ist das Wichtigste!
Laut klassischer Physik passiert dann immer das gleiche (deterministisch). Eigentlich stellt man aber fest, daß die Meßwerte für Impuls und Ort immer streuen. Dieser Verteilung der Meßwerte kann man einen Fehler zuordnen (Halbwertbreite der Verteilung oder so etwas). Man wird dann merken, wenn man den Fehler von einem der beiden Meßgrößen verkleinern kann (bspw, weil ein Photon durch einen kleineren Spalt fliegt oder ein Elektron stärker an einen Atomkern gebunden wird und dadurch seltener weit weg vom Atomkern gemessen wird), daß der Fehler der anderen Meßgröße größer wird. Statistik! Man findet immer alle möglichen Meßwerte, sie werden weiterhin um den Erwartungswert verteilt sein, aber wenn Du vorhersagen wolltest, was dein als nächstes (identisch) präpariertes Teilchen für einen Impuls ODER Ort hat, kann kannst Du das mit einer schlechteren Genauigkeit tun.
Diese unschärfen existieren bei allen Observablen, die nicht kommutieren. Kennt man den Kommutator, ist der Rest einfach. Aber das ist dann mehr Mathe.
Ich hoffe ich habe nicht zuviel Unsinn geredet. 
Ciao,
Malte!