Laut einer Statistik soll der Winter die unbeliebteste Jahreszeit der meisten Deutschen sein. Klar, es gibt viele Menschen, die keinen Schnee mögen (und vielleicht am liebsten auf der Bahamas leben würden). Aber so ganz verwundern tut mich die Statistik aber nicht.
Der Winter in DE ist nämlich kein Winter im klassischen Sinne wie man es aus den Bildernbüchern kennt. War das im vergangenen Jahrhundert auch so? Waren die Winter in Deutschland auf der Tiefebene (also überall dort, wo es nicht bergig ist), so „grün“?
Gab es eine Zeit, in der in Deutschland (abgesehen von den Gebirgen und Hochebenen) normalerweise eine dicke Schneedecke in den Wintermonaten Dezember, Januar und Februar lag und die Temperaturen wochenlang auch tagsüber nicht über 0°C steigen?
Gab es früher im 20. Jahrhundert gewöhnlicherweise „weiße“ Winter mit „polarer Atmosphäre“?
Waren die Winter früher grundsätzlich bedeutend kälter?
Wenn heute bspw. in Kiel (Schleswig-Holstein) Schnee fällt, dann ist der Schnee nur etwa 1cm dick und soetwas erlebt man im Winter nur wenige Tage. Und oft taut dann der Schnee tagsüber sowieso wieder auf. Ist das „normal“?
Müsste nicht so ein Winterwetter im Mittelmeergebiet anzutreffen sein und nicht in DE mit gemäßigtem Klima?
Freue mich über eure Antworten.
LG Yellas